面对新兴技术的伦理挑战,该怎么办?

编者按:

“中国正处于一个十字路口。” 5 月 8 日,中国学者雷瑞鹏、翟晓梅、朱伟、邱仁宗四人在 Nature 上发表评论文章,做出预警,政府必须做出重大改变,以保护他人免受鲁莽的人类实验的潜在影响。

事实上,随着新兴技术的快速发展,确实带来一些不符合伦理或非法使用的可能性。例如人工智能领域出现的算法歧视,合成生物学可能被滥用于制造生物武器等。

新兴技术的这些特点,决定了“技术先行”或“干了再说”的办法,可能不再适用。而且,在市场压力下潜在的利益冲突,科学家的自我约束也容易失灵。为此,DeepTech 邀请雷瑞鹏、邱仁宗撰文,探讨如何解决中国在新兴技术领域的伦理治理难题。


现在大家正在“痛定思痛”,思考这个“痛”怎么来的,怎么才可以避免再发生这种令人“痛”的事件。我们认为,从根本上说,我们还没有在国家层面建立保护人类受试者的伦理基础设施或伦理治理体系,这包括制订有法律效力的有关保护人类受试者的法规或条例系统,建立有效优质的机构伦理审查制度,建立有效优质的能力建设制度,以及有效的质量控制制度,包括对机构伦理审查委员会和省市伦理委员会的检查、考查和评估制度。

我们的国的家卫生健康委员会和食品药品监督管理总局已经制订了我们认为比较好的规范和管理办法,但对它们实施的监督较差;机构伦理审查委员会质量参差不齐;能力建设薄弱;以及缺乏检查、考查和评估。即使有了改善,它们实际上仅在这两个政府部门管辖范围之内,在这两个管辖部门此之外的研究机构以及和越来越多的私立研究机构也许对这些部门规章,就置若罔闻了。将这些部门的规章成为国务院(中央政府)的条例,在国务院下建立保护人类受试者的权威机构也许是我们应该做的事情之一。

这些新兴技术的主要特点之一是它们有可能对人和 会带来巨大受益,同时又有可能带来巨大风险,威胁到人类未来世代的健康以及人类的生存。例如人工智能可使人类从一般的智能活动摆脱出来,集中精力于创新发现发明,然而同人类一样聪明甚至超越人类的人工智能系统,一旦失去控制,可能对人类在地球的存在带来威胁。合成生物学的研究和广泛应用可帮助人类用多快好省的方法解决困扰人们已久的粮食、营养、燃料、药物和疫苗的生产问题,然而如果合成出传染力强、引起的疾病严重、传播迅速,且对疫苗有免疫力的病毒,则可能使数千万人丧失生命。

新兴技术主要特点之三是,会提出一些我们从来没有遇见过的新的伦理问题。例如人工智能软件对于我们人类做出涉及未来的决策能够起很大的积极作用,可是人工智能的决策是根据大数据利用算法做出的,算法能在大数据中找出人们行为的模式,然后根据这种模式预测某一群人未来会采取何种行动,包括消费者会购买何种商品,搜索何种人可担任企业的高级执行官,某种疾病在某一地区或全国发生的概率,或在某一地区犯过罪的人有没有可能再犯等等,然后根据这种预测制订相应的干预策略。然而,模式是根据数据识别出来的,而数据是人们过去的行为留下的信息,根据从过去行为的数据识别出的行为模式来预测人们未来的行为,就有可能发生偏差或偏见。例如在美国多次发现算法中的偏差,结果显示种族主义和性别歧视偏见。安保机构往往根据算法来确定黑人容易重新犯罪,尽管实际上白人罪犯更容易重新犯罪。由于在大数据中往往将“编程”、“技术”等词与男性联在一起,“管家”等词则与女性联在一起,因此人工智能的搜索软件往往推荐男性做企业高级执行官等等。再则,人有自由意志,一个人过去犯过罪,他可以选择今后不再犯罪。

新兴技术的这些特点,决定了我们发展它们的政策和战略不能采取技术先行干了再说的办法。反之,我们应该伦理先行”。这要求我们在启动研发之前先要在对其伦理问题探讨的基础上,制订一套初步的、暂行的伦理规范和管理办法。

最近国家卫生健康委员会发布的《生物医学新技术临床应用管理条例(征求意见稿)》是很好的,但对每一项新兴技术都制订一个伦理指南或伦理准则可能更好。这种规范是暂时性的,因为制订这些规范时我们缺乏充分的信息,而且新兴技术具有不确定性,我们可以随着科研的发展,及时进行评估,修订我们的规范。因此,在这个阶段规范不宜采取立法的形式,而以部门规章为宜,因为需要与时俱进,及时修改,以便不脱离科技发展的实际。随着我们积累的知识和数据增多而随时加以修改、完善(类似摸石头过河)。

雷瑞鹏,华中科技大学文学院、生命伦理学研究中心教授

邱仁宗,中国 会科学院哲学研究所研究员

关注 DeepTech ,发现改变世界的新兴科技(微信 :deeptechchina)

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2019年4月10日
下一篇 2019年4月10日

相关推荐