哲学驿站分享 http://blog.sciencenet.cn/u/老李 一个行走者的思想历程

博文

人工智能引发的伦理问题及其规制 精选

已有 3791 次阅读 2020-11-26 16:49 |系统分类:人文社科

OIP (12).jpg

人工智能引发的伦理问题及其规制

李侠

(上海交通大学科学史与科学文化研究院)

2020829日,埃隆·马斯克(Elon Musk)在加州弗里蒙特举行了一场发布会,正式向全世界展示了自己的脑机科学公司Neuralink对猪进行脑机接口技术的成果,该芯片可以实时监测到小猪的脑电信号,遗憾的是我们还无法知道小猪在想什么,但这项技术所揭示的未来太令人期待了,这则报道迅速轰动世界也是人们内心偏好的真实反映,它重新激发了人们对于脑机接口技术(brain-computer interfaceBCI)的热情。

所谓的脑机接口,通俗来说就是在人脑(或动物)与外部设备之间建立直接的联系,由此形成信号的接收与发送,并实现相应的功能。按照脑机接入的方式可以分为两类:侵入式脑机接口(马斯克这次演示的就属于此类)与非侵入式脑机接口。前者的优点在于获得的脑电信号更好,便于分析与处理,而后者收集到的信号质量较差、容易受到噪声干扰。因此,侵入式脑机接口是目前国际学术研究的前沿。脑机接口已经实实在在地出现在我们的面前,随着植入头脑的各类芯片与传感器的日益微型化、功能集成化、加上近年来人类对大脑功能了解的深入、脑机融合的日趋完善、创口的微小化、以及电池功能的增强,脑机接口技术取得重大突破绝非幻想,而是一种可以预见得到的发展趋势。

人们之所以对脑机接口技术的发展趋势持乐观态度,是因为社会上对于脑机接口技术有着巨大的市场需求,它所拥有的潜在商业价值是推动该项技术发展的重要推手。仅就目前可以想象得到应用来看,脑机接口市场前景广阔,下述三种情形是最有可能优先发展的领域,如果该项技术成熟,那么日益困扰老年人的老年痴呆症现象将得到极大缓解;修复残疾患者的大脑缺陷,从而实现部分身体功能的恢复,以及可以实现治疗抑郁等精神疾病;更有甚者可以实现神经增强功能,如大脑的计算速度与记忆能力都是远超人类的,如果未来植入的芯片与大脑更好地兼容,那么人类的计算速度与记忆能力都将得到根本性的改变,制造超人不再是梦想。上述三种情形在科学上几乎都有成功案例。如对残疾人来说,通过意念实现部分身体功能,这类实验成功的很多,如已经被广泛采用的脑深部电刺激技术,这就是大名鼎鼎的“脑起搏器”,其原理就是通过植入脑部的电极向大脑的特定部位发送电脉冲,这一技术主要用于治疗帕金森病和强迫性精神障碍等疾病,已经被美国食品药品监督管理局批准。

再比如,美国著名的视觉脑机接口专家都博勒(William Dobelle1941-2004),他的皮层视觉脑机接口主要用于后天失明的病人。1978年,都博勒在一位男性盲人杰瑞(Jerry)的视觉皮层植入了68个电极的阵列,并成功制造了光幻视(Phosphene)。植入后患者能看到清晰度以及更新率较低的图像。如果说都博勒的工作是40年前技术的体现,那么现在这方面的研究也有了最新进展,失明患者看到的视野比以前要好许多,有理由预测,随着一些关键难题的突破,视觉脑机接口将惠及更多的失明患者。

还有科学家把人造海马体植入到因海马体受损而丧失记忆形成功能的老鼠脑中,并成功让老鼠恢复了部分记忆形成功能(伯杰等人)。基于上述案例,我们大体上可以清晰判断出脑机接口技术正在向日常生活领域扩散,一旦有技术上的突破,这种趋势将无可逆转。

问题是脑机接口技术虽然具有如此广阔的应用前景,但也不可避免地带来某些人类从来没有遭遇过的伦理困境。对此,瑞典数学家奥勒哈格斯特姆曾指出,脑机接口技术带来的两种常见的伦理问题是:隐私和认知能力的“军备竞赛”。关于隐私问题,这已经成为高科技时代具有普遍性的伦理困境,每一次技术升级,都会导致隐私状态随之发生改变,从人类历史上看,从农业社会、工业社会到后工业社会,人类的隐私范围是逐渐缩小的。总体而言,技术进步导致公共领域扩张,而私人领域日益被技术侵蚀,隐私也随之日益变小,人变成了透明人,隐私的消失也就意味着个人自由的萎缩。对于脑机接口技术而言,这种情况尤为紧迫。一旦通过大脑植入设备可以轻易获取我们大脑内的电信号,其内容完全可以被破译出来,这就导致有很多个人或机构想要获取这些信息,从而利用这些信息实施对我们基于特殊目的的操控,如商家的促销、管理者对于雇员的监视、或者国家对于全民的监视等。这种过程是渐进的,在温水煮青蛙效应中,人类的隐私一点点失去,我们不知道这是否就是人类为技术进步所必须付出的代价。上述担忧绝非杞人忧天,据资料介绍,1999年斯坦利(Garrett Stanley,现在埃默里大学Emory University任职)教授,在哈佛大学通过解码猫的丘脑外侧膝状体内的神经元放电信息来重建视觉图像。他们记录了177个神经元的脉冲列,使用滤波的方法重建了向猫播放的八段视频,从重建的结果中可以看到可辨认的物体和场景。同理,利用这套技术也可以重建人类的视觉内容。看到这类实验,你还认为脑机接口所引发的隐私问题还很遥远吗?更何况遥远并不意味着不可能。

再来说说由脑机接口所带来的认知能力的“军备竞赛”问题。由于电脑在精确计算、数据传输与记忆方面比人类的表现强很多,那么,随着技术的发展与完善,总会有一些人尝试在大脑中植入一些芯片,使自己的能力与计算机的能力进行整合,这将造就认知超人,试问我们正常人再怎么努力也无法达到电脑所具有的记忆能力,这种事情一旦开始就无法停下来,从而陷入“军备竞赛”的游戏框架下,因为没有人敢于停下来,否则他将被淘汰。问题是这种神经增强完全打破了人类由自然选择以来所形成的所有关于公平的规范?此时优秀将不再是对于人的能力的褒奖,而是对他植入大脑的设备的褒奖?那么人类的价值又何在呢?也许影响更为深远的是,脑机接口技术的军备竞赛式滥用,还会造成整个社会分层的固化,毕竟任何新技术在早期都是昂贵的,其最初的使用者大多是有钱有势者,这种现实决定了脑机接口技术会更深层次地造成社会的固化,从而使社会秩序遭到毁灭性的破坏。

以脑机接口技术为标志的人工智能发展引发出一系列我们目前尚无法完全预料到的后果,它事关人类的未来,因此,必须从伦理层面对于它的发展进行有目的的约束。2020年上半年,美国五角大楼正式公布人工智能的五大伦理原则,即负责、公平、可追踪、可靠和可控。这个说法作为伦理原则没有错,但是如何在实践中落实,仍存在很多不明确之处,为此,我们需要构建一套全流程的伦理规范机制,把伦理责任分解,采取分布式伦理,即人工智能从制造到应用每个环节都承担相应的伦理责任,只有这样,人工智能才能最大限度上既增进社会的福祉,又把其潜在的风险最小化。目前的调查与研究显示,在新技术发展的进程中,每个人的责任都是有限的,但是其后果却是严重的。由于人类对于微小的恶的不敏感性,导致最初对于风险呈现出整体的麻木状态,到后来小风险的累积就成为高科技面临的严重伦理问题。这已成为一种风险扩散的普遍模式,为此,我们需要构建一个新的伦理责任体系。

由于人工智能本身的复杂性,以及未来发展的不确定性,导致人工智能责任的明确归属变得更为困难和模糊,如何防范其可能带来的风险也就变得越发困难,甚至会出现无法追责的伦理缺席现象。因此,传统的针对单一主体的伦理规范原则开始失灵,为此我们必须构建一种新的伦理约束机制,从而实现对人工智能从前端、中端到末端全覆盖的有效伦理风险防范机制。为此,我们借用英国伦理学家卢恰诺•弗洛里迪提出的分布式道德概念构建人工智能的伦理风险防范框架示意图,根据这张框架图我们可以把人工智能伦理风险防范分为三部分:首先,是前端的AI设计者的伦理责任(责任1,简称R1),其次,是中端使用者的伦理责任(责任2 ,简称R2),第三,是末端受众的责任(责任3,简称R3)。

我们不妨假设人工智能所引发的伦理风险总量用公式表示为:ΣR=R1+R2+R3,其中,R1R2R3。这三段式伦理分布的规约机制分别是:1、对于设计者而言,他有多种动机(从善、中性到恶的选择),这一部分伦理风险要通过具有强制性的政策手段(严重违规就上升到法律规约)来遏制,所有负责任创新都是从动机上防范伦理风险的发生;2、对于使用者而言,他要为自己的使用承担相应的伦理责任;3、受众作为社会成员,有监督人工智能使用的间接责任(个体责任最小,但是由于公众数量庞大,无数微小的努力汇聚起来就是强大的伦理风险防范力量),23的激活需要利用科学文化的规训作用,在高科技时代没有人是旁观者,只有伦理责任的全覆盖,高科技的伦理风险才会被最大限度上遏制,具体内涵见下图:

 伦理责任.jpg




  

OIP (3).jpg

【博士跋】这篇小文章是暑假期间应《科学画报》徐老师之邀而写,这次一共写了三篇,这是其中之一,预计发表在《科学画报》2020(12)期上。《科学画报》是诞生于1933年的中国最老的科普杂志,杂志品相很不错,这是第二次应邀写作科普文章。发表时略有删减,这是原稿,与徐老师合作愉快,是为记!

2020-11-26于南方阴雨中

说明:文中图片来自网络,没有任何商业目的,仅供欣赏,特此致谢!



http://blog.sciencenet.cn/blog-829-1259998.html

上一篇:两张有趣的图
下一篇:浅议生物医学技术引发的伦理问题

10 黄永义 刘立 刘旭霞 武夷山 操光辉 崔锦华 周忠浩 杨正瓴 陈志飞 吴国林

该博文允许注册用户评论 请点击登录 评论 (12 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-1-17 18:32

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部