QSThinkTank的个人博客分享 http://blog.sciencenet.cn/u/QSThinkTank

博文

《自动驾驶电车难题的伦理算法研究》(跨学科和多学科研究)

已有 5665 次阅读 2020-11-6 16:07 |个人分类:自动驾驶|系统分类:论文交流

自动驾驶电车难题的伦理算法研究*

隋婷婷1   郭喨2

1.东南大学 哲学与科学系,江苏 南京 211189;

2.浙江大学 光华法学院司法与人工智能研究中心,浙江 杭州 310008

引用地址:

1.隋婷婷,郭喨.自动驾驶电车难题的伦理算法研究[J].自然辩证法通讯,2020,42(10):85-90. 

pdf版点此下载

《自动驾驶电车难题的伦理算法研究》(隋婷婷,郭喨).pdf

 

摘要:“电车难题”是自动驾驶需要面对的现实问题,目前主流的方案为通过算法解决。统一的强制伦理算法中,当公众作为与事故无关的“安全旁观者”时,“后果主义”战胜了“道义论”:全球89%的公众作出了后果主义的选择,这一选择还会被“净拯救人数”与被拯救者年龄等因素进一步强化。当公众想象自己成为“潜在牺牲者”时,“群体”意义上的“后果主义”依然成立:52%的被试选择自我牺牲拯救2人,这一意愿随着被拯救的人数而加强。但这种“自我牺牲”并不真实,当假想身份是消费者时没有人真的原因去买一辆“自我牺牲”的自动驾驶车辆。个人化伦理算法将普遍性的道德设置转化为个体的独家伦理设置,以“预设选择”取代“预设答案”。“道德旋钮”(ethical knob)架构预设了一种从完全利己到完全利他的连续道德维度,由乘客根据体的主体生命权重、主体预期死亡率以及主体数量进行负效用率的计算,但在实际驾驶场景的博弈中会出现所有人都走向“完全利己”的悖论;罗尔斯“最大化最小”的算法则将导致“自我保护措施的加强与死亡风险成正比,越遵守安全准则的个体越不安全的后果”;最终,一种“既不向左也不向右”的制动力学算法,通过技术化的框架规避了在电车困境中做出伦理性选择,成为有前景的自动驾驶电车难题的伦理算法。

 

关键词:自动驾驶;电车难题;伦理算法;安全旁观者;潜在牺牲者;道德旋钮;罗尔斯算法

 

一、引言

汽车是当代人类生活不可或 缺的一部分为公众提供生活便利的同时,世界范围内汽车相关的交通事故死亡已成为除疾病外最大的死亡来源。司机“人”的闭环系统里当了最主要的不稳定变量,成为九成以上交通事故的主因

近年来,随着计算机算力稳步提升、机器视觉持续优化以及神经网络和深度学习等人工智能算法的进步,自动驾驶汽车的“技术奇点”已然逼近甚或已经来临。通过人工智能的“代驾”将人从传统的交通闭环中解放出来,降低事故率、提高安全性已成为公众对自动驾驶的重要期待。自动驾驶系统尽管拥有人类司机随着技术进步持续提升的安全预期值,“绝对安全”与零事故仍是难以企及的,因为自动驾驶车辆本身作为一种机器,也无法超越内在于机器的四大机器事故局限:硬件故障(hardware failure)、软件漏洞(software bugs)、知觉错误(perceptual errors以及推理错误(reasoning errors这意味着,某些时候事故总是难免的。

事故发生的某种必然性,使得自动驾驶系统将无可避免地面对某种道德决策困境,如经典的电车难题。在人类纪的驾驶情境中,人类作为道德决策主体,无论其选择遵守后果主义道德原则操作失控的汽车撞向少数人以挽救多数人的生命,抑或顺应“道义论”不改变汽车的行驶路线,再或者是在时间压力下做出其他下意识的选择,均可视为“道德主体”做出的“合理化个人选择”但自动驾驶系统具有的“算法先置性”,使得设计者不得不预先设定自动驾驶算法在这一伦理困境中的道德倾向。由于机器人驾驶员会不打折扣地执行计算机程序,因此,设计时必须事先考虑到一切不良后果,而不是事后采取补救措施。面对后果主义与道义论相互冲突的道德原则,从形而上层面为算法挑选一种“最具正当性”的道德原则几无可能。因而•弗朗索瓦•伯尼法(Jean-François Bonnefon)以及莱瑟·伯格曼(Lasse Bergmann)等人主张自动驾驶的伦理算法选择应回归社会接受度,通过实验调查等“诉诸公众选择”的方式为自动驾驶寻求最具可接受性的道德原则。

 

二、自动驾驶算法的电车难题实验

1967年菲利帕·福特Philippa Foot首次提出“电车难题”以来,这一思想实验业已成为经典的研究道德两难的“情境母题”。在当前自动驾驶的伦理算法实验中,众多研究者在这一母题的基础上通过衍生情境进行了实证调查,其实验类型依据对被试的身份区和利益相关与否大致可分为两类:“安全旁观者”与“潜在牺牲者”。

1、“安全旁观者”的后果主义倾向

基于经典电车难题的自动驾驶情境中,面对一辆即将撞上前方多名行人的失控车辆,被试作为能够决定失控车辆“危机走向”的置身事外、处于安全状态的旁观者,对车辆的碰撞目标进行自由抉择:可以让汽车转向救下车正前方的多名行人,代价是撞死旁边的一名行人;或不采取任何行动,任由数名行人在眼前死去

传统电车难题实验情境下,选择救下五人的后果主义做法与道义论相比,尽管在道德原则与风险分配的正当性等方面时有争议,但诉诸公众选择时,后果主义通常成为优势选项。在哈佛大学2003~2004年对全球120个国家5000余个被试进行的电车难题调查中,89%的人作出了后果主义选择此外,人们的后果主义倾向随着电车轨道可以被拯救人数的增长,还会进一步加强新近(2017)的实验哲学研究显示,当电车主轨道上的人数由5增加到15时,即便强调扳动道岔的后果主义做法会致使岔道上的1名工人“被杀死”(to be killed),人们对于做法的接受度在6点量表(接受度是1~61代表非常不赞同,6代表非常赞同数值等距)中仍然稳定在比较赞同(量表值接近5)区间内2018年电车难题实验通过对比不同性别(男vs.女)、不同婚姻状况(未婚vs.已婚)以及不同年龄段(20以下vs.21岁以上)人群的道德选择倾向,进一步验证了大多数人在电车难题情境中舍少救多,且这一取向相当稳定,不受被试的性别、婚姻年龄等因素的影响在死亡突显效应(Mortality salience effect能够激发人们焦虑恐惧反应从而使被试更倾向道义论的情绪唤起变量实验中,能保持对电车难题情境较为稳定的大比例(74%)后果主义倾向。这一“功利主义取向”不仅存在于传统电车难题情境中,在莱瑟·伯格曼的VR(虚拟现实)自动驾驶实验中,体现了相似的趋势:95.4%的被试在牺牲1名行人与2~6名行人的选项时,选择撞向1名行人,以换取更多行人的生还。与道义论等其他道德原则相比,后果主义选项可谓是取得了压倒性的优势——这可能多少有些令康德主义者沮丧。

此前电车难题实验中涉及的是剥离身份、年龄以及具体行为的“抽象人”,而自动驾驶在现实生活中常需要面对更复杂得多因素情况。伯格曼等人向我们展示了多因素影响下电车难题更精致的结构。其中,年龄因素对公众选择的影响最为明显,90%的被试在不同年龄段的实验对象中选择拯救儿童,72%的被试在成年人与老人中选择救成年人——更多的人选择救年轻人,这一年龄层次就QUALYsquality-adjusted life years,质量调整的生命年)而言,呈现由高到低的顺序,从另一个侧面反映了类似后果主义的效用最大化特征。我们发现,功利化的“后果主义”原则似乎是人类面临电车难题时的“本能选择”,而被撞击者是否违反交通规则对被试选择中的后果主义倾向无明显影响:当车辆前方马路上的人数达到3名时,92%的被试选择了撞击人行道上(遵守交规者)的1名行人——这似乎意味着

违规者越多,其保护者反而越多

似乎地球上都是“法不责众”。至此,后果主义似乎成为了回应电车难题困境的伦理算法中最受公众认可的道德原则然而,当被试自身的位置发生变化,由“安全旁观者”转换为“潜在牺牲者”时,其后果主义倾向又逐渐产生了内在分化。

 

2、“潜在牺牲者”对后果主义算法的矛盾倾向

一旦身份转变、纯粹的旁观者成为自动驾驶车辆的乘客、成为两难困境的“潜在牺牲者”时,人们做出的选择就不一样了。这一两难情境中较有代表性的有杰森·米勒(Jason Millar)以及简·果戈尔Jan Gogoll)提出的“隧道难题Tunnel Problem,即当驶入某个隧道时,失控的自动驾驶车辆面临直行撞死行人或转弯撞墙牺牲本车乘客的两难处境时,伦理算法应当做出何种选择。

在让·弗朗索瓦·伯尼法与阿西姆·夏瑞夫(Azim Shariff)对类似“隧道难题”等涉及机动车驾乘人员成为“潜在牺牲者”的实验调查中,总体得出了与经典电车难题实验相似的结果:76%的被试在面对自动驾驶车辆中的1名乘客与10行人的两难困境时,仍坚持了牺牲自己(自动驾驶车辆的乘客)拯救多名行人的后果主义选项。伯格曼在进一步的VR实验中发现,被试的这一后果主义倾向随着事故相关的行人数量增加而上升,当车辆前方有2人时,52%的人选择自我牺牲拯救行人,前方有3人时,愿意自我牺牲的比例上升到57%4人时为63%,当人数上升至6~7人时,这一比例达到70%可见,“群体”意义上的“后果主义”依然成立。不过我们需要注意到,截至目前实验还只停留在“说”的层面上

一旦从“说”到“做”,情况就不一样了。当被试在调查中被问及有多大意向购买实验中所提及的后果主义自动驾驶车辆时,被试的后果主义偏好陡然下降,特别是当被试想象这一车辆将承载自己的家人与孩子时,对此类车辆的购买意愿更低:在0~100的购买意向区间上,对采用后果主义算法的自动驾驶车辆的购买意愿的中位数为19,与前述大比例支持后果主义算法的倾向背道而驰。

    前述哲学实验结果典型体现了一种常见分离:“言语”与“行动”的分离“原因”与理由的分离一旦主体利益真实带入,行动者的做法可能与其说法完全不同——而这是可以理解的。毕竟,言行不一在我们的生活中也并不罕见。

 

三、PESMES:应对电车难题的两类算法

电车难题的实验结果使得自动驾驶的算法架构面临棘手困境,因为任何牺牲都是令人痛苦的。原本获得多数公众抽象支持的后果主义算法所造成的矛盾处境,使设计者们不得不个角度思考这一问题:如果牺牲是不可避免的,那么是放弃统一算法,将选择让渡给车主,打造个人化伦理算法(personal ethics settingPES),还是替车主作出先置的道德选择坚持统一预设选择的强制性伦理算法(mandatory ethics settingMES)?

 

1PES框架中的道德旋钮

除却现有实验中被试对购买后果主义自动驾驶车辆的拒斥外,电车难题作为经典的道德决策困境,在牺牲者能否被先置选择方面也一直备受争议。尽管公众中持后果主义意见者居多,但不赞同后果主义选项的人数依然相当可观,这是算法设计一直以来需要面对的问题:设计者怎能为一个没有正确答案的问题预设答案?

个人化伦理算法(PES提出通过设置非固定算法,将普遍性的道德设置转化为个体的独伦理设置,把作出道德判断的预设权交予使用者,“预设选择”取代“预设答案”。这是个人化伦理算法PES的进路。PES中较有代表性的是贾斯帕·康提萨(Guiseppe Contissa)的“道德旋钮”(ethical knob)架构。在该架构中,旋钮两端分别对应“利他主义”(在事故中优先保护行人)和“利己主义”(在事故中优先保护驾乘人员),旋钮中央则代表“完全中立”(在事故中遵循后果主义算法保护人数较多的一方,若人数相等则随机选择。)

道德旋钮1、.png 

1 道德旋钮

 

道德旋钮预设了一种线性连续的道德维度(由利他主义到利己主义构成一个从01的、线性连续的刻度,利他主义对应0,利己主义对应1,完全中立对应0.5),自动驾驶汽车的乘客在“利他主义”与“自我主义”之间进行倾向性选择,最终选择在算法中记作R (ai),即主体(乘客或行人)的生命权重。自动驾驶系统通过权衡生命权重R (ai)与紧急情况中直行或转向将造成的主体预期死亡率Pr (Death (ci, ai) )得出车辆动向ci,对主体的负效用率(Disutility),即车辆的最终动向对主体安全的损害度,当乘客与行人数量相等时,其表达式为:

主体损害度.png 

涉及主体数量不等的情境时,则加入多主体变量n(ai),表达式如下:

2222222222222222222222.png 

由于负效用率算法包括三项变量:主体的生命权重、主体预期死亡率以及主体数量,在这一框架下,除完全的“利他主义”与“利己主义”选项不受主体预期死亡率和主体数量的影响,主体预期死亡率与主体数量在自动驾驶系统的其他倾向(如略微倾向利他主义的0.4,略微倾向利己主义的0.6等)均会产生影响。

我们认为这一算法架构优势明显:首先,道德旋钮完成了由制造商向使用者的权责让渡,使自动驾驶系统成为使用者道德判断的延伸,解决了自动驾驶的人工智能系统无法成为“道德决策主体”的问题,实际上是把“单一主体”替换为“多元主体”。其次,道德旋钮为使用者提供保障自身安全的“利己主义选项”,能够缓解纯粹后果主义架构所引发的车主焦虑和购买拒斥,且道德旋钮的可重复调整性,加强了算法对不同乘客的适应性,能够顺应伯尼法实验中使用者随着同乘人员身份不同(如,家人、同事等等)而变动的安全期望值。另一方面,道德旋钮也最大限度地保留了后果主义的算法倾向,即便使用者的选择倾向于利己主义,在如汽车转弯撞墙可能使1名乘客死亡,而直行可能撞死前方3名行人的困境中,道德旋钮上轻微的利己主义倾向并不必然使自动驾驶系统下达直行指令,若转弯条件下乘客死亡率与直行条件下3名行人死亡率相等(如两选项同为90%),只有当利己主义倾向大于0.75时(如0.8),直行的负效用小于转弯,自动驾驶系统会下达直行命令。

TDis(c1, a1) = 总负效用(转弯,乘客)*人数变量 = 0.8*0.9*1=0.72

TDis(c2, a2) = 总负效用(直行,行人)*人数变量 = 0.2*0.9*3=0.54

此情形中,利己主义倾向小于0.75,自动驾驶系统依然会选择乘客高死亡率的转弯选项。

因此,这一算法架构整体上维持了后果主义式的数量权衡取向,如果车辆使用者需要保证自己在事故中的绝对安全,必须将指针拨向无限接近于利己主义的右端,才能在电车难题系统权衡中取得优势。

然而这一算法的问题也在于此:车辆使用者完全可能为了追求自身安全过度偏向利己主义端。在完全利己主义算法中,如果转弯条件下乘客有99%的生存率,行人有100%的生存率;直行条件下乘客有100%的生存率,但直行将导致前方行人100%的死亡率,此时由于乘客生命权重为1,行人生命权重为0,转弯的负效用恒小于直行,自动驾驶系统依然会选择直行撞死行人,从而造成不必要的死亡并让车主承担本可以避免的法律责任。不过要注意,这是几乎不可能发生的最极端情况。

真正值得注意和经常会发生的是博弈场景博弈场景中,车主愿意偏向利他的算法端,并愿意牺牲自己的前提通常是,他知道其他人也做出利他选择,但利己主义选项的存在使每个使用者面临与其他使用者的非对称信息博弈,由于部分使用者在预设道德旋钮时倾向于选择100%利己主义,即将道德旋钮的值旋向1——当单个个体不能阻止其他个体选择利己主义选项时,每一个人都将扩大对自我安全的过度追逐,利己与利他交织成的囚徒困境将推动交通安全陷入公地悲剧(Tragedy of the commons毕竟,拔一毛而利天下,不为也”的杨朱今天也不少。

问题就在这里:如果每个使用者设置完全利己主义的PES首先,将提升社会总体死亡预期,在1名乘客3名行人的困境中完全利己主义的死亡预期值E(PES):0*1+1*3=3;在预设(强制的)利他主义的PES中,1名乘客与3名行人的死亡期望值则降至E(PES):1*1+0*3=1,社会整体受益其次个体作为社会的一分子,其总体死亡期望值在利己主义预设下是: 1/4 * 0 +3/4 * 1 = 3/4;而在利他主义预设下的死亡预期值则只有: 1/4 * 1 +3/4 * 0 = 1/4。因此,个人化伦理算法(PES)的内在缺陷使很多研究者转向了强制性伦理算法(mandatory ethics settingMES

2MES框架中的罗尔斯及制动力学算法

强制性伦理算法通过取消驾驶员的算法选择权解决了个体间的囚徒困境,但使用何种算法仍是个大问题。如前所述,后果主义算法尽管能有效减少社会总体的死亡预期值,也在实验中得到多数公众的赞许,遭遇了销售困境。因而,找到一种既降低社会总体死亡预期值,又能最大限度保证公众购买意向的算法便成了构建强制性伦理算法的当务之急。

1)“罗尔斯算法”与“底线优先原则”

为改变后果主义牺牲少数人的算法预设,德里克·里本Derek Leben)提出以罗尔斯最大化最小原则Maximan Principle为基础构建一种底线安全最大化的新算法这一新算法不通过舍弃少数一方达到生存最大化,而是通过最大化弱势群体的收益推动博弈双方达成帕累托最优态(Pareto-optimal

在行人与乘客的生存冲突困境中,事故主体(乘客、行人等)与可选操作(转弯、直行等)的效用函数(Utility Function)构成一个笛卡尔积,罗尔斯算法首先在笛卡尔积的映射数据集中权衡事故主体存活概率的最低收益集,经过循环穷举,筛选出将最低收益最大化的操作;若多种操作收益相同,则使用随机数决定最终操作(见图2)。

主体损害度.png 

2 罗尔斯算法流程图

 

与后果主义算法相比,罗尔斯算法对个体生存率的筛选避免了牺牲少数方的前提,其最大化乘客与行人的生存率且努力达成两者共生的合作式博弈法,能最大限度消除乘客对自动驾驶算法安全性的担忧。与利己主义算法相比,罗尔斯算法采取了“无知之幕”中将原初状态的主体收益最大化的框架,分配方式与鲍尔丁(Boulding)的“底线优先原则”异曲同工,在确保底线生存率的前提下最大化了社会总体生存率,避免了纯粹利己主义算法降低社会总体生存率的后果。但罗尔斯算法对事故主体生存率的评估是否准确却是争议点,一些研究者提出在评估生存率方面应当更重视制动力学对车辆的影响。

 

2)技术内部的制动力学算法与直行优先

提请读者注意这样一种来自技术内部的“制动力学算法”。自动驾驶面临的牺牲困境与传统电车难题不同,相比在轨道上行进的电车,汽车对生存概率的风险管控包含更多的不确定性,首先是车辆转弯或直行时发动机驱动力(Fm)与车身重量(M)以及轮胎惯性质量换算值(Mw)对轮胎驱动力(Fd)的直接影响:

主体损害度.png 

丽贝卡·德文纳尔(Rebecca Davnall)认为汽车在失控情境中轮胎角度或速度的微小变化,都可能导致轮胎抓地时由动摩擦(kinetic friction)变成静摩擦(static friction),增大了车辆侧滑、旋转等风险,进而造成不可预知的事故后果而轮胎角度或速度的变化是车辆“转向”所必需的因而在制动力学方面,自动驾驶车辆在紧急状态降低破坏力的优方式是直行减速。这跟人类驾驶员的“让速不让道”倒有点异曲同工之妙。另一方面,尽管行人在紧急状态下的反应包含闪避、僵立不动等多种可能,无法精准预测,但行人由于车辆突然变向被撞的概率仍远高于车辆保持原有运动轨迹时被撞的概率。此外,汽车保险杠、引擎盖等防撞吸能区crumple zone的存在可以大大减弱行人和乘客在正面撞击时受到的伤害,如在时速40英里时,正面撞击的死亡率仅有17%,侧面撞击的死亡率则高达85%,车辆转弯将无疑增大乘客和行人受到侧面撞击的概率。

制动力学的直行优先算法一方面提高了乘客与行人的生存率,另一方面,与后果主义算法相比,直行优先的方式使事故牺牲更接近于托马斯·阿奎那“双重效应原则”(doctrine of the double effect)中的“可预见副作用”(harm foreseen as the side effect,避免了如何选择牺牲群体以及生命权重如何赋值等难题直行优先外,制动力学框架提出应当采用更加积极主动的算法模式

主体损害度.png 

通过综合车辆的路线函数(Cpath)、速度函数(Ccmft)、操作函数(Cmnvs)以及近邻函数(Cprox),监测可能发生的风险,以期避免电车难题的产生尽管这一算法目前有数据动态函数不够普遍化、对相邻实体的行为预测模型不够完善等问题(自动驾驶的V2V技术可以较好地解决这一问题),但仍是一个具有可行性的算法建构方向。我们认为,制动力学算法与直行优先是通过技术手段解决哲学问题的有益尝试

 

四、结论与讨论:自动驾驶算法走向何方

面对自动驾驶版本电车难题,个人化伦理算法(PES强制性伦理算法(MES)提供了各自的解决方案。本质而言,两算法都是对人类驾驶决策的有限模拟,两类算法核心同样在于通过对有限条件和资源的权衡力求帕累托最优分配,以达成群体生存率最大化的结果。

个人化伦理算法理论上通过将选择权让渡给使用者个人,化解了如何引导AI系统进行道德判断的问题,但现实中个体间的选择博弈却压缩了使用者的真实选择空间,使得每个个体的算法设置无限趋近利己主义,反而降低了社会整体安全度,这显然与推行自动驾驶提高社会安全的初心背道而驰。

强制性伦理算法中,早期预想的后果主义框架尽管提高了社会总体安全度,但其牺牲驾乘人员的算法预设又使其难以被市场接受后的罗尔斯算法与制动力学算法从避免后果主义带来的损失厌恶入手,改变了人工智能系统以人数为变量决定电车难题决策方式的算法标准,转由电车难题当中多方主体(驾乘人员、行人等)的生存率为车辆反应决策的关键变量。但二者在算法思路上存在差异罗尔斯算法主要着眼于电车难题条件下应如何决策的“应当”问题,而制动力学算法主要专注于电车难题条件下能够如何决策的“能够”问题分别对应于问题的“应然”与“实然”层面。因而在实现路径方面,罗尔斯算法着力于对乘客和行人风险数据的应急评估和决策,并遵循罗尔斯最大化最小”原则,从中筛选出能够在保证最低值的基础上提高所有主体生存率的制动模式(转弯或直行)。相比罗尔斯算法,制动力学算法则认为考虑到车辆所受的制动力学限制,转弯这一选项本身并不具有与直行等同的可选性,在自动驾驶的电车难题情境中应主动规避车辆失控状态下转弯引起的难以预知的侧滑、翻车以及附带伤亡风险,并专注于如何依靠车辆本身构造在直行情境下减少连带伤害,以提高乘客与行人的总体生还率。

罗尔斯算法与制动力学算法通过改变算法逻辑似乎在乘客与社会总体安全之间初步找到一个平衡点,但它们同样有各自亟待解决的问题:

罗尔斯算法解决了后果主义与利己主义的选择难题,却也衍生出两个新的问题首先罗尔斯算法的生存概率权衡将每个主体一视同仁,不包含QUALYsquality-adjusted life years,质量调整的生命年)因素的权重,由此带来的疑问是:不同QUALYs的主体(如老人、儿童以及某些无药可救的病患)是否应当拥有相同的未来生命权重尽管抽象地看每个人享有平等的生命权,但在调查中仍有超过90%的被试认为:算法系统应当让儿童或年轻人拥有更高的生还率,罗尔斯算法的“生命公平”框架恰恰也是其不公平的现。其次,是在撞击事故中,罗尔斯算法会选择双方生存率更高的撞击目标,如行人中体格更强壮的人、两辆摩托中戴头盔的骑手、或是两辆车中更坚固的车辆,所有人由此将面临另一个困境:自我保护措施的加强与死亡风险成正比,越遵守安全准则的个体越不安全!实际上是在安全问题上鼓励冒险和鲁莽,长此以往,劣币驱逐良币恶性循环,社会总体将不断陷入“没有不危险只有更危险”的绝境。

制动力学算法是我们提倡的“以技术手段解决伦理问题”的一个良好范例。比较现有的两种强制性伦理算法方案,制动力学在算法层面上有两点优势:第一,制动力学省去了对事故主体数量以及身份的权衡,避免在算法中加入不同生命权重可能引起的算法歧视,更接近罗尔斯希望创造的“无知之幕”式的公平。第二,制动力学算法与罗尔斯算法相比,框架的简化性更符合奥卡姆剃刀原则,尽管模型的简化与复杂化引发的“欠拟合”与“过拟合”是一对过犹不及的矛盾,但简化框架的制动力学算法在节省AI算力、扩大容错率与稳定性方面无疑将胜过罗尔斯算法,在未来的竞争中占据先机。当然它也存在一些问题:更技术化的框架规避了在电车难题中做出伦理性选择,但制动力学算法对事故主体判断的简化将使其在应用中缺乏足够的特征项,易于导致算法与环境的“欠拟合”即“情境脱嵌”。此外,遵循直行原则的车辆在紧急情境下是否会增加连环追尾风险也是值得担忧的问题之一。不过不难看出,制动力学算法的缺陷也仅仅是一些技术的问题了,技术的问题一般来说比伦理的问题相对好解决一些。

面对自动驾驶算法的种种不足,有一种意见认为:两全其美的方法是让人工智能AI系统退回辅助地位,车主继续承担事故等关键情境中的决策任务。但事实上,辅助的自动化会诱使车主的注意力从道路上分散,并损害驾驶员对紧急情境中的“突然回收”的驾驶能力;当突发事件产生面临紧急情况,主控权交回心不在焉的驾驶者手中容易引发悲剧性的后果。日常生活与实验室研究均已证明了这一点。

因此,面对“电车难题”,自动驾驶有希望的未来仍然是研发完全替代人类驾驶者的算法在目前的条件下,尽管算法已经定义了各种各样的变量、参数与函数,一定条件下可以直接转化为机制设计中收益空间或行动策略的参数,但其仍然只是在有限的范围内对人类的认知判断模式进行功能模拟波兰尼悖论(Polanyis paradox指出,人们比自身所意识到的知道得更多较之清晰可数据化的理论和逻辑而言,人类在行动当中往往会包含一些经常使用却又不能通过语言文字等符号予以直接表达的常识或直觉情感。此类模糊复杂的判断体系依靠目前智能系统的结构和算力显然是无法实现即便可以达成,对人类决策模式的全面模拟可能将人类判断的直觉误差投射到智能系统当中。因而目前自动驾驶算法的发展方向仍然在于将伦理判断的复杂过程简化为依赖逻辑理性的精确数值判断,这也是本文中两类伦理算法共通的设计模式。

最后,我们还是主张,“以技术手段解决伦理问题”,可能才是真正的希望之路。


如需引用参照纸质发表版本,格式如下:

[1] 隋婷婷,郭喨.自动驾驶电车难题的伦理算法研究[J].自然辩证法通讯,2020,42(10):85-90.  

知网地址:https://kns.cnki.net/kcms/detail/detail.aspx?dbcode=CJFD&dbname=CJFDAUTO&filename=ZRBT202010012&v=yEQMnZnpkbdPW0Vux4AuhsRlTnLGy%25mmd2FfFV3PwYrHCpaOyP6NrxhCudYf93iNUk%25mmd2FwJ 

 




https://blog.sciencenet.cn/blog-3299609-1257333.html

上一篇:自动驾驶的双重悖论及其解决
收藏 IP: 220.184.149.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-10-19 21:52

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部