fangxuping的个人博客分享 http://blog.sciencenet.cn/u/fangxuping

博文

人工智能对社会伦理价值的影响

已有 4194 次阅读 2019-8-27 13:08 |系统分类:观点评述

人工智能对社会伦理价值的影响


从主题研究角度来看,根据人工智能的特征及其与社会的关联以及目前全球人工智能伦理研究的成果,人工智能伦理研究可概括为四大板块:人工智能道德哲学、人工智能道德决策、人工智能设计伦理和人工智能社会伦理。这些板块相互关联,又拥有相对独立的讨论域。人工智能道德哲学主要关注传统道德哲学如何面对人工智能的挑战,以及人工智能如何促进道德哲学的发展;人工智能道德算法主要研究如何理解和实现人工智能道德决策的问题,使人工智能能够做出合乎道德的决策;人工智能设计伦理研究人工智能得设计和制造应遵循哪些伦理准则,使人工智能的设计与社会价值观保持一致;人工智能社会伦理主要研究如何善用和阻止恶用人工智能,使人工智能造福于人类。

从哲学思考方面来说,科学技术哲学界认为技术与伦理正如两条相互缠绕的通道指引着人工智能的健康发展,一面展示着人类科技认知的水平,另一面展示着人类道德文明的程度。随着人工智能社会伦理问题的凸显,人工智能被赋予的伦理属性以及相关研究越来越多。

从文献计量学视角看,在1999-2018年的WOS数据库中,无论是以“人工智能伦理”为主题的文献还是以“机器人伦理”为主题的文献都呈现出显著的增长趋势。特别是近十年来,相关文献出现了井喷式增长,2018年以“人工智能伦理”为主题的文献量高达96篇,比2017年的文献量翻了一倍,更是1999年文献量的19倍。2016至2018年以“机器人伦理”为主题的文献量分别为59篇,60篇,72篇,这三年的文献数量是1999至2015年文献量的总和。这样高速的增长趋势说明,越来越多的学者意识到人工智能伦理研究对于社会发展的重要意义与积极作用,探索人工智能伦理研究的知识情报有助于人工智能产业以及人类社会的健康发展。

一、人工智能与社会贫富差距

目前国内对人工智能的社会公平与贫富差距影响的研究几乎是空白的,但是也有个别学者在税收和社会风险应对角度对人工智能所引发的社会贫富差距问题进行了宏观探讨。

葛玉御等(2018)认为人工智能通过两条路径影响税收现代化。第一,人工智能的发展会影响经济增长、劳动力就业和收入分配,从而倒逼"促就业、调结构、缩小贫富差距"的税制改革,既要对促进就业和就业转型给予税收支持,税收上做"减法",又要适时对人工智能机器人征税,做"加法",同时,还为破解个人所得税改革和房地产税立法开征的难题创造条件,优化税制。第二,大数据、云计算、机器学习、模式识别和人机交互等人工智能平台与技术会提升税收征管信息化水平,重塑税务工作方式,提升纳税遵从度,推动税收征管进步。

唐钧(2019)在研究人工智能的社会风险应对时发现,人工智能在创造社会效益的同时,也会引发人财损失、秩序破坏等社会风险。技术视角的风险源于"算法主观性"等技术属性,易导致人财损失等恶劣后果;而现有的风险应对措施偏重于"工具理性",难以有效根除责任事故和社会负面影响。社会视角的风险来自于人工智能在社会应用时的"马太效应"等机理所导致的大多数民众和极少数弱势群体的权益受损等问题;而现有的风险应对方案侧重于"价值理性",可能出现效率与公平的失衡或偏颇。

二、人工智能与社会公益

人工智能引发的法律、伦理等问题日益凸显,对当下的社会秩序及公共管理体制带来了前所未有的新挑战。例如,2016年欧盟委员会法律事务委员会提交一项将最先进的自动化机器人身份定位为“电子人(electronic persons)”的动议,2017年沙特阿拉伯授予机器人“索菲亚”公民身份,这些显然冲击了传统的民事主体制度。那么,是否应该赋予人工智能系统法律主体资格?人工智能发展不可能只有积极的一面,人工智能的发展为违法行为提供了便利。人工智能的技术走在了前面,而法律、人们的习惯和社会公德等并没有跟上。

此外,在人工智能新时代,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题都需要我们从法律法规、道德伦理、社会管理等多个角度提供解决方案。

2017年,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准。 基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化。 第一个标准为:“机器化系统、智能系统和自动系统的伦理推动标准”。这个标准探讨了“推动”,在人工智能世界里,它指的是影响人类行为的微妙行动。 第二个标准是“自动和半自动系统的故障安全设计标准”。它包含了自动技术,如果它们发生故障,可能会对人类造成危害。目前而言,最明显的问题是自动驾驶汽车。 第三个标准是“道德化的人工智能和自动系统的福祉衡量标准”。它阐述了进步的人工智能技术如何有益于人类的益处。 

2018年2月,牛津大学、剑桥大学和OpenAI公司等14家机构共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,指出人工智能可能给人类社会带来数字安全、物理安全和政治安全等潜在威胁,并给出了一些建议来减少风险。

欧盟委员会于2019年4月以“建立对以人为本AI的信任”为题,发布了欧洲版的人工智能伦理准则,期望建立“以人为本、值得信任”的人工智能伦理标准,不断促进社会公众接受人工智能技术、应用人工智能技术。欧盟AI高级专家组起草该伦理准则过程中,参考了欧洲科学与新技术伦理小组和欧洲基本权利机构的有关工作成果。为了实现“可信任AI”, 该项伦理准则确立了三项基本原则:(1)AI应当符合法律规定;(2)AI应当满足伦理原则;(3)AI应当具有可靠性。根据这三项基本原则和前述欧洲社会价值观,该项伦理准则进一步提出了“可信任AI”应当满足的七项关键要求,包括:(1)人的自主和监督;(2)可靠性和安全性;(3)隐私和数据治理;(4)透明度;(5)多样性、非歧视性和公平性;(6)社会和环境福祉;(7)可追责性。

三、人工智能与科技伦理

    人工智能大数据与道德算法是统摄人工智能载体道德认知与行为的基础,随着生物仿真、神经网络以及脑科学技术的发展,越来越多不同学科的学者加人到人工智能伦理系统的开发与应用中;人工智能伦理研究已经从哲学形而上的讨论转向人工智能载体伦理设计与实践测试中,包括无人驾驶汽车、自动化武器、机器人等多个智能产业;在人工智能载体的应用方面,机器人的伦理价值敏感设计是当下人工智能工程的伦理研究热点。

Bonnefon通过实验测试了人工智能伦理系统对无人驾驶汽车实现道德自主权的可能性,伦理系统设计突出了人们对智能机器的道德期望、文化价值和法律标准。但实验结果证明目前尚没有能够协调道德价值观和个人利益的人工智能伦理系统,更无法通过伦理系统设计去融合不同文化圈的差异,人工智能机器的伦理系统设计研究仍然任重道远。之后,Bryson提出了人工智能自动系统中伦理系统设计标准:①普遍原则设计;②价值观设计;③安全性能设计;④慈善设计;⑤隐私与人权设计;⑥军事人道主义设计;⑦经济与法律设计。

Kurzweil首次提出了“奇点临近论”,当人类临近“奇点(( singularity ) ",智能技术无限制突破,机器将会融合人类的知识和智慧,成为超出人类生物学范畴的“智慧生物”,并将挑战人类生存空间。构建“人类与机器文明”的社会伦理秩序以及人工智能道德安全体系是确保人类生存与延续不可或缺的保障。Chalmers在“奇点临近论”的基础上讨论了人工智能道德安全技术防御问题。

Bostrom认为在人工智能载体的设计之初就应该充分考虑其作为人类事务委托者或决策代理者的伦理规范,同时其表示了对人工智能超越人类大脑成为超级智能的担忧与质疑。超级智能是一种完全独立于人类智慧之外的实在,并且挑战人类生存空间。虽然目前的人工智能发展尚未进人“超级智能”阶段,但是构建人工智能道德代理的风险防范机制是极为必要的。

四、人工智能与人文关怀

人工智能对人文关怀的影响主要体现在对社会公众认知的改变、对权利责任认定以及道德地位的确定、对社会学科的价值形塑、对社会弱势群体的关照和对战争的预防等方面。

刘耀会(2017)通过研究人工智能与社会伦理的关系是发现,随着人工智能的快速发展,社会上针对人工智能出现了两种声音,称之为人工智能支持论和人工智能威胁论。并且以医疗机器人为例,探讨生物医学伦理问题,他认为医疗机器人主要存在公平受益、数据质量、病人隐私和安全及监管等方面的道德伦理问题。吴恺(2019)在对当代人工智能技术发展中的伦理问题研究中发现人工智能技术发展中的伦理问题存在人工智能的"权利"、人工智能事故的责任认定、人工智能的道德地位等方面的问题,并提出了加强人工智能技术的国际交流与合作等解决办法。

徐选国等(2018)从社会工作学科发展角度出发,社会工作作为缓解新时代背景下社会大众美好生活需求与不平衡不充分发展之间矛盾的重要制度性力量,通过履行科学、艺术与政治三大核心属性,以积极回应人工智能时代所引发的结构变迁、秩序重组以及体制创新。蒋晓等(2019)以人工智能新闻应用中的现实问题为突破口,借鉴国外伦理理论和实践中的合理思想和成功经验,结合中国的传统伦理和现实语境,借助技术伦理学的研究视角,从伦理基石、基本原则、政策框架、责任主体、道德规范、技术工具等方面提出中国人工智能新闻伦理的构建路径。 

Sharkey N与Sharkey A在其论文中通过引人能力要素法(capability受护者尊严的维度,approach , CA)讨论并定义了老龄其中包括:①寿命维度度;②体质维度;③感官维度;④社交维度;⑤种族维度;⑥康乐维度;⑦公共环境维度等,并根据能力要素法提出了护理机器人的伦理设计方案,旨在通过拓展机器人护理的伦理能力让老龄受护者获得更多的尊严需求。

Sharkey在其论文中归纳了当下社会在机器人应用中遇到的伦理困境,主要体现在三个方面:①儿童看护机器人对孩子造成的心理依恋与社会交流障碍等问题;②老年看护机器人对老人造成的情感孤独与欺骗;③战争机器人对叛乱分子的残酷打击。Sharkey认为机器人在看护与战争领域的应用只是人工智能载体推向市场与战场的冰山一角,高科技涌动的背后存在着潜在的危机,确立机器人应用的道德防范体制与安全底线标准,应是机器人伦理学研究努力的方向。



参考文献

       李伦,孙保学.给人工智能一颗“良芯(良心)”——人工智能伦理研究的四个维度[J].教学与研究,2018(08):72-79.

       刘鸿宇,苗芳艳,彭拾,夏思宇,王珏.人工智能伦理研究的知识图谱分析[J/OL].情报杂志:1-10

       葛玉御,宫映华.借势人工智能,实现税收现代化[J].税务研究,2018(06):13-18.

       谭铁牛.人工智能的创新发展与社会影响[J].中国人大,2019(03):36-43.

       科技部部长王志刚:人工智能发展走在了社会伦理前面http://news.sina.com.cn/c/2019-03-08/doc-ihrfqzkc2309494.shtml

       欧盟人工智能伦理准则概要-中国法院网https://www.chinacourt.org/article/detail/2019/04/id/3847326.shtml

         Bonnefon J F, Shariff A, Rahwam I. The Social dilemma of au-tonomous vehicles[J] .Science,2016,352(6293):1573一1575.

         Bryson J,Winfield A FT. Standardizing ethical design for artifi-cial intelligence and autonomous systems[J].Computer , 2017,

50(5):116一119.

         Kurzweil R. The singularity is near: When humans transcend biol-ogy[M].London:Penguin Books,2005.

         Chalmers D J. The singularity:A philosophical analysis[J]Journal of Consciousness Study,2010,17(9一10) :7一63.

         Bostrom N. Super一intelligence:Paths,dangers,strategies[M]Oxford:Oxford University Press,2014.

       刘耀会.关于人工智能与社会伦理的探讨[J].机器人技术与应用,2017(05):44-48.

       吴恺.当代人工智能技术发展中的伦理问题研究[J].中共山西省委党校学报,2019,42(03):65-68.

       徐选国,杨威威,徐永祥.人工智能时代的多重挑战与社会工作的专业回应[J].人文杂志,2018(06):120-128.

       蒋晓,韩鸿,兰臻.中国语境下的人工智能新闻伦理建构[J].西南民族大学学报(人文社科版),2019,40(06):151-158.

       Sharkey N,Sharkey A. Granny and the robots:Ethical issues mrobot caregy,2012for the elderly[J].Ethics and Information Technolo-14(1):27一40.



 




https://blog.sciencenet.cn/blog-3378353-1195432.html


下一篇:无贫赋
收藏 IP: 159.226.34.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 08:30

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部