twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

[转载]人工智能治理相关研究作品介绍

已有 2787 次阅读 2020-3-13 08:56 |个人分类:2020|系统分类:科研笔记|文章来源:转载

1、《作为颠覆性技术的人工智能:经济转型及政府规则》(Artificial Intelligence as a Disruptive Technology: Economic Transformation and Government Regulation)




  • 出版社:英国帕尔格雷夫麦克米伦出版社(Palgrave McMillan)

  • 作者:罗萨里奥·吉拉萨(Rosario Girasa),佩斯大学(Pace University)商学院

  • 出版时间:2020年1月

  • 简介:

本书是关于人工智能技术对经济和治理规则影响的跨专业指南,其中包含较多基础资料和介绍性内容。

本书介绍了人工智能的不同定义、类型、子领域和应用,提出第四次工业革命中的人工智能与区块链都应被视为颠覆性技术。本书具体分析了美国政府关于人工智能的政策和法规,人工智能带来的道德和隐私问题,尤其是关于面部识别程序和物联网(IoT)的隐私问题及影响。此外,书中对人工智能导致的偏见有较多分析,例如人工智能对当前和未来就业市场的影响以及人工智能如何导致虚假新闻等。
本书还介绍了知识产权相关的基础知识,以及人工智能将如何改变知识产权保护方式。除美国外,作者还关注了全球人工智能治理规范,包括中国的《新一代人工智能发展规划》及欧盟等其他国家和地区发布的国际治理倡议。本书最后讨论了超级智能以及机器中的意识问题。

2、《有原则的人工智能:基于伦理及权利的人工智能原则共识归纳》(Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI)


2.jpg.png

  • 机构:哈佛大学伯克曼·克莱因网络与社会研究中心

  • 作者:杰西卡·费耶德(Jessica Fjeld),哈佛大学伯克曼·克莱因网络与社会研究中心互联网法律诊所(Cyberlaw Clinic)助理主任,及其他4位作者。

  • 出版时间:2020年1月

  • 简介:

本报告分析了36份关于人工智能原则的文件,并在此过程中总结了行业规范原则中的初步趋势。尽管国际上的人工智能原则都具有相同的基本目的——提出人工智能治理的愿景。但具体原则内容却多种多样,其目标受众、内容组成、范围和深度也各不相同。原因之一是受到不同国家和地区文化差异的影响,这些原则的作者和参与者不同:分别由政府和政府间组织、企业、专业协会、宣传组织(advocacy groups)或多方共同参与。公民社会和多方参与的文件可用于设定议程或为进行中的讨论奠定基础。通常而言,各国政府会将治理原则作为国家总体人工智能战略的一部分提出。而私营部门的原则一般旨在管理企业内部的人工智能技术开发和应用,并将其目标传达给企业其他的利益相关者,如客户和监管者。报告统计表明,近期发布的原则往往涵盖了以下八个主题:隐私、归责、安全和保障(safetyand security)、透明度和可解释性、公平和非歧视、人类对技术的控制、专业责任、提高人类价值。这表明围绕人工智能原则的讨论开始融合,同时,这些主题可能代表了基于原则的人工智能伦理和治理方法的“规范核心”。

 3、《算法规则》(Algorithmic Regulation)


3.jpg.png
 

  • 出版社:牛津大学出版社

  • 编者:凯伦·杨(Karen Yeung),伯明翰大学法学院教授;马丁·洛奇(Martin Lodge),伦敦政治经济学院政治学和公共政策教授

  • 出版时间:2019年11月

  • 简介:

本书是由两位著名管理学家编辑的论文集,对“算法规则”进行了批判性探索,解释了这种规则既是协调和规范社会行动与决策的手段,也是规范算法和算法系统功能的需要。随着“大数据”和预测分析(predictive analytics)的力量和复杂性不断扩展,政策和公众对现代生活中算法使用的关注也日益增加。鉴于人们在日常生活中越来越依赖算法,算法已涉及各类政策领域。这引起了人们对算法责任承担的必要性和重要性的关注,但尚不清楚现有法律和监督机制能否解决该问题。本书为生活中有关算法能力的讨论提供了独特视角,可能会成为研究、政策和实践领域的重要参考。本书论文作者的专业范围包括法律、公共行政、应用哲学、数据科学和人工智能等跨学科领域。总而言之,本书突出了算法能力的兴起,以及与之相随的潜在利益和风险。

4、《追问人工智能:从剑桥到北京》

mmexport1565953771985.jpg

  • 出版社:科学出版社

  • 作者:刘伟,北京邮电大学岗位教授、清华大学战略与安全研究中心人工智能与安全项目组成员

  • 出版时间:2019年10月

  • 简介:

当前,尽管人工智能的发展如火如荼,但是人工智能究竟是什么?从哪里来?又会到哪里去?这些问题依然没有令人满意的回答。作者通过在剑桥大学访学期间的所闻所思,尝试用《追问人工智能 : 从剑桥到北京》去解开这些谜团。结束访学回到北京后,作者又对智能领域未来的关键问题,即人机融合智能和深度态势感知理论框架进行了较深入的思考和探讨。“从剑桥到北京”,实际上就是想用“剑”,剖析人工智能领域依然存在的不足和缺陷,用“桥”连接起东西方文明的思想和智慧,取长补短,相得益彰,去迎接人类更加美好的明天。
本书对人工智能的起源、冲击及其对社会和未来的影响展开深入思考和研究,进而通过深入思考与反思,构建面向未来的新型强智能形态——人机融合智能,并对人工智能的社会、伦理与未来研究面对的当前社会共同关注的智能革命与人类深度科技化前景进行了深入的剖析和探讨。


5、《社会中的人工智能》(Artificial Intelligence in Society)

5.jpg.png


  • 出版机构:经济合作与发展组织(OECD)

  • 出版时间:2019年6月

  • 简介:

2019年5月,经济合作与发展组织(OECD)通过了《人工智能原则》,这是政府间就负责任的人工智能治理达成的首个国际标准。在此基础上,OECD发布了《社会中的人工智能》报告,分章节介绍了人工智能在社会中的发展情况及未来方向。报告主要分为以下几个部分:机器学习、大数据和计算能力推动了人工智能的最新发展;人工智能系统预测、推荐或决定一种结果来影响环境,可以提高生产力并帮助解决复杂问题;人工智能投资和业务发展迅速增长;人工智能应用比比皆是;可信赖人工智能是获利的关键;人工智能是所有利益相关者(stakeholders)日益重视的政策重点。
在“可信赖人工智能是获利的关键”部分中,报告认为人工智能引发了公共政策方面的担忧,因此需确保可信赖的、以人为本的人工智能系统。人工智能引发了新的道德和公平问题,主要在于人权和民主价值观,以及将偏见转移到数字世界的风险。因此设计使用透明且负责任的人工智能系统至关重要,系统必须以安全可靠的方式正常运行。此外,需要制定国家政策来促进可信赖的人工智能系统,包括鼓励投资负责任的人工智能研发的政策。除了技术和计算能力,人工智能还会利用大量数据,这提高了对数字环境中数据的访问以及数据和隐私保护的要求。最后,人工智能还将取代和改变人类劳动的组成部分,从而改变工作的性质。因此政策需要促进人们工作的过渡,并确保持续教育、培训和技能发展。

 6、《无人军队:自主武器与未来战争》(Army of None:Autonomous Weapons and the Future of War)

6.jpg.png


  • 出版社:世界知识出版社

  • 作者:保罗·沙瑞尔,新美国安全中心高级研究员,科技与国家安全研究项目主管

  • 译者:朱启超,王姝,龙坤

  • 出版时间:2019年6月(英文原版2018年4月出版)

  • 简介:

本书全面考察了自主武器的发展历史、当前进展与未来趋势,探讨了人工智能对未来战争的多重影响。本书一经出版,便迅速登上亚马逊军事类图书畅销榜,成为比尔·盖茨推荐的年度五佳图书之一,并荣获 2019年度“威廉·E·科尔比军事作家奖”。
贯穿全书的核心问题是战场上生死攸关的决策权是否应该让渡给机器?作者结合自身知识背景和丰富阅历,通过大量实地考察和专家访谈,对这一问题进行了多维度探讨。作者界定了自主武器的相关概念,认为理解自主性(autonomy)有三个维度:第一是机器承担的任务类型,这些任务类型的重要性、复杂程度和风险不一,依据具体的任务可以界定其是否为自主系统。第二是人机关系,据此可以将自主系统分为半自主(semi-autonomous)、有监督的自主(human-supervised autonomous)以及完全自主(fully autonomous)系统。第三个维度是智能程度。
本书还梳理了自主武器的优势与风险,并考察了自主武器对战略稳定性、战争法则以及战争伦理的影响。沙瑞尔还对自主武器国际军备控制进程的现状、问题及原因进行了深入分析,并提出了相关解决方案。虽然作者的立场和观点有其局限性,但该书为推动人工智能与未来军事变革的深入讨论,提供了有益参考。
(简介摘编自译者朱启超、龙坤发表于《中国国际战略评论》2019年第2期的文章《自主武器如何变革未来战争——<无人军队:自主武器与未来战争>评介》)

7、《AI·未来》(英文版为:AI Superpowers: China,Silicon Valley And The New World Order)


7.jpg.png


  • 出版社:浙江人民出版社

  • 作者:李开复,创新工场创始人及首席执行官

  • 出版时间:2018年9月

  • 简介:

本书回答了以下问题:全球目前人工智能发展的情况是怎样的?全球的人工智能巨头企业有哪几家,现在它们有什么贡献?未来它们又将如何改变世界?人工智能已经改变了世界前进的脚步,那么人工智能的发展阶段如何区分?人工智能对社会的最大冲击是什么?我们应该如何应对未来可能出现的大规模冲击?在未来,个人、企业、政府究竟该如何协作,才能打造出繁荣的社会图景?
李开复博士长期从事人工智能的研究和观察工作,拥有大量的人工智能行业从业经验,曾在苹果、微软、谷歌等顶尖科技公司中担任重要职务,之后创办了中国一流的创投机构——创新工场。在本书中,李开复博士凭借对全球科技业与人工智能行业的深入了解,为读者描绘了人工智能新世界的样貌、未来人工智能对社会的冲击以及在人工智能时代我们的应对策略。

8、《人工智能治理:研究议程》(AI Governance: A Research Agenda)

8.jpg.png


  • 机构:牛津大学人类未来研究所

  • 作者:艾伦·达福(Allan Dafoe),牛津大学人类未来研究所人工智能治理中心主任

  • 出版时间:2018年8月

  • 简介:

本报告认为人工智能发展的机遇是巨大的,但带来的风险也是巨大的,并有可能带来极端的治理挑战,包括劳动力流离失所、不平等、全球市场的寡头垄断、极权主义的强化、国家权力的转变和动荡、战略不稳定或形成牺牲安全和其他价值的人工智能竞赛等。政府和企业的领导人正寻求相关政策指导意见,但学术界对人工智能革命的关注仍微不足道。因此,目前迫切需要对人工智能治理问题进行研究,通过制定全球规范、政策和机构来确保对先进人工智能治理的有益开发和利用。
这一报告提出了人工智能治理的具体分析框架,并勾画了一个研究议程,将目前亟待解决的问题分成三大研究集群:技术布局(Technical Landscape)、AI政治(AI Politics)和理想治理(Ideal Governance)。第一个研究集群旨在理解人工智能技术层面的输入、可能性和限制,并作为其他研究集群的基础。第二个研究集群的重点是人工智能政治,主要针对企业、政府、公众、研究人员和其他主体的政治互动,以及这些互动如何塑造人工智能技术布局,或反被技术布局所影响。第三个集群主要设想为降低人工智能风险,应如何构建全球人工智能变革与互动的理想治理体系。


9、《人工智能与国际事务:意料之中的难题》(Artificial Intelligence and International Affairs: Disruption Anticipated)

9.jpg.png


  • 机构:英国皇家国际问题研究所(Chatham House)

  • 作者:玛丽·卡明思(Mary L. ‘Missy’ Cummings),杜克大学人类与自动化实验室主任;希瑟·罗夫(Heather Roff),牛津大学政治与国际关系学系高级研究员;凯恩·库克尔(Kenn Cukier),《经济学人》电子产品高级编辑;汉娜·布莱斯(Hannah Bryce),英国皇研所国际安全部前助理主任;雅各布·帕拉吉拉斯(Jacob Parakilas),英国皇研所美洲项目部前副主任。

  • 出版时间:2018年8月

  • 简介:

本报告从军事、人类安全和经济的角度,分析未来10到15年间,人工智能可能对国际事务领域产生的影响。通过分析减少技术与政策部门之间的鸿沟,并研究人工智能如何为安全政策做出贡献。该报告首先提出了一个广泛的框架,用于定义和区分人工智能在决策和国际事务中可能扮演的角色类型:分析性(analytical)角色,预测性(predictive)角色和操作性(operational)角色。

报告认为,在分析性角色中,人工智能系统可便于更少的人做出更高级别的决策,或者使重复性任务自动化。在这些角色中,人工智能可能会改变人类决策者了解世界的结构,但这些变化的最终影响会逐渐减弱。人工智能的预测性角色可能产生更严重的影响。这类应用可能改变决策者和国家对特定行动方案潜在结果的理解方式,如果这种系统变得足够准确并值得信赖,则配备此类系统的行为体和没有配备的行为体间会形成权力差距(power gap),从而产生不可预测的结果。短期看,人工智能的操作性角色不太可能完全实现,因为涉及全自动汽车、武器装备及其他现实世界系统的法规、道德和技术方面的障碍非常高。但从长远来看,这类系统会从根本上改变决策和执行方式。此外,报告还提到了一系列针对政府和国际性非政府组织的建议,对于制定、推广新的伦理规范具有相当重要的作用。


 10、《生命3.0:人工智能时代,人类的进化与重生》
(Life 3.0: Being Humanin the Age of Artificial Intelligence)


10.jpg.png


  • 出版社:浙江教育出版社

  • 作者:迈克斯·泰格马克 (Max Tegmark),麻省理工学院生命未来研究所(Future of Life Institute)创始人、物理系终身教授

  • 译者:汪婕舒

  • 出版时间:2018年6月

  • 简介:

本书中,作者迈克斯·泰格马克对人类的终极未来进行了全方位的畅想,从我们能活到的近未来穿行至1万年乃至10 亿年及其以后,从可见的智能潜入不可见的意识,重新定义了“生命”、“智能”、“目标”、“意识”,并澄清了常见的对人工智能的误解,将构建起应对人工智能时代动态的全新思维框架,抓住人类与人工智能共生演化的焦点。
作者不仅以全景视角探讨了近未来人工智能对法律、战争、就业和社会带来的影响,还将目光投向了这场变革更为深远之处:在未来的1万年乃至10亿年及其以后,我们能否与人工智能实现共生与繁荣?宇宙生命发展的终极物理极限是什么?更为重要的是,我们如何在这场变革中迎来重生,同时又不会陷入危机,丧失生而为人的意义?《生命3.0》这本书将是人工智能时代的思考利器。此书对未来生命的终极形式进行了大胆的想象:生命已经走过了1.0生物阶段和2.0文化阶段,接下来生命将进入能自我设计的3.0科技阶段。

 11、《人工智能对于核战争风险意味几何?》(How Might Artificial Intelligence Affect the Risk of Nuclear War?)


11.jpg.png



  • 机构:美国兰德公司

  • 作者:爱德华·盖斯特(Edward Geist),兰德公司政策研究副研究员;安德鲁·洛恩(Andrew J. Lohn),兰德公司工程师

  • 出版时间:2018年

  • 简介:

本报告源于兰德公司召开的一系列研讨会总结,描述了由于人工智能可能带来的新的军事力量,因此而增加了引发军备竞赛,或国家在危机中有意或无意间动用核武器的可能性。系列研讨会汇集了众多人工智能与核安全领域的专家,共同探讨在2040年之前,人工智能会如何演变成一股稳定或不稳定的力量。
人工智能对核战略的影响,既取决于敌方对其军事应用能力的认知,也取决于其实际能力。例如,一个国家要发展出定位和锁定敌方所有核武发射器的能力,在技术上极具挑战性,但这项能力却能产生出巨大的战略优势。因此,各国都垂涎三尺,不顾一切技术困难追求这项能力,即使这样做有可能惊动对手,增加冲突的可能性。从技术上说,高级人工智能仍难以克服源自数据局限和信息论论证的障碍,但只需要被视为具备这项能力,便可产生破坏稳定的作用。本报告提出,要在未来几十年维持战略稳定,需要在多极世界背景下重新审视威慑理论的理论基础。要做到有效威慑,我们必须抗衡受人工智能进步所推动而快速迭代的各种能力。关键性的考量包括:实际能力的影响,相关能力的可预见潜能,以及这些能力的过早应用或出错性(尤其是因敌对行动所致)。

12、《转折点:人工智能时代的政策制定》(待出版)(Turning Point:Policymaking in the Era of Artificial Intelligence)

  • 出版社:布鲁金斯学会出版社

  • 作者:达瑞尔·韦斯特(Darrell M. West),布鲁金斯学会科技创新中心创始主任、治理研究副总裁兼主任;约翰·艾伦(John Allen),布鲁金斯学会会长

  • 出版时间:2020年6月(待出版)

  • 简介:

布鲁金斯学会的两位专家在本书中讨论了人工智能带来的机遇和风险,以及短期政策决策如何决定人工智能技术走向乌托邦或是反乌托邦。通过对人工智能主要用途的深入研究,作者详细介绍了该技术如何产生实际效果。本书描绘了一幅从人工智能中获利,并最大程度降低其潜在弊端的政策和治理蓝图。
此外,本书为政府、企业和个人提供了促进可信赖和负责任的人工智能的建议,包括:制定道德原则、强化政府监督、定义公司归责原则、在联邦政府机构建立相关咨询委员会、通过第三方审计减少算法偏见、提高隐私保护要求、利用保险减轻人工智能风险、扩大有关人工智能使用和程序的决策范围、惩罚技术恶用、采取积极措施应对人工智能对劳动力的影响等。




撰文:黄萧嘉 

本文摘自“清华大学战略与安全研究中心“微信公众号






https://blog.sciencenet.cn/blog-40841-1223251.html

上一篇:智能的纠缠:意与理,矛与盾
下一篇:2019年人工智能研发热点回眸
收藏 IP: 124.64.124.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-17 06:25

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部