王飞跃的个人博客分享 http://blog.sciencenet.cn/u/王飞跃

博文

[转载]奥巴马断定人工智能已全面入侵现实

已有 6286 次阅读 2016-10-18 17:21 |个人分类:行业观察|系统分类:海外观察|文章来源:转载

重磅 | 奥巴马断定人工智能已全面入侵现实,超级智能竞赛将成为这个时代新型的军备竞赛

2016-10-14 译言&第九区






1什么是人工智能?


人工智能研究员佩德罗·多明戈斯根据人工智能研究人员采取的方式,将他们分为五大流派——根据抽象符号进行逻辑推理的“符号派”;受人脑启发搭建结构的“联结派”;受达尔文进化论启发的“进化派”;采用概率推理的“贝叶斯派”以及根据以前出现的类似情况进行推理的“类推派”。
虽然人工智能的界限并不确定并且随时间推移发生变化,但这并非问题的重点,重点在于人工智能的研究和应用始终围绕自动化或者复制智能行为。


2对人工智能的担忧暂不影响当前政策


美国国家科技委员会的技术委员会的评估结果是,对超智商强人工智能的长期担忧几乎不对当前政策产生任何影响。如果这种恐慌被证明合理,联邦政府应在短期到中期内采用现行政策;如果无法证明其合理性,联邦政府会采取几乎相同的政策。对于长期存在的猜测性风险,最理想的解决之道就是提高能力,降低甚至消除当前已经出现的非极端性风险,例如现在的安全和隐私风险,同时加大研究投入,提高长期应对挑战的能力。此外,随着该领域的研究和应用继续走向成熟,政府和商界的人工智能实践者应适当思考人工智能发展所能带来的长期社会和伦理问题,而不仅仅是技术问题。虽然这种谨慎做法会让一些人相信邪恶的超级智能或可在将来的某一天成为可能,但这种恐慌不应成为人工智能公共政策的主要影响因素。


3政府随时监控技术发展

考虑到人工智能所能带来的潜在影响,如果能够准确及时地监控和预测人工智能技术的发展,社会将会从中收益。


一个极具潜力的研究方法就是长期调查并记录专家们在这一领域的看法。例如,一项关于人工智能研究人员的调查报告显示,百分之八十的受访者相信,和人类智商同级别的“强人工智能”能够最终实现,而其中一半的人相信在2040年之前实现这一目标的概率超过50%。绝大多数受访者相信强人工智能将逐渐超越普通人类的智力。就如上面所讨论的,虽然这些具体的预测还有很大的不确定性,但调查记录这些专业判断却是十分有用的,尤其当这些判断反复出现,长期下来我们就可以看到这个领域专家思潮的演变。


4呼吁美国政府加大资金支持

2015年,据公开数据显示,美国政府在人工智能相关领域投入研发资金大约为11亿美元,此前预测显示2016年相关投入将增长到12亿美元。在白宫科技政策办公室主办的所有人工智能相关研讨会和公共推广活动中,无论是业界领袖、技术专家还是经济学家,都向政府官员呼吁加大在人工智能技术研发方面的政府投入。
我们有充分的理由支持联邦政府加大在人工智能研究方面的资金投入。经济顾问委员会的分析显示,不仅仅是人工智能研发领域,在所有科研领域,增加两倍乃至三倍的研发投入所带来的经济增长,对一个国家来说也是一项值得投资的净收益。


可以肯定的是,私营企业将会是人工智能技术发展进步的主要引擎。但从目前的现状来看,在基础研究方面的投资还远远不够,基础研究投入周期长,研究目的纯粹是为了拓展这一领域的科学边界,因此私营企业很难在短期内获得相应的投资回报。


5全体公民准备接受人工智能教育


人工智能的快速发展对具有相关技能的人员支持和相关领域的发展也提出了巨大的需求。
将人工智能、数据科学及相关领域与全国教育系统整合起来,对发展出一批突出国家战略重点的从业者是十分必要的。各个级别的教育机构都在设立和发展人工智能项目。大学、院校甚至中学都在扩充人工智能和数据科学课程,但我们现在需要更多的项目和教师。


在一个具备人工智能技术的社会中,要求全体公民都能够阅读数据、理解数据,对数据进行沟通,并参与到与人工智能相关政策制定的讨论中来。在中学乃至小学就引进数据科学课程,可以有效改善国民的数据知识水平,同时为学生在高中之后理解更高级别的数据科学概念和课程做好准备。


人工智能教育同时还是“全民计算机科学教育”项目的组成部分,总统发起这个项目的目的是,让所有美国学生从幼儿园一直到高中都可以学习计算机科学课程,培养计算机思维技能,在数字经济中成为一名创造者而不仅仅是消费者,同时在一个技术驱动的社会中成为一名活跃的合格公民。美国经济正在发生剧变,无论是教育工作者还是商业领袖都越来越意识到,计算机科学在经济机会和社会流动性方面已经成为一门“新基础技能”。在此之前,全国各地的家长、老师、社区、州政府以及私营企业领袖已经在计算机科学教育方面有了很大的投入,全民计算机科学教育项目就是建立在这一基础之上,也是为了让未来的从业者准备好迎接人工智能驱动经济的需求所带来的挑战。


6预防机器产生偏见


人们往往陷入一个误区,认为复杂的算法一般是遵照其设计者的指令,那么只有在设计者自身有意或无意地拥有偏见时,一种算法才会出现偏见。这一点使得人们难以正确认识机器学习的结果。一名技术开发员若想开发出一种带有偏见的算法自然不是难事,而无意识的偏见也常常会使从业者们防范不足。但是在实践中,无偏见的开发者们尽心尽力开发出的系统也难免会产生带有偏见的结果,因为即便是人工智能系统的开发者也无法完全了解并防止意外结果的产生。


举个例子,在未进行大量测试时,一个为照片自动添加说明的模型可能会在一些肤色较深的肖像照片上添上“大猩猩”字样。这与开发者的意图背道而驰,即便测试结果显示该模型已经为绝大多数照片提供了准确的结果,可这种糟心事还是会发生。这种类似错误虽然发生的几率很小,但其造成的恶劣结果却不是人力所能左右的,其中并没有蕴含任何种族概念,也没有对相关历史背景的看法。防止这类问题的一个办法就是进行大量的算法测试,对人们的面部进行仔细地检查和标注,包括人为地对一些结果进行筛查,识别出模型无法发现且人类无法接受的结果。


7致力于确保人工智能的“道德”


应将人工智能的社会利益与社会和经济影响作为法律和政府管理的常规课题召开专题讨论会,确保人工智能可以促进正义和公平,确保以人工智能为基础的技术能够取得利益相关方的信赖。


对人工智能的从业者和学生进行道德伦理教育也是该方案的一个重要组成部分。最好能让每个学习人工智能、计算机或数据科学的学生都加入有关道德和安全问题的课程和讨论。但是,单单学习道德还不够。道德可以使从业者们认清他们对所有利益相关方的责任,但道德培训还应增强学生们将良好的意图植入实践的技术能力,在构建和测试系统时,加入更多的技术防范。


8致命性武器难以预测


在一系列与国防相关的活动中,人工智能可能提供显著的优势。非致命性的活动,如物流、维护、基本操作、退伍军人的医疗、救生战场医疗救助和伤员运送、人员管理、导航、通信、网络国防和情报分析可以从人工智能中受益,使美国军队更加安全和高效。人工智能也可以通过非致命手段在新的系统中扮演重要角色,保护人员和高价值的固定资产并防止攻击。最后,这些应用可能会成为国防部最重要的部分。


从更广泛的角度看军事技术和人工智能的进步,科学家、战略专家和军事专家一致认为,致命性自主武器系统的未来难以预测,而且变化速度非常快。许多新水准可能不久便会成为达到,并迅速得以发展和运用。行政机构正积极、持续进行跨部门讨论,致力于制定关于自动武器的政府政策,并符合人类共同的价值观、国家安全利益和国内国际义务。



结   论


如果业界、公民社会、政府和公众共同努力,支持技术的发展,密切关注它的发展潜力,管理它的风险,那么人工智能就将成为经济增长和社会进步的主要驱动力。


政府可以发挥多方面的作用。它可以召集各方就重要问题进行交流,帮助制定公开辩论的日程。它可以在技术开发的同时对其应用的安全性和公平性进行监督,并制定规章制度在保护大众的同时鼓励创新。它应该支持基础性研究,支持将人工智能应用于公众福利,支持有技能的、多样化的从业者的培养。同时,政府自身也应使用人工智能,更快捷、更有效、更经济地服务大众。


从教育到经济安全网、再到国防、环境保护、刑事司法,许多公共政策的领域都将在人工智能的持续发展中迎来新的机遇和新的挑战。政府应不断提升自身的能力,了解并应对这些改变。


随着人工智能技术的不断发展,从业者们必须确保人工智能为基础的系统能够得到有效的管理;确保它们公开、透明、易于理解;确保它们能够和人们一起高效地工作;确保它们的应用不会与人类的价值观和理想背道而驰。研究人员和从业者们已经增加了对这些挑战的关注,并将继续关注下去。


开发和研究机器智能可以帮助我们更好地理解和鉴别自身的人类智能。缜密周到地使用人工智能可以提高我们的智能水平,帮助我们规划出一条更美好、更只能的道路,大步前进


报告建议措施


为查阅方便起见,本节将报告中的所有建议措施列出如下:


建议措施1:鼓励私人和公共机构进行自我审视,判断自身是否能够、且通过何种方式,才能尽可能得利用人工智能和机器学习技术为社会造福。社会争议机构和公共政策机构在日常工作中通常不会使用先进技术及数据科技,但应该考虑与人工智能研究人员及从业者开展合作,促进人工智能技术解决更广泛的社会问题,尤其是这些机构正在通过其他方式进行解决的那些社会问题。


建议措施2:联邦机构应该将人工智能的公开培训数据及公开数据标准放在工作中的首要位置。政府应该强调发布数据集的重要性,这样,人工智能就可以用于解决社会难题了。潜在步骤可能包括:通过实施“人工智能公开数据”计划,实现公布大量政府数据集的目标,加速人工智能研究,在政府、学术机构和私营部门等领域,促进人工智能公开数据标准的使用和最佳实践。


建议措施3:联邦政府应该探索新方法,提高关键机构应用人工智能完成任务的能力。例如,联邦机构应该发挥潜能,设立类似国防高级研究计划局这样的机构,以支持高风险、高回报的人工智能研究及其应用。教育部就是一例,该部提出建立专项高级教育研究项目,以确定人工智能及其他技术是否能够显著提高学生的学习成绩。


建议措施4:美国国家科技委员会的机器学习和人工智能分会应该为政府的人工智能从业者们开辟一个实践社区。各机构应该共同努力,制定并分享人工智能在政府工作中的使用标准和最佳实践经验。各机构应该确保将人工智能引入到“联邦雇员培训计划”的可能性。


建议措施5:在制定人工智能驱动的产品政策时,相关机构应当吸收适当的高级技术专家。有效管理人工智能驱动的产品需要以下三方的合作:机构领导、了解现有管理框架和办法的雇员、人工智能技术专家。机构领导应当采取措施外聘必要的技术专家,或者从内部挑选专家,并且确保在管理政策讨论中保留足够的技术“讨论席位”。


建议措施6:机构应当充分使用人员任命和交流模式(如招聘部门),以培养联邦的工作人员,从多个角度了解当前的技术发展状况。


建议措施7:交通部应该与产业界和研究人员合作,加强用于安全、研究和其他目的的数据共享。未来,人工智能将在地面车辆和飞行器上得到重要应用。面对这样的未来,联邦机构应在短期内建立起丰富的数据集——收集数据时要注意保护消费者隐私——以便在这些技术成熟时能够做出更合理的决策。


建议措施8:美国政府应投资开发和应用一种高端的自动空中交通管理系统,该系统可扩展升级,也能够同时应对无人机和有人驾驶的飞行器。


建议措施9:美国交通部应继续致力于建立不断完善的制度框架,确保全自动车辆和无人飞行器的安全整合,包括将新型车辆设计融入到公共交通系统。


建议措施10:美国国家科技委员会机器学习和人工智能分委员会应该监控人工智能技术的发展,并定期向上级主管部门领导汇报人工智能的发展状况,尤其是关于其发展技术中的里程碑式突破。随着技术的不断发展和专家共识的不断变化,分委员会应及时更新里程碑清单,并考虑在合适的时机向公众报告人工智能技术的发展状况。


建议措施11:政府应该监控其他国家的人工智能发展状况,尤其是人工智能技术的里程碑式突破。


建议措施12:人工智能相关行业应该和政府合作,及时向政府反馈行业的最新发展动态,包括近期可能在技术上取得的重大突破。


建议措施13:联邦政府应该优先发展人工智能的基础和长期研究项目。如果联邦政府和私营企业能够在人工智能研发领域长期稳定地投入资金,尤其是在高风险的基础研究领域的长期投资,会让整个国家从中受益。由于私营企业尤其不愿意在长期的基础研究领域进行投资,这就更凸显出联邦政府在一领域进行研发投资的重要性。


建议措施14:美国国家科技委员会(NSTC)机器学习与人工智能网络信息技术研发分委员会,以及科学技术工程教育委员会应该联合发起一项关于人工智能从业者流水线的研究,以发展出更多的事情及行动,促进从业者包括人工智能研究人员、专家和用户在数量、质量和多样性上的合理增长。


建议措施15:总统办公室应在年底前出版一份后续报告,进一步研究人工智能和自动化对美国就业市场的影响,并提出应对政策的纲要。


建议措施16:使用人工智能系统进行决策或为相关决策提供支持的联邦机构在决定个人事宜时,应当特别注意确保这些系统的效力和公平,并以证据为基础进行验证和确认。


建议措施17:资助各州和地方政府使用人工智能系统进行有关个人的决策的联邦机构应当对资金的使用条件进行审核,确保使用联邦资金购买的以人工智能为基础的产品或服务能够产生足够透明的结果,并以证据确保其效力和公平性。


建议措施18:学校和大学应该将道德、保障、隐私和安全等主题作为人工智能、机器学习、计算机科学和数据科学课程的一部分。


建议措施19:人工智能专业人士、安全专业人士以及他们所在的专业团体应该共同努力将人工智能向着更为成熟的人工智能安全工程领域推进。


建议措施20:美国政府应在涉及人工智能的国际参与方面制定政府层面的政策,并制作需要国际参与和监督的人工智能热点领域清单。


建议措施21:美国政府应该加深与关键国际利益相关者的合作,包括外国政府、国际组织、业界、学术界等,以交流人工智能研发方面的信息并促进合作。


建议措施22:机构的计划和战略应考虑到人工智能和网络安全之间的相互影响。参与人工智能问题的机构应该向美国政府和私营部门网络安全部门确保,人工智能系统和生态系统在应对智能对手时能够保持安全性和恢复力。参与网络安全问题的机构应该使美国政府和私营部门人工智能部门制定创新的方法应用人工智能,以实现有效和高效的网络安全。


建议措施23:美国政府应该在符合国际人道主义法的基础上制定关于自动和半自动武器的统一政府政策。


注:原文来自白宫科技政策办公室,由译言&第九区翻译为中文。如需转载,请注明来源,非常感谢!

免责声明

翻译的准确性由译者,而非白宫科技政策办公室负责。


转载说明:本文转载自译言&第九区(公众号:第九区9thZone)



http://blog.sciencenet.cn/blog-2374-1009496.html

上一篇:[转载]奥巴马下台前关于AI的二个急就篇
下一篇:AI 名人堂,世界人工智能60年60位名人榜

1 陆泽橼

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备14006957 )

GMT+8, 2018-11-21 23:54

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部