|||
昨天给学校(Université de Picardie Jules Verne)的选修课“人工智能历史”的学生讲课,题目是“AI的人机伦理关系”,希望让学子们对蓬勃发展的AI有一个开阔的视野。学生来自计算机、数学、物理、化学、生物、经济系、语言、艺术等各个科系,大家说选修此课是因为对正在兴起的AI感兴趣但又有担忧,希望对此能有所了解,进而参与。
我用谷歌3100名员工刚刚联名上书抵制与五角大楼合作的公开信,及前不久联合国特定常规武器公约会议上那个恐怖的蜂群无人机杀人视频,引出“AI的人机伦理关系”主题。 从著名科幻小说家阿西莫夫于1942年第一次提出的“机器人三定律”,到2016年由“生命未来研究所”(Futureof Life Institute,FLI)的一线科学家牵头制定的“阿西洛马人工智能原则”,这些回答主要是针对研发者的,还没有真正涉及到人机伦理关系的核心。
人机伦理关系最令人困惑的问题是:有没有等于甚或高于人的智能的“人工智能”?然而这个问题却是基于人的智能这个标准提出的,因此问题与问题的前提之间形成了一种循环定义的关系,使得这样的问题几乎无法回答或逻辑地展开研究,这也正是AI研究中的基本理论问题难以取得进展的原因。为此,我讲了AI的源头图灵的“模仿游戏”,波普尔以“知识”为基础的“世界3”理论,以及算法理论的世纪难题“P vs NP”,由此给学子们解释人机伦理关系实际上涉及到确定性与不确定性的关系。
所以欲对复杂的人机伦理关系作深入的了解,需要科学与人文、中西方文化的融合发展,也就是我们强调的二种“二种文化”的观点。
*****
内容介绍:
引言
-谷歌3100名员工联名上书抵制与五角大楼合作的公开信 [1]
-恐怖的蜂群无人机杀人视频 [2]
AI问题
-“阿西莫夫机器人三定律”
-“阿西洛马人工智能原则”
AI伦理的基本问题
-IA vs IH :确定性 vs 不确定性
-图灵的“模仿游戏”
-波普尔的“世界3”
-“P vs NP” 结论
Introduction
-Une lettre dénonce l’implication de l’IA de Google dans "les affaires de guerre" du Pentagone [1]
-Une vidéo entend éveiller les consciences sur les dangers des armes-robots et de l’intelligence artificielle [2]
Enjeux d’IA
-« 3 Lois de la robotique »
-« 23 Principes d’Asilomar »
Des questions fondamentales de l’éthique d’IA
-IA vs IH
-« Le jeu de l’imitation » de Turing
-« Le monde 3 » de Kopper
-« P vs NP »
Conclusion
参考资料:
[1] 谷歌3100名员工联名上书抵制与五角大楼合作的公开信 :http://tech.sina.com.cn/roll/2018-04-05/doc-ifyteqtq4386085.shtml
[2] 恐怖的蜂群无人机杀人视频 : http://www.sohu.com/a/206587136_441488
[3] 法语课件 :
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-14 11:26
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社