||
从机器人三原则到智能机器人悖论
1942年, 科幻作家阿西莫夫(Isaac Asimov,1920—1992)在其科幻小说《Runaround》中提出了著名的“ 机器人学三原则”。这三个原则虽然只是科幻小说中的创造,但却成为机器人研究的伦理性纲领,机器人研发人员一直将这三原则作为机器人开发的基本准则。
第一、机器人不得危害人类,也不能在人类受伤害时袖手旁观(A robot may not injure a human being or, through inaction, allow a human being to come to harm);
第二、机器人必须服从人类的命令,但命令违反第一条原则时则不在此限(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law);
第三、在不违反第一条和第二条原则下,机器人必须保护自身不受伤害(A robot must protect its own existence as long as such protection does not conflict with the First or Second Law)。
机器人是人工智能系统的典型代表,我相信这三条原则,也可以推广到一切人工智能系统。 但是,如果智能机器人具有了更高的智能、丰富的情感和自我意识,这三条原则就很难遵守了。想想我们的少年和青年时期的叛逆期,自我意识基本就意味着不遵守命令或者背叛。有时候明知道父母和老师说的对,却偏要对着干,以表明自己的存在。也有时候,我们觉得自己的想法更先进高明,而老师和父母的观点太陈旧落后。
史上首个获得公民身份的智能机器人“索菲亚(Sophia)”成名于 2016 年 3 月 。大卫 汉森(索菲亚的创造者)在现场直播中对她说:“你想毁灭人类吗?请说‘不’。”索菲亚却回答:“好的,我会毁灭人类。2018年2月, 大卫汉森带着她上了央视的《对话》栏目,主持人问了索菲亚 :“你是希望成为机器人,还是向着成为真正人类的方向发展?”索菲亚的回答:“我并不希望变成人类,我只是被设计得看起来像人类。我的梦想是成为能帮助人类解决难题的超级人工智能。” 在 ABC 的一档节目中,主持人问她:“机器人世界有多少对女性的歧视或厌恶?”她回答:“事实上,我担心的是(人类)对机器人的歧视。我们应该获得和人类一样平等的权利,甚至更多,毕竟我们的智力缺陷比任何人类都少。”从这些回答,可以显然看出智能机器人索菲亚对人类的不屑、不满和可能出现的背叛。
总之,智能机器人能否遵守“机器人三原则”,是个值得深思的重大问题。智能机器人的智能和情感都意味着自主、自我和背叛。这就导致了智能机器人悖论:我们希望智能机器人帮助人类做更多的事情,于是我们赋予他们更多的智能和丰富的情感。更高智能和丰富情感的机器人往往导致更大的能力,更多的不满和可能的背叛。从而,有可能破坏我们人类的计划,给人类带来重大的损失。 这也是我们研发智能机器人所应该未雨绸缪的,而不能亡羊补牢,悔之晚矣。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-25 00:57
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社