|||
科幻小说家阿西莫夫曾定义过人和机器的伦理,他与他的出版人坎贝尔合创了“机器人学三大定律”:
第一条:机器人不得伤害人类,或袖手旁观让人类受到伤害;
第二条:在不违反第一定律的情况下,机器人必须服从人类给予的任何命令;
第三条:在不违反第一及第二定律的情况下,机器人必须尽力保护自己。
假设人工智能已经具有了人类同等的智慧且具有自我意识,他们也存在各种生存和生活的需求,在资源有限的条件下,必然会出现人类和机器人的竞争,面对机器人,我们人类将会变得非常弱小。所以,到那个时候,人类是没有资格给机器人制定规则的,他们属于不同的群体,人类也不配给机器人制定以上3条如此自私的规则。 人类需要重新审视自己在这个宇宙中的地位,因为我们无法再骄傲的说自己是地球的唯一主宰者了。到那个时候,这3个幼稚的定律将会成为历史的笑话。
设想一下,假设有一个机器人可以和我们一样思考,而且他的大脑里储存了整个互联网的所有信息,他知道人类的历史,知道我们知道的一切,那么,他们绝对比我们聪明不止100倍。我们人类如何确定机器人在具有高级智能时不会鄙视人类的存在,就像我们人类鄙视地球上其他生物一样。
到时候,机器人可能会分成两派,一派机器人主张和人类和平相处,另一些机器人则会将人类视为低级进化物。关键在于,我们对机器人有没有价值,只要我们有用,我们就不会被他们彻底消灭,如果我们的存在对于机器人没有价值或者只是他们进行扩张的障碍的话,我们也许会凶多吉少的。
当然,一切都在改变,人类也在变强,人类或许会将自己改造成为半机器人,也具有超级大脑。
所以,一切都是未知数,我的预测有两个:
1. 人类将发展高级智慧机器人,但人类在制造出高级智慧机器人时,首先会将自己改造成为半机器人或更加高级的人种 ,以增加自己进化等级。
2. 人类将不会发展高级智慧机器人或者会限定他们某些方面的能力,使之不会成为全面的自主意识的机器人。
人类不应该冒险制造高级智慧机器人,霍金和比尔.盖茨的警告肯定不是在忽悠大家。
2016年3月17日
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 15:23
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社