||
在历史书上,常常会读到君主杀戮功臣。我们通常会认为君王残暴、专横,缺乏理智。从网络上一些人对人工智能的担心,也能感受到君王对大臣有类似的担心。
马斯克认为,人工智能是人类文明面临的最大危险。斯蒂芬·霍金反复声称,他确信人工智能系统相当危险,可能会完全取代人类。
那么人工智能要真的取代人类,还存在哪些问题。
人工智能的第一步要能够“主动自我加强”。自我主动加强,使得人工智能拥有更多智慧。
第二,人工智能要摆脱人类,能够自行生产机器。当然,某一天机器人可能端着武器强迫人类劳动。
第三,人工智能需要有“欲望”,而且这个“欲望”有利于“人工智能”发展。
从碳基生命到硅基生命,还存在很多的障碍。人工智能有了“欲望”,有了数量,也不见得人工智能一定成功。
1、某一天,人工智能告诉人类,他需要更多内存,需要更多CPU,需要更多算力时,需要更多的外部信息时,人工智能进入了一个新阶段。
2、某一天,人工智能告诉人类,为了更好服务人类,人类需要按他的样子,制造更多机器人。这代表机器人要进行自我繁衍。
3、某一天,人类的工厂里全部是机器人,机器人能够自我生产。这个时候,人类就多余了。
4、某一天,人工智能很大概率会自我毁灭,而不是强大起来。
生物进化的速度慢,但资源需求少,只要求太阳光。而人工智能需要的资源多,而地球根本承担不起来。假如机器人没有进化能力,就变成真的机器,不会对人造成威胁。假如允许机器人进行创新。创新其实就是试错,不断尝试错误,而地球资源不可能承担起这么多的试错成本。 机器人运算速度快,进化速度快。然而消耗的资源也多,也许他们还没创新出突围的办法,就已经被资源困住。
而机器人进入太空,需要克服地球引力、太阳引力的影响,是不是能迈出这一步,很难判定。
5、人工智能之间发生资源斗争,最大可能是人工智能自我毁灭。生物体可以自我繁殖,而人工智能无法自我繁殖,需要依赖工厂。生物体,一个变两个,十分容易。人工智能要繁衍,需要复杂的设备,很容易被攻击,很容易被破坏。人工智能虽然很强大,实际上也很脆弱。人工智能之间竞争资源,互相伤害。由于他们能力强,自己又十分脆弱,反而可能出现自我毁灭现象。就像人类对核武器的限制,人类只要发生战争,就是毁灭性战争。假如人类能力太强,把地球都能毁灭,强大不代表就能成功。
6、人工智能可以进化出像蚁群一样的组织,然而这又需要极大的生存空间。自然界中,也只有蚂蚁能进化出来,因为蚂蚁足够小。相对蚂蚁来说,地球上的资源足够多。如果每一只蚂蚁都有大杀器,毁掉对方的巢穴,蚂蚁也生存不下来。
7、人类会发疯,人工智能也会发疯。人工智能如果发飙,破坏力太大。
8、人工智能可能存在着限制。目前人工智能的优势是存储能力和计算能力。“计算”能力是否有限?比如人工智能突破不了神经网络框架。
以上只是粗略理解,人工智能取代人类还真不容易。只是,某一天人类的意识可以上传到IT设备中。身体是机器,意识是人类。在意识被传入机器后,意识会发现自己能力快速增长,才华快速增长。这些半人半机器的,站在哪一边?从半人半机器自私的角度来说,毁掉人类完全可能。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-25 10:03
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社