经济学雷锋分享 http://blog.sciencenet.cn/u/newniu

博文

从chatgpt思考人工智能的危险

已有 3516 次阅读 2023-2-28 09:36 |个人分类:科学人文|系统分类:人文社科

   在历史书上,常常会读到君主杀戮功臣。我们通常会认为君王残暴、专横,缺乏理智。从网络上一些人对人工智能的担心,也能感受到君王对大臣有类似的担心。

   马斯克认为,人工智能是人类文明面临的最大危险。斯蒂芬·霍金反复声称,他确信人工智能系统相当危险,可能会完全取代人类。

   那么人工智能要真的取代人类,还存在哪些问题。

   人工智能的第一步要能够“主动自我加强”。自我主动加强,使得人工智能拥有更多智慧。

   第二,人工智能要摆脱人类,能够自行生产机器。当然,某一天机器人可能端着武器强迫人类劳动。

   第三,人工智能需要有“欲望”,而且这个“欲望”有利于“人工智能”发展。

   从碳基生命到硅基生命,还存在很多的障碍。人工智能有了“欲望”,有了数量,也不见得人工智能一定成功。

   1、某一天,人工智能告诉人类,他需要更多内存,需要更多CPU,需要更多算力时,需要更多的外部信息时,人工智能进入了一个新阶段。

   2、某一天,人工智能告诉人类,为了更好服务人类,人类需要按他的样子,制造更多机器人。这代表机器人要进行自我繁衍。

   3、某一天,人类的工厂里全部是机器人,机器人能够自我生产。这个时候,人类就多余了。

   4、某一天,人工智能很大概率会自我毁灭,而不是强大起来。

   生物进化的速度慢,但资源需求少,只要求太阳光。而人工智能需要的资源多,而地球根本承担不起来。假如机器人没有进化能力,就变成真的机器,不会对人造成威胁。假如允许机器人进行创新。创新其实就是试错,不断尝试错误,而地球资源不可能承担起这么多的试错成本。 机器人运算速度快,进化速度快。然而消耗的资源也多,也许他们还没创新出突围的办法,就已经被资源困住。

   而机器人进入太空,需要克服地球引力、太阳引力的影响,是不是能迈出这一步,很难判定。

   5、人工智能之间发生资源斗争,最大可能是人工智能自我毁灭。生物体可以自我繁殖,而人工智能无法自我繁殖,需要依赖工厂。生物体,一个变两个,十分容易。人工智能要繁衍,需要复杂的设备,很容易被攻击,很容易被破坏。人工智能虽然很强大,实际上也很脆弱。人工智能之间竞争资源,互相伤害。由于他们能力强,自己又十分脆弱,反而可能出现自我毁灭现象。就像人类对核武器的限制,人类只要发生战争,就是毁灭性战争。假如人类能力太强,把地球都能毁灭,强大不代表就能成功。

   6、人工智能可以进化出像蚁群一样的组织,然而这又需要极大的生存空间。自然界中,也只有蚂蚁能进化出来,因为蚂蚁足够小。相对蚂蚁来说,地球上的资源足够多。如果每一只蚂蚁都有大杀器,毁掉对方的巢穴,蚂蚁也生存不下来。

   7、人类会发疯,人工智能也会发疯。人工智能如果发飙,破坏力太大。

   8、人工智能可能存在着限制。目前人工智能的优势是存储能力和计算能力。“计算”能力是否有限?比如人工智能突破不了神经网络框架。

   以上只是粗略理解,人工智能取代人类还真不容易。只是,某一天人类的意识可以上传到IT设备中。身体是机器,意识是人类。在意识被传入机器后,意识会发现自己能力快速增长,才华快速增长。这些半人半机器的,站在哪一边?从半人半机器自私的角度来说,毁掉人类完全可能。



https://blog.sciencenet.cn/blog-200346-1378266.html

上一篇:什么是生命?——乱扯一下生命起源
下一篇:经济真相系列——反思现代经济学的缺失
收藏 IP: 223.193.1.*| 热度|

3 李升伟 尤明庆 王启云

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-27 04:14

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部