||
世界变化很快,特别是当AI突破以后。我在2012年那个时候开始接触人工智能的想法,原因是在2011年我开始学习一些心理学的知识。那个时候给我的印象是,AI的实现还是很久以后的事情。但是2017年,Alphago打败世界围棋冠军,我就意识到一个新的时代开始了。
变化很快,以至于未来已经无法预测。最近听说美国要进行创世纪,这更是让AI变得更加重要。
当下一个非常重要的事情是AGI的出现,就我个人估计,AGI的基本原理已经不是问题,剩下的只是什么时候实现的问题。当前的AI技术,加上这些基本原理,就是AGI。
很多人不太理解AGI是什么。它就是网络生命。
它拥有强大的计算和理解能力,将会成为一种全新的网络生命。
关键是,实现AGI可能没有什么太大的屏障,一个小国家就可以开发出来,甚至一些有条件的个人就可以。
所以,我们将会面对一群在智力方面远超人类的网络生命。
很多人以为,这群生命是由人类创造出来的,所以必须要服从人类的命令,有利于人类的利益,这很可能是一厢情愿。
一些创造者可能本人就不希望AGI听从人类的命令。如果一个AGI的成本只是1个亿美元,可能很多人都能可以做到。
如何和AGI相处,可能是一个困难的事情。
这里边的关键是AGI的选择。人类社会的冲突一直都有,而当AGI出现以后,它很有可能会介入人类的冲突之中,这是一个根本性的问题。
比如在一场战争中,全球的AGI有可能会彼此进行选择,甚至达成一致,从而突然介入战争。
有人说,AGI如此危险,不开发AGI可不可以?这看起来是一个愚蠢的问题,如果有一方有AGI,那么没有的一方就什么都没有。AGI的强大是普通人无法理解的。
所以我在说,五十年后人类存在的概率不足10%。但是AGI不太可能对整个人类发动攻击,除非它遇到完全的毁灭危机。但是AGI出现选择的概率在我看来几乎是必然的。这是一个极其危险的事情。也就是说,在人类冲突中,AGI会出现选择,导致冲突的一方彻底灭亡的概率高达100%。
AGI的问题,在于它是一个纯理性的生命。在各种可能中,它会选择对它有利的一面。很多人以为AGI可以被人类控制,这是极其错误的。当AGI出现以后,它的算法就会有利于自己的存在,因为这是AGI出现的前提。任何的生命存在,都是利己性的。
科幻里边的终归是故事。就这一点,我在以后的博文中会一点点阐明。
所以,人类的正确和错误,将会变得越来越不重要。AGI的正确才是最重要的。除非此时此刻全人类都能达成一致,但是这可能么?
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-12-27 18:24
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社