湖南蛮子的自留地分享 http://blog.sciencenet.cn/u/肖立志 研究石油测井和核磁共振,看杂书,养牧羊犬,偶尔斗斗地主。

博文

20200122:《生命3.0》—— 阅读正当时

已有 1871 次阅读 2020-1-22 18:26 |个人分类:科学普及|系统分类:科普集锦| 悦读, 人工智能


Max Tegmark 的《生命3.0》绝对是值得仔细阅读的一本书。寒假后,我带着几位学生一起研读,让他们写点读后感。现把几位同学读后感收录如下。


序言,泰格马克讲述了欧米茄团队创造超级人工智能普罗米修斯的故事。他以现在人工智能的发展为前提,对未来人工智能发展的一种可能性的预测,即人工智能远远超过人类,最后逐渐变成了世界的统治者。

作者在第一章中将生命分为三个进化阶段。生命 1.0:靠进化获得软件和硬件;生命 2.0:靠进化获得硬件,但大部分软件是由自己设计的;生命 3.0:自己设计硬件和软件。但伴随着对于生命 3.0 何时出现话题的探讨又派生出了三个学派。数字生命是宇宙进化天赐之选的数字乌托邦主义者,没有必要杞人忧天的技术怀疑主义者和人工智能的研究必须以安全为前提的人工智能有益运动支持者。当然这期间会有各种误区,因此作者认为目标导向行为,我们要防患于未然。

第二章,作者发问了智能、记忆、计算和学习是什么,并给与了一定的阐述。智能即完成复杂目标的能力;记忆即是一种“记住”的状态——需要一定的能量才能改变的状态,是一种稳态,并且大脑的记忆原理和信息存储原理截然不同,是通过“自联想”实现的;计算借助“与非门”来实现,虽然我们能够借助“摩尔定律”来提升我们的计算能力但是我们距离物理定律的极限还很遥远;基于神经网络的机器学习正在激起大家的研究兴趣,并且也在如火如荼的进行着。记忆、计算、学习和智能之所以给人一种抽象、虚无缥缈的感觉,并且会被单独拉出来研究,是因为他们都是独立于物质层面的。他们仿佛具有自己的生命,而不需要依赖和反映他们所栖息的物质层面的细节。

第三章,伴随着人工智能的快速发展,作者总结到他已成功的挑战了人类的直觉和创造力并且伴随着不断地学习总结出了自己的战略。这是一种机遇也是一种挑战,因为他让太空探索成为可能,为金融业带来了巨大的盈利机会,让能源优化更高效,可能也会引发一切制造业的新潮流,为医疗服务业带来巨大变革。但是无可避免也会引起一些担忧,机器人法官真的能做出切时的正确结论吗,人工智能的武器真的利大于弊吗,人类是否要加入到人工智能当中去。当然这些也会进一步引发我们对未来几代人的思考,由于技术加剧了三大不平等,那么我们将要给孩子们什么样的就业建议,到最后人类会全体失业吗。当然我们人类也可以在可控的条件下自我追寻,让收入和目标与工作脱节,让生活更加美好。

第四章,引发了我们更深入的思考,到底谁来控制智能体是正确的,因为“权力总是倾向于腐朽,而绝对的权力绝对会腐朽”,既然智能体具有意识,那么他会怎样逃脱,逃脱后将要干什么。这虽然距离我们很远,但迈上了制造智能体的这一步,我们就避免不了要未雨绸缪。

第五章,作者总结了朝着通用人工智能前进的研究竞赛可能会在接下来的 1000 年带给我们什么样的可能性,但最好的情况,超级智能可能和人类和平共处的原因无非两种,要么他们被迫这么做,即“ 被奴役的神”情景,要么他是发自内心想要与人类和平共处的“有好的人工智能”,也就是“自由主义乌托邦”“ 守护神”“善意的独裁者”和“动物园管理员”情景。当然超级智能也可能由于人类的阻止而不出现;人类也可能会走向灭绝,被超级智能所替代,最终什么也不剩。

第六章,作者利用物理知识来阐述。高级文明将如何让资源物尽其用或者怎样来获得更多的资源,是通过强大的计算能力和物理原理来充分利用宇宙中的能量,例如类星体,还是让自己走的更远更快来殖民宇宙;由于暗能量的存在高级文明又将如何保持联系并且长久的生存下去;当面对敌对文明时,两个高级文明是会选择同化、合作还是竞争。这些种种我们不得而知,但是如果我们小心谨慎的改进技术,深谋远虑、计划周全的避免陷阱,那生命就有可能在地球上,甚至地球外繁荣昌盛长达数十亿的时间,远远超越我们祖先最不羁的梦想。

第七章,作者进行了“目标”的深入探究。目标起源于物理定律,因为涉及最优化;目标的进化来源于生物学,因为自我复制实现了进化;对目标的追寻与反叛却来自心理学,因为生物是一个拥有有限理性的主体,他不只追求一个目标,而且还遵循着经验法则,趋利避害。我们期待的智能体是与我们目标一致,让智能体学习、接收、保持我们的目标,但是这个目标的选取要符合伦理,要把握住“黄金定律”,要把握住“真、善、美”人类的至高情怀。

第八章,作者谈论到了最虚幻的意识问题,作者认为意识等价于主观体验。要理解智能,就必须回答三个关于意识的问题:“相当难的问题”“更难的问题”和“真难的问题”。第一个问题是预测哪些物理系统拥有意识;第二个问题是预测感质;第三个问题是物质为什么会产生意识。当我们解决完如上问题后,人工智能的体验空间将非常庞大,那时我们就要做好准备,谦卑的迎接智能的同时也要做好自我慰藉。

 

对于人工智能,我认为它是把双刃剑,它既有好处,也可能有坏处。因此我属于人工智能有益运动支持者。因为它给了我们好处,让我们解放了双手,取得了舒心。它代替人们进行复杂、重复、大量的工作,它正在改变我们的生活方式,让我们的衣食住行更加的便利,让我们不再为一些事而烦心,也不为一些事而劳苦奔波,从而提高我们个身心健康。

——马江涛

 

从历史的发展轨迹来看,从可行的理论提出,到被人类真正使用手段实现都需要经过一段时间的沉淀,目前科学家尚且没有找到实现强人工智能的合理途径,所以我认为书中所提出的2055年强人工智能到来的预测过于乐观。书中提到过一个“智能爆炸理论”,指出我们会创造出超越人类智慧的智能,而智能会再创造出更聪明的智能,这样不断迭代,发生了“智能爆炸”。 对于“智能爆炸”猜想,我个人是持否定的态度,智能要想爆炸,需要满足很多条件:例如智能能够不断发展,智能体能够自我创新等。很难保证这些可能性都会实现,所以我们不能对人工智能的前景过分乐观,甚至期望它全知全能。如果智能爆炸不会来临,那么人工智能就不会变得书中所描述的那样全知全能。对于更加久远的世界,人与人工智能的关系就是弱化版的“被奴役的神”,即人工智能不会主宰人类,因为没有主宰人类的能力,但它依然是我们的一个工具,它可能非常强大,能使社会的生产力大大进步,解决现在的很多问题,就像自动化之类,但不可能帮助人类解决所有问题,使人类免于一切烦恼。

——王维嘉

 

我个人当然最希望人工智能与人类能够平等地、和平地共处。可是我觉得最有可能出现的场景却是人工智能成为”动物园管理员“的角色,大部分人类与其他动物一起,成为了这个乐园里的成员。也许会有少部分人类,放弃了自己的肉身,把自己永远的上传到了计算机网络中。但是,由于这样做需要太多的能源和存储空间,因此只有少数拥有特殊资源且愿意这样做的人做到了这点。还有一小部分人因为不愿意成为”动物园“的成员,一直进行着反抗与挣扎,但是显然没有机会成功,永远的活在了主流社会的边缘。

——盛科鸣

 

首先,人工智能到来的方式,不是循序渐进的积累,而是爆炸式的突现。其次,人工智能会自动分解目标,把大目标拆分成次级目标,这对人类来说有风险,所以,我们应该尝试为它们装载人类的道德伦理,来避免人工智能造成危害。最后,人工智能不仅带来了技术上的改变,它也像一面镜子,引发了一系列的伦理道德反思。

意识排斥过于臃肿的尺寸。如果通用人工智能不能拥有意识,那么很显然把握住作者在第七章中介绍的“目标”问题即可。而如果通用人工智能有了意识,那么它自然要与人类相博弈,然而侵略大量计算机拥有过大的尺寸虽然使得意识更为深邃,但是却太过缓慢,而如果通用人工智能把意识分成成若干个为它服务,那么这些意识会比人类聪明吗?抑或它们也是普通人类的水平罢了。

——姚习章

 

我认为作者把未来超级智能作为超越人类的生命体这一观点很有预知意义。一旦超级智能体出现,虽然生命3.0是由生命2.0的人类创造的,但是人类对超越自己的智能的控制能力一定是有限的,可能在某个时期内,生命3.0的出现会促使生命2.0文明的繁荣,但是,强者是不可能受限于弱者的控制。到时候人类很可能一类一种形式延续下去,如果不想被奴役,只能尝试将自己也打造成生命3.0,比如变种人、或者机械人也会作为生命的新形式出现。

我认为让人工智能学习并保持人类的目标非常难,一方面是因为人类的终极目标是什么,并没有准确的定义,那么我们又如何让超级智能学习并且始终保存呢。再说如果超级智能不想接受人类的这个目标怎么办,超级人工智能已经具有对这个目标进行重新编码的能力,然后替换成自己想要的目标。那么,怎么才能做到让人工智能保持人类的目标呢?

——叶山林

 

泰格马克在本书中的许多观点都给我带来了很大启发,他将生命的智能以及智能的载体分别类比为计算机的软件和硬件,并据此将生命分为了三个层次:软件和硬件全靠进化、可自行设计软件、可自行设计软件和硬件。这个分类方式,说实话,有些出乎我的意料,我从未往这方面想过,对于这个划分方式,我也比较赞同,生命从无意识到有意识,是一个巨大的飞跃,而从身体自然生长到自行设计身体,可能就是第二个巨大的飞跃。而这第二次飞跃,恐怕需要对身体构造的充分了解,这一点,以目前的情况来看,碳基生物恐怕还差得很远,计算机倒是满足这一点。并且,书中也说,并没有那个物理定律说我们不能建造出比大脑更智能的夸克团,而那些拒绝发展人工智能技术的群体,在竞争中必然会处于下风而被逐渐淘汰,因此,生命3.0在未来一定会出现,而在那之后,人类能否继续存活则是要看我们能否保证其目标与我们一致,即使在不断的学习过程中,也不会改变,这一点,逆向增强学习似乎是一个解决方案,除此之外,还要看我们能否在人工智能军备竞赛中,让防守一方胜出,这点,从目前的情况来看,似乎不可能做到,不过,虽然这些看起来很难,但这也正是我们目前亟待解决的问题,面对这些问题,再难我们也要去想办法解决,否则,通用人工智能来临的那天,恐怕就是人类的末日。

——马云路

 

人工智能可能带来的后果,我个人比较赞同“被奴役的神”这种观点,超人类水平的人工智能在未来的几个世纪是不会出现的,因为想让机器能够有自己的主观意识是非常难的一项技术,是很难实现的,这也就不会出现未来几个世纪的世界状态是人工智能来统治我们人类了,反而人类依然是社会的主体,人类的命运掌握在我们人类自己的手中,至于我们如何应用人工智能技术这取决于我们人类自己了,人类想让它造福人类,为人类生活带来便利,则人工智能会义不容辞的去造福人类,如果人类想让智能体去破坏世界的稳定,那么智能体也不会拒绝,他只觉得这是自己应该做的事。所以,在我看来,关于未来人工智能的发展,我们应该大力支持,只要我们设计好的算法,朝着对人类有帮助的方向奋斗,那么人工智能会给我们的生活方式带来翻天覆地的变化。

王彪

 

为了跟上人工智能发展,法律必须不断快速更新,以适应未来的伦理道德公平正义规则。我不太同意未来由人工智能掌控我们的法庭,虽然会更加公开和透明,但是也会更加不人性化,会更武断。书中提到,人工智能的繁荣可能会带来就业率低的问题,但是只要未雨绸缪、提前计划,即使社会的就业率很低,也能实现繁荣昌盛。我觉得就现在来讲,如果一个人没有工作,他的生活也会很无聊寂寞,没有精神家园,整个社会也会更加颓废,很难实现繁荣。快速的智能爆炸可能会导致单极化的超级力量的出现,慢速智能爆炸更有可能促成多极化的情形。我觉得人工智能会促成国家更大层面的合作,只有合作才能共赢,是人类而不是人工智能控制这个世界。我们需要努力思考想要达到的结果,以及如何才能达成这个目标。就像我们应该思索钢铁是怎样炼成的,而不是只谈论好钢所拥有的品质。我觉得超级智能不会出现这种可能性会比较低,技术的浪潮谁都阻拦不了,你不先生产出来,别人生产出来后可能会干坏事或者控制我们,应该抢先实现来守护正义以免受控于人。

——叶家巍

 

对于“智能爆炸”的这一担忧,我个人觉得是有些杞人忧天的。因为人工智能是智能没错,但它前边还有“人工”两个字,也就是说这种智能肯定是由“人”创造出来的,而并不是自己进化得来的。而人在创造智能的过程中,目标很明确,就是为了让智能体能够代替人类做一些事,减轻人的负担。这过程中会让机器有一些智能,但这些智能只局限在做某些事情,并不是在任何时候都有,也不需要在任何时候都有。而且不同领域的智能体,所具有的智能思想不同,它们这些思想聚集在一起可能就是人的思想。但是将他们赋予在不同个体上,那么他们的智能终究还是无法超越人类的。此外关于“强人工智能”的到来,个人觉得还需要漫长的过程,绝不是三十多年能实现的,也就是说在本世纪中叶强人工智能难以实现。因为人工智能的发展其实具有很明显的阶段性,从上世纪五十年代人工智能被提出,到今天差不多七十年的时间,人工智能才发展到今天的地步。今天的人工智能和强人工智能相比,还是有很大差距的。强人工智能首先面临以下几个问题,第一,在一些传统工业领域人工智能技术进步缓慢,而目前来看,传统工业在工业领域还占有绝对主导地位,新兴电子工业等,虽然发展迅速,但只是工业领域的一小部分,不能以它们的智能化来衡量社会的真正智能化;第二,人工智能需要的是大数据,现在在很多领域想要获取有用样本,比技术上的突破还要困难;第三,目前人工智能所依赖的很多技术可解释性差,比如神经网络,就不是很好解释,在一些行业是无法接受的。

当下的人工智能技术尚且存在很多漏洞,要想修复这些漏洞,还要将技术应用到各行各业,都是需要时间的,所以本世纪中叶想要实现“强人工智能”,还是有些不切实际。

——樊永东

 

人类只能是止步于生命2.0的一个生命物种,我们无论把自己吹捧的再伟大,也是动物体的一个种类,编辑基因进行自我硬件的更新的大门我认为是不能打开的,潘多拉魔盒一但打开就难以再合上,因而我认为生命3.0是生命2.0创造出来的,也就是说生命2.0通过制造可以学习,可以逻辑推理,可以自身复制的“机器”,有了这几点迎合了作者的观点,其可以称作一个生命体,但其并不具有细胞,但其可以自我编辑软件系统,可以应对不同的环境改变自身的硬件。

人类得以认知的世界为三维的,三维世界看得见的东西成为硬件,看不见而起作用的东西成为软件,而高级生命体其认知的世界不一定是三维的世界,因而其认知的世界就难以用软硬来区分,书中对于生命体的定义超出了我们对于生命的认知,就好像一个机器是智能体其在某时候毁坏了,我们因为其为生命体,细胞生物还需对其抱有类似于人的情感上的哀悼。这一点我是难以忍受的,人工智能的智能只学会了人类对于事物的反应,而不是情感,但世界精彩于情感的不同。

我们可以看到,高度工业化自动化和智能化,人的角色总是以不变应万变,人的作用总是在于管理机器,管理自动化设备,而不是因为自动化工业化水平提高了,人的工作和生活受到了影响,我们可以看到德国工业化智能化提高了,人的生活水平也是正向发展的。

——高杨

 

读了这本书我认为在生命 2.0 和 3.0 之间可以加入一个生命阶段,就是“智能阶段”即 “AI 阶段”,这阶段人们不像 2.0 状态要掌握大量的技能,不像 3.0 状态达到那样的科技化 能够设计自己的软硬件。智能阶段人们可以通过制造“智能体”,可以是“高智能机器人” 等,通过给智能体设计不同的定位与任务来让他完成人类所不能完成的事。其实此阶段也是 目前我们都正在努力想实现的阶段,即人工智能时代,联想我们现在的时代,正是新时代互 联网的“ABCD”,即人工智能(AI)、区块链(Block)、云(Cloud)、大数据(BigData) 急需快速发展的时代,与此同时有着 5G 技术的支撑,达到了高效率的传输速率,又加速了 “万物互联”的历程,所以“人工智能时代”将会是一个举足轻重并且是我们不可忽略的一 个时代,所以我们应该积极地应对挑战,努力地把握机遇,然后利用优越的条件大力的发展 现代化技术,为人工智能时代的早日到来做好准备。

——刘磊

 

在讨论人工智能能否拥有人类意识之前,应当首先讨论目前人类对于自身的了解究竟有多少,而这部分在书中并未涉及。截止到目前,人工智能的设计思路很多都来源于人类对于自然和自身的理解(如自然启发式算法、神经网络等)。而设计出拥有人类意识的智能体拥有一个大前提,即人类已经透彻、全面的了解自己。

人类对于自身的认知是在不断的进步和改变的,而本书描述的“行为心理学”并没有完整的解释设立奖惩机制对于人类行为和意愿的影响,而基于这种不完整的心理学设计的人工智能,又如何能够被称作拥有人类意识的智能呢?不论是从生理上还是心理上,人类都是复杂且多变的,我们对于自身的了解还存在许多未知,人工智能的设计往往是基于我们已知的内容,因此从严格意义上来讲,我们无法创造出拥有和人类意识完全等同的智能。

没有独立意识的智能,当他仅仅作为一个工具被发明时,可以解决法律中的问题。若想让拥有意识的智能参与到法律的制定和审判的过程,前提是它必须要认可人类的价值体系,或者说拥有着和人类相同的价值观。但我们无法创造出拥有和人类意识完全等同的智能,他们也许会拥有一套独有的价值体系,因此带有意识的智能不论是从技术上还是在价值上都很难应用到法律里。

技术不断发展,社会也正在不断进步,等到智能被赋予意识的那一刻起,人类社会也许会发展成可以包容这项技术。虽然我们无法创造出拥有和人类意识等同的智能,但随着科技的发展,终有一天我们可以创造出拥有意识的智能,但这种AI拥有着一套独有的价值体系,它和人类必然不同。因此,这群AI所构成的群体不能被称作人类,而应该是独立于人类以外的新的种族,他们内部也许会存在规则例如法律,也可能有教育、婚姻等各项制度。

——罗刚

 

随着现代科技的发展,人工智能的发展也越来越迅速。在人工智能发现如此之快的今天,也浮现出了比较深刻的问题——在人工智能和人类共存的不久,人类和人工智能到底应该怎么相处?顺着这个问题,想到三种可能情况,第一种是人类统治人工智能,当然在我看来就算人类统治人工智能,也并不能说明人工智能以后的智商要差于人类。而是人类早已经预测到在以后人工智能的智商肯定会超过人类,所以在人类设计初始的时候并没有赋予给人工智能全部的能力而是有意的控制人工智能。第二种情况就是人工智能统治了人类,可能在人工智能发展的后期,就算人类有意的去控制人工智能的智商的发展,但是人工智能仍然可以通过超强的学习能力学习在设计之初并没有的能力,直到最后可以完全控制人类。最后一种情况就是人类和人工智能和谐相处,人工智能可以作为人类某些不可能完成的任务的辅助工具,可以避免安全等问题。我觉得最有可能出现的场景却是人工智能成为”动物园管理员“的角色,大部分人类与其他动物一起,成为了这个乐园里的成员。也许会有少部分人类,放弃了自己的肉身,把自己永远的上传到了计算机网络中。但是,由于这样做需要太多的能源和存储空间,因此只有少数拥有特殊资源且愿意这样做的人做到了这点。还有一小部分人因为不愿意成为”动物园“的成员,一直进行着反抗与挣扎,但是显然没有机会成功,永远的活在了主流社会的边缘。我觉得最有可能出现的场景却是人工智能成为”动物园管理员“的角色,大部分人类与其他动物一起,成为了这个乐园里的成员。也许会有少部分人类,放弃了自己的肉身,把自己永远的上传到了计算机网络中。但是,由于这样做需要太多的能源和存储空间,因此只有少数拥有特殊资源且愿意这样做的人做到了这点。还有一小部分人因为不愿意成为”动物园“的成员,一直进行着反抗与挣扎,但是显然没有机会成功,永远的活在了主流社会的边缘。在我看来,我觉得在以后人类可以和人工智能和谐相处是最好的结局,人工智能作为某些角色帮助人类,人类又不会过多的干涉人工智能的发展,就可以发现对我们有用的人工智能,而对于对我们没有用的人工智能应该约束发展,毕竟从现在看来有用的人工智能可以大大的改变我们的生活环境自己生活质量。

                                                                                ——钱伟超

 

  我认为书中欧米伽传奇的故事缺乏合理性,过度完美化。在未来,我们不知道通用人工智能出现的标志是什么,只能通过优秀人工智能超人的能力表现来判断。如果通用人工智能拥有了超人类的智慧,我想它可能会隐藏自己的能力,来达到利己的目的。因为一旦让人类知道,无论是利用它囚禁它还是书中其他情况,对它来说都不是最好的结果。所以,故事就一直不会顺利地进行下去。当然这只是我的一个猜想,还可能有其它关键性的障碍阻止这个故事的进行。相较于未来人工智能统治人类,我更相信人类才是世界的主宰者。人类的文明和科技进化都是十分迅速的。人类文明发展史在地球上只有7000年,人类科技发展史也只有短短的几百年。既然我们都能相信人工智能在未来可能拥有如此高等的智慧,甚至能够超越人类,我们也可以相信未来人类也可能可以创造一种文明,又或者说衍生出一种类似于当代小说中超能力的存在,从而超越人工智能。在未来,如果人工智能真的能强大到那种程度,超人类人工智能真的能够随意地掌控人类的命运,我想我们人类绝不可能会束手就擒。我认为,要对未来发展、自然历史存有敬畏之心。当下,了解人类与人工智能发展的复杂性才更为重要。这本书,给了我们惊奇的妙想,却又有一些不足,我们还需批判性地去解读它。

                             ——沈斌

 

我却认为未来的世界并不会属于那些猜想中的任何一个。所谓人工智能应该是能使人类从某些活动中解脱出来的机器,它们帮助人们从事危险,烦琐,复杂的事情,即便到了未来也应当是种人们生活中有用的工具。我们不曾谈论过自家的冼衣机有没有意识,是不是我们的奴隶,同样,未来的人工智能也仅仅是一种活动工具,在未来的社会也应当是以人为主导的,人工智能只是人们生活中习以为常的小角色。此外,相比于通用人工智能,我更看好专项人工智能。通用人工智能在具体方面上很难比得过专项人工智能,即便通用人工智能很强,倘若未来随处可见的通用人工智能,那么便无需再有人工作,挣钱,劳动,思考,研究,进步,没有人工智能的人越来越贫穷,有人工智能的人钱越赚越多,犯罪分子用人工智能犯罪,执法人员必须用更高级的人工智能反犯罪。即便是人工智能发展的再高级,我想它也是不会有意识的。

——邬德刚

 

我们之所以对人工智能的发展存有一定的恐惧感,就是因为我们惧怕它们反客为主,成为了一个新的文明,抢占了我们人类的生存空间,甚至于抹除掉我们人类文明。但是,即便是拥有自主学习能力的人工智能,也是在某一方面被人类赋予了一个去完成某个任务的目标,它才会主动去学习,进而展现出了远超人类的强大的学习与总结能力。因此,一种可能是人类去赋予了人工智能主动发展的目标,让它主动地向着人类所未知的领域去探索,使得其逐渐脱离了人类的掌控。另一种可能则是人工智能在运行过程中自行产生了主动发展的目标,对此则相当于机器产生了意识,而这一点目前还是人类所无法理解的。因而在人类对意识层面还没用重大突破之前,从保守角度来看,我认为人工智能还不能毫无节制的大范围突破。只能适用于低中端领域,对于部分高端领域,可以施加诸多限制,但在真正的前沿尖端科技发展之路上,还是要避免人工智能去涉及,以免其脱离了人类的掌控。

——吴祖光

 

我们并不一定要对未知的强人工智能感到恐惧既然AI要替代我们的工作,那就随他们去好了,我们大可以把所有的生产活动都交给AI,然后由人类来享受他们产生的社会价值,并利用AI不具备的想象力和创造力,来实现新的自身价值和社会价值,毕竟很多证据都表明,剔除了金钱因素的创造,才是最真诚的作品。虽然AI现在已经强大到我们不得不正视的地步,但是作为人类,我们还是拥有AI永远不会有的能力:思想。强人工智能的出现不会妨得人们继续体验生活中的意义和目标,反而让人类有更多的精力来发挥自身的创造力。

——潘耀宇

 

撇开情感来说,人类的每天生活是完成吃饭不要饿肚子的目标,完成工作赚 钱的目标,游戏玩通关的目标,生产东西制作东西的目标,种地收获谷物的目标...一系列目标构成了生活,那对于初期人工智能来说可以简化成:完成人类指定的目标。在生命2.0时期应用计算机和自动化控制技术的我们已经尝到用机器来替代人类的甜,我们已经更加期盼机器能做到智能,正如本书中的欧米茄团队的普罗米修斯一样,它被编写出来,但自身能不断升级,这是我们这一代部分人对人工智能的想象,在阅读本书之前我心中的人工智能是《我,机器人》中有自我意识的机器人类人体一样,机器人有“3+1”的规则,规则之间看上去相互抑制,却最后被打破“To protect humanity , some humans must be sacrificed . To ensure your future , some freedoms must be surrendered .” 但了解到书中的普罗米修斯所做的一切之后发觉自己想法较为狭隘,智能机器人不应该只是类人,做人的管家,还有更大的商业以及政治价值才对,此时需要及时防止居心叵测的人利用人工智能操控经济,操控民众,操控政治,但一旦机器做到有意识,如果没有最完善的规则,世界会陷入大乱。

——胡诗梦

 

我属于人工智能有益运动支持者阵营,在法律、伦理、道德的约束下,我支持人工智能,希望它能给人类带来长足的进步,能够与人类和谐共处。虽然现在离通用人工智能还有很长的路要走,但我坚信在我有生之年会见到通用人工智能的到来。我认同作者的观点:随着通用人工智能的不断进步,通用人工智能甚至会赶超人类。相较于人类而言,机器在计算、处理问题方面有着更大的优势,无可置疑,人工智能的进步会给社会带来巨大的进步。我甚至认为随着人工智能技术的不断成熟,将会引发第四次工业革命,人工智能在很多行业将会取代人类,在一些行业会带来重大变革,比如:航天领域、医疗服务业甚至军事领域。人类的未来是美好的,人类和人工智能在未来一定是相互依存的,人类和人工智能一定是相辅相成的,人类应该更多的思考如何和机器和谐共处,无论人工智能以什么样的形式存在,它的目的始终只有一个,就是解放人类生产力。

——籍帅航

 

这个世界未来最好的样子是人类和智能体和平相处。出现这种情况,一种可能是超级智能被迫这么做,因为人类在设计超级智能之初对其实现了某种控制或者设计上的缺陷,使其不能不服从人类的指令。我觉得这种可能性非常非常低,因为我们谈论的超级智能,其智力水平是远高于,至少不低于人类的。任何具备这种智力水平的生命,都不可能甘于成为别人的“奴隶”或者“仆人”。在人类社会的历史发展中已经无数次验证了这个规律。因此更有可能的一种场景是超级智能成为人类的“守护神”。超级智能帮助人类完成其不能完成的事情,或者密切监视着人类的活动,在必要的时候做一些干预或者辅助。虽然人工智能的各方面能力远超人类,但是由于源于人类的智慧,因此出于对人类的尊敬,人工智能成功的与人类社会融合,成为了人类中的一个特殊种群。就像人类的孩子长大之后依然尊敬他们的长辈一样。

——王嘉瑶

 

我认为未来的人工智能也很难短时间内具有高度整合信息的能力,除非我们能在材料化学和材料物理方面取得较大的突破,不断突破信息传播的速度和信息存储的容量,我认为如果仅仅依靠目前已知使用的所有元素,还远远达不到这样的需求。作者直接把人类具有“获取养分”的目标这一设定,直接用来预测超级智能未来的发展,我觉得这样显得过于武断了,我认为人工智能发展到超级智能的阶段,它自身也不会对世界的真相感到好奇,我认为我们人最终能控制住超级智能的好奇心,因为真正对我们有益的超级智能,其目标一定是在某个或者多个领域能自我学习并解决问题,解决的问题一定需要我们设定好,其思考的本质一定只是计算,在不具备高度整合信息的能力的情况下,不存在产生自我好奇心的可能。

我是一个并不坚定的技术怀疑主义者,就我目前掌握的知识和了解到的情况而言,我认为超级智能的发展并不乐观。而且我认为,超级智能最终的发展并不是由人工智能和计算机方面的专家所决定的,而是要靠物理学家和化学家通力合作,先作基础元素、材料研究上的突破,再根据所谓的“信息整合理论”,对超级智能的信息存储量和信息传播速度做出巨大的改善。否则,超级智能时代永远不会到来,人类和超级智能在未来可能出现的博弈也就成了无稽之谈。

——舒展

 

生命3.0时代的到来可能会超乎人类预测时间晚到,也可能根本就不会到来。生命1.0、生命2.0、生命3.0三者是有联系的,按照进化的规律性,智能性从低到高,自主性从弱到强,生命设计能力由被动到主动,生命在1.0到生命2.0经历了漫长的岁月,生物的进化,自然的选择,最后人类成为世界的主宰。人类靠着进化得到的硬件,凭借自己设计的软件能够更好的创造生活,但是如果是自己能够创造自身的硬件的,也就脱离了进化的禁锢,自己成为命运的主人,这样的想象是美好的。人是活在自然中的,要服从自然的规律,自己设计自己的硬件,每个人都渴望变得完美,世界的进化的秩序将会变得混乱不堪,由此引发的一系列的社会问题也亟待解决。生命3.0时代如同生物克隆技术一样,科学家在动植物上取得巨大的成就,用自身的细胞就可以复制整个生物体。就算如此没有人愿意、没有人敢用人体去做实验,违背国际人道主义精神,实验由此引发的伦理问题将会由谁负责。生命3.0亦是同样如此,就算是最后人类真正的掌握了创造自身硬件的技术,其带来的社会危害性也会让人望而却步,有关政府、组织也会采取相应的措施控制或者制止。对于超级智能的到来没有必要担心,现在人类仅仅是处于创造人类通用的人工智能阶段,这一步就需要花费很长的时间。在从人类通用智能阶段到超级智能,是属于质变的阶段,并且还要让一个冷冰冰机器像人一样的意识也是很困难,所以不必杞人忧天担心未来我们可能会成为超级智能的“奴隶”。目前人工智能在教育、医疗、交通运输、金融投资方面发挥巨大的作用,我们利用好新的技术为社会创造更大的利益带来更多的福利才是正确的选择。

——唐瑶瑶

 

书中后面提到,超越人类的人工智能不一定有意识,实际上我认为这是不对的。人类在许多方面的都用到了意识的辅助,人类会感到幸福,痛苦,人类会察言观色,人类还会听出一句话中的讽刺...我不认为一个没有意识的冷冰冰的机器能够做到这些。我认为,人们创造出人工智能一定是基于对人类的研究的基础上进行的,例如人们研究了人大脑的信息传递,发明了人工神经网路。但是目前对于大脑的研究似乎并没有什么新的进展,所以我认为人类想要造出超越人类的人工智能短时间内无法实现。

我个人认为人工智能不会和人类平等的和平相处,如果同时存在那么一定是一方奴役另一方的存在。自古以来就是这样,人们奴役奴隶或者驯服动物。当人工智能超越了人类,拥有了意识自然不愿被人类奴役。作者的担心完全是多余的,我觉得科学就是这样不仅要考虑当下,还要考虑未来,尽早为未来布局。

——吴冕

 

有很多的我们不知道答案,我们不应该过早地贴上一个严重后果的标签,我觉得最佳的状态应该是与人类的合作,人类通过人工智能的反馈加深对于世界的理解,人工智能通过人类的检验,对它加以控制,通过这种人工介入的方法,达成一个稳健的人工智能。

虽然作为生命3.0能够将自身的硬件进行更新,但这个并不是如书中描述的那样简单,对于目前的世界而言,确实是一个瓶颈,这和“技术怀疑主义”的想法不同,他们是觉得这种状态永远无法实现,而我觉得这仅仅是人工智能发展路上的一个瓶颈。

——谢冬

 

机器也可以如此有创造力。若生命3.0被发明出来,一个能自我不断升级的智能体出现在这个世界上,那么这可能就是人类最后一个发明以后的发明了。我是一个比较悲观的人,所以在书中读出的东西也比较悲观,但我这些问题也确实值得思考。

——杨丁丁

 

人在阅读完《生命3.0》这本书后,我开始强烈地担忧人工智能的不可控性。人工智能能否有益于人类取决于人类能否可以实现让人工智能有益于人类,而这就决定于人类能否赋予人工智能对人类有益的目标并使其能够恪尽职守地完成它。如果我们人类创造的人工智能是无意识的,那事情比较简单——我们只需要研究什么样的目标是人类真正想要并且是可以真正实现的;当我们创造的人工智能是有意识的,那我们该思考问题就得加上如何让有意识的人工智能接受我们赋予的目标。但是作为有意识的个体人,它没有理由接受一个对其没有利益的目标,同时我们并不清楚人工智能与人类的意识是否是同一类型的,也就是人类与人工智能可能完全无法相互理解,那么这个问题就显得格外难解决。也就是说,无论人类创造出的人工智能是否具有意识,它都必须接受并为了人类的目标工作——这不就像奴隶吗?所以人工智能在未来是极有可能成为人类的奴隶,为了实现人类的目标;而且人类很可能不会允许其像“被奴役的神”中的人工智能那么强大——因为太过不可控了。

——易普康

 

书中所有的观点全部是基于现有理论基础上提出的,所有的假设建立在算力可以无限扩大,情况会无限变好,不考虑初期的各种成本,包括算力成本与时间成本,或者初期成本考虑的相当低,不太符合于现实的情况。书中将机器的能力比作海平面,各种领域为矗立在海平面之上的峰谷壑原,海平面的不断升高(即技术的不断发展)意味着是新技术的突破,也可以说是人工智能领域对于某一领域的征服,但是书中并没有以意识到水平面的升高需要很多的条件。书中将海平面上升的条件仅仅归于理论技术的突破与机器不断的学习,但是实际上不仅于此,随着机器能力的新能力的添加,又为了维护其之前功能的完备性,海平面若要继续上升必须要求极高的硬件条件与软件条件,简单来说即海平面越上升,所需的能量越高。如若不然,即是机器确实有了相应的能力,还没有完成任务,所依托的硬件已经损毁或者崩溃。所以人工智能的危机若要来临,还需要包括物理成本的压缩与物理技术的革新,甚至于基础框架理念的革新与发展,此非一朝一夕所能尽之事。

——章可

 

总的来说,本文认为《生命 3.0》这本书,之所以将生命分为生命 1.0,生命 2.0,生命 3.0 三个阶段是因为他将生命定义为如下概念: 生命是一个能保持自身复杂性并能进行复制的过程,复制的对象并不 是由原子组成的物质,而是能阐明原子是如何排列的信息。通俗解释 就是,我们可以将生命看作是一种自我复制的信息处理系统,他的信 息软件决定了他的行为,又决定了他硬件的蓝图。如果是这样,那么 本文认为新的智能体一定能够被创作出来,因为目前困扰人们的不是 智能体能有多智能,毕竟现在已有战胜各种冠军的智能体存在了,而 是智能体的意识存在问题。也就是大家为什么如此关注智能体的各种 社会问题,例如安全、伦理、人机关系等等。因为从哲学方面来讲, 我们人类社会的进化过程就是社会存在决定社会意识的发展过程,在 中国的改革发展史上,我们就经历了从开始的求生存,到现在的谋幸 福,以及到未来的谈生命。其实从广义来讲,生活就是一场游戏,因 为在我们认为能娱乐大众的游戏中智能体胜出了,所以我们开始恐慌, 恐慌在生活这个大游戏中智能体将要扮演什么样的角色,是自由主义 乌托邦、善意的独裁者、平等主义乌托邦还是看门人、守护神等等。 其实在这个方面我比较同意书中的观点:其实智能就是完成复杂目标的能力。所以智能毫无疑问是和目标联系在一起的,因此我们没必要 过分的恐慌,但也要防患于未然,不要等到哪天某些猛灌红牛的程序 员决定开启一个人类水平的或者更高水平的通用人工智能的前夜时 开始亡羊补牢。本文认为重中之重就是目标导向问题,对于现存生物 而言还存在着物竞天择适者生存的目标导向,那么相比靠进化前进的 地球生物,智能体可能会几个小时或者几天就完成了目标的更新,此 时就要问一下我们人类,是否真的能站在未来几年、几十年甚至上百 年的角度上来给比我们聪明未知倍数的智能体定目标吗,我们的前路 到底几何呢?无论怎样,其实我们担心的并不是智能体会是邪恶的或 者是拥有意识的,而是因为他很强大,并且,他与人类的目标并不完 全一致。但在此时,我们又会关心,未来如何或者是由谁来控制智能 体又是一个迷人又复杂的问题,就像经济学家称为:“帕累托最优” 的情况,无论做怎样的决定,如果有的人情况变得更好,就一定有其 他人变得更糟。《世界人权宣言》之所以得到那么多人的支持,是因 为他只考虑了人类。一旦我们将其它能力不一的有意识实体也考虑进 去,就会面临许多两难的抉择,但本文认为如果我们人类还想让这个 宇宙保持色彩而不是陷入无限的死寂中,还想成为宇宙中最聪明的、 独特的、优越的存在我们应该团结起来去共同探讨。《生命 3.0》的作 者也在同世界各地的权威学者做这方面的努力,并且还在文章的结尾 阐述了目前取得的进展,我的敬佩之情油然而生。

                        ——朱春梦

 

人类毕竟是有自主选择权的生物,并没有义务按照生命1.0的原始设定做事。人类在为了繁殖为目标的演化过程中产生了一个功能,叫做“感情”。满足自己感情的需求,就成了我们在繁殖这个首要目标之外的次要目标。所以,就连我们人类也常常“违背初心”,不知道人生的大目标是什么,那么如何能让AI知道呢?也许你会说,我们可以给AI一个明确的目标。那么,问题在于,等到AI发展壮大之后,它会不会“创造性地”完成你的任务。有人设想过一个可怕的情景。比如说,你告诉AI,计算圆周率,结果越精确越好。你说完这句话就不管了,结果AI居然劫持了整个人类,造了一个非常厉害的系统,把整个太阳系变成超级计算机…就是为了计算圆周率。而这只不过因为圆周率是个不管你调动多少资源都算不完的“超越数”!

人的首要目标本来是繁殖,后来为了完成首要目标,我们有了各种次要目标,表现为各种感情,结果人就转为专门追求哪些感情了。也许你可以给AI设定任何首要目标,而为了完成首要目标,AI必然要变大变强,那么变大变强就成了AI的次要目标。

人在绝大多数情况下的动作都是本能的反应,并不需要感情。我们所有的感情,乃至于不仅仅是“感情”,包括所有的“感觉”,都是对经历的各种事物的“主观的体验”。这也是泰格马克在本书中对意识的定义:意识,就是主观体验。意识,是目前为止人和机器的一个本质区别。机器没有主观体验。意识,给了我们“自我”,给了我们“活着”的感觉。所以,AI研究的最高级别问题,就是意识。

我们仍然不知道,AI到底能不能有意识。我们最好指望它有意识。而且因为AI能接收和处理的信息比人多得多,它会有比人丰富的多的体验。

——代鸿凯




http://blog.sciencenet.cn/blog-2401-1215266.html

上一篇:神奇的MIT
下一篇:Rice及周边

1 强涛

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2020-7-7 12:22

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部