twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

从计算到人类知识:ChatGPT与智能演化 精选

已有 5021 次阅读 2023-8-7 06:42 |个人分类:2023|系统分类:科研笔记

引  言

智能是自然界演化出来的结果,而人工智能则是人类创造的产物。随着人工智能的不断进步,尤其是近期ChatGPT的开放,我们发现人工智能的智能水平似乎已经达到了非常高的水平。然而,对于自然界中生物来说很简单的行为,人工智能仍然无法轻易实现。虽然人工智能系统已经可以完成许多即使人类也无法胜任的任务,但我们仍不能否认其难以达到通用人工智能的水平,仍存在相当大的差距。只有当人工智能系统的通用性得到显著提高后,其改造世界的能力才能被充分释放。因此,提升人工智能系统的通用性是我们追求的目标。本文将深入探讨智能的演化过程以及ChatGPT对此的贡献,并分析当前我们所处的位置以及未来的长期发展方向。

1  自然智能的演化过程

1.1  自我复制能力:生命的诞生

为了更深入地理解“智能”,我们需要还原自然界中智能的诞生过程,以更好地了解人工智能对于智能演化过程的模仿、干预和影响。

如果我们想象当前世界中没有任何生物,那么生命的产生会是怎样的呢?从对自然界的观察中,我们了解到宇宙中生命形式十分稀有,只有极少数的星球可能存在适合生命存活的环境。这本质上是自然界的一种筛选,因为宇宙中有无数的天体都在物质的演变中发生着变化,但只有适合生命存在的环境才更有可能诞生出稳定存在且能自我复制的“生命”系统。即使是在漫长的进化过程中,自然环境仍然是生命产生的第一个重要筛选器。即万事万物皆在演化,生命诞生的第一个大筛选器即是自然环境。

假设当前的自然环境通过了第一个大筛选器,已经出现了简单的生命形式,例如就像LUCAThe Last Universal Common Ancestor)假说中从海底喷发出的具有高浓度核苷酸的热泉中形成的只会自我复制的生命体,又该如何演化出更加复杂的生命结构呢?首先需要明确的一点是生命本身没有一个预先定义的理由要去变得更加的复杂。即便能够自我复制,在初期的生命体必定还存在着诸多不稳定的因素,会产生诸多的变化,从而复制出的不同个体之间一定有所差异,导致它们在环境中的生存能力不同。而环境筛选出功能更加完善的生命个体,同时个体的结构逐渐变得更加复杂是生命体完善功能所必需的一个条件。生命体在自我复制中演化,自然环境持续性的筛选改变了最终生命体的形态。例如LUCA可能慢慢演化成了更加稳定的DNA结构,并通过蛋白质来实现其功能,不仅支持了其能够更加稳定的存在,同时也使得其环境适应能力增强,从而可能在差异性更大空间范围更远的范围生存。

这个阶段,生命的演化路径从简单的自我复制开始,生命体会通过基因变异和自然选择逐步演化出更加复杂的生命结构。在不断的演化过程中,生命体会逐渐适应其所处的环境,提高生存能力。例如,在早期的生命体中,可能存在一些原始的代谢途径,但在不断的演化中,更加高效的代谢途径会得到优先选择,从而提高了生命体的代谢能力和生存适应性。同时,生命体可能会逐渐发展出更为复杂的细胞结构以适应不同的环境需求。此外,生命进化还受到一系列的外部因素的影响,包括能源、气候、物理环境等,这些因素也会对生命进化方向产生影响。通过不断的适应和演化,生命体最终演化成了多样化的形态,从而提升了生命体在复杂环境中的适应性和生存能力。

1.2  智能初步产生:低级群体智能

人类在很不适应的环境中尚且无法生存,可以想象到起初无法控制自身运动方向的简单生命,当被水流带到陌生环境时,大部分个体将因为无法适应新的环境而死亡。而少量个体因为演化出的一些功能得以生存,最终演化的差异将不断累积。而对于生命的整体来说,它们实际上是通过大量个体的牺牲来完成了群体的进化和对环境的适应。最终的结果是,存在着生命的自然环境的范围不断扩大,生命体的环境适应性也愈发的强。生命和环境就在这样的循环中不断演化[1]。

随着生命体结构的逐渐完善和复杂,我们会发现,它们似乎不再像原来那样只会简单地复制自身,而是发展出了一些高级的功能,例如可以帮助自身移动和摄入营养物质的鞭毛。甚至最终随着不同个体之间的相互吞噬,而组合形成了共生合作关系。实际上,此时的生命体已经初步具备了“智能”,但很明显的是其“智能”的产生和进步完全得益于自然的筛选和群体中部分个体的变化及死亡。对比人类而言,它们的“智能”还弱到可以忽略。例如人在看到前面有危险,可以通过视觉提前感知,然后避开。但我们当前所假设的简单生命体还只能通过群体去通过前方区域,然后以部分个体死亡为代价,使得剩余的个体在空间上避开危险区域而得以生存。

实际上,现在的我们都知道,避开危险区域的方法并非只能通过群体中部分个体的死亡这种低效的方式来实现,但简单的微生物可不知道这些。它们只是按部就班地在环境的筛选下不断演化,通过大量的复制、差异的积累,以及涌现来产生更加高级的功能[2]。其“智能”水平的提升速度在很长一段时间内都将没有太大变化,并且这种进化方式也注定会因为在结构愈发复杂的同时差异累积速度相对不断降低而出现“智能”提升的瓶颈。从生物考古学来看,地球演化史上确实也存在“无聊的十亿年”,在漫长的时间里生命的形式都没有出现太大的变化。其中一种对此的解释是,仅仅通过个体基因突变和环境筛选的方式,已经很难让复杂生命体快速积累出更具优势的特征。

1.3  新的差异积累方式与感知能力的升级:个体智能水平强化

如何让已经比较复杂的生命再一次提升“智能”水平提升的速度和上限呢?自然界的生命演化给出的其中一个答案是开发新的差异积累方式:将多细胞生命作为整体进行组合来积累差异(即有性生殖),而非从前仅仅通过单个个体的突变。但是如果个体不具备远距离的移动能力,那么有性生殖同样无法实现更大差异的组合效果;即便演化出远距离移动的运动能力,又非常有可能因为对环境的无法感知而在移动过程中误入无法适应的环境而死亡。另外,不具备较强感知能力的远距离移动,也会面临难以遇上异性生殖对象的问题。

大自然的神奇之处很多时候也在于:在诸多的两难困境中,生命依然演化出了解决问题的办法。随着神经细胞以及神经系统逐渐在演化中出现,并且结合新的差异积累方式,多细胞生物的感知能力和学习能力突飞猛进,上述的两难问题也迎刃而解,生物演化又进入一个“智能”水平加速提升的阶段。令人惊奇的是,这一幕也相当像我们人类在研发人工智能时因人工神经网络而产生的进步。

1.4  神经系统的成熟:知识的产生

神经系统的强大之处在于,可以不以群体中个体死亡为代价来使得其他个体得到正确结果(例如避免死亡情况下要移动的方向),而是可以通过感知、记忆和学习让个体得到正确的结果。如果我们把“在一种情境下,应当如何动作,才能得到某种结果?”这样问题的答案叫作“知识”,那么拥有神经系统的生命已经发展出了学习、存储、利用“知识”的能力。(此处是泛指的知识,并非局限于文字描述的知识。)

或许此时的神经系统学习到的更像是一种反射机制,用“知识”来描述可能会让读者觉得不适应,但实际上这里的“知识”描述的是输入到输出中间的处理过程,也类似于人工神经网络术语中的“模型”,与用文字和语言表示的“知识”在本质上是相同的,即描述输入与输出中间的处理过程(当然,文字除此之外也可仅仅为记忆的媒介)。我们猜测,现今人们所拥有的有关默会知识的能力,或许就起源于最初神经系统演化过程中在环境中对知识的学习机制。

1.5  语言与符号系统大规模应用:更高效的知识传递与高度社会化

经过数亿年的演化(真是漫长的时光),地球上已经有了非常多样化的物种,高级的动物也都演化出了非常多样的器官和系统(例如运动系统、神经系统、内分泌系统、循环系统、呼吸系统、消化系统、生殖系统等)。生命体内部运行着多个精妙的系统,同时适应外部环境需要通过个体牺牲来换取群体的学习能力的状态在大多数情况下已经不再存在了,取而代之的是个体通过感知、学习和理解知识(显性或者隐性)来躲避危险、面对和处理从未遇到过的问题。这时候高等动物的智能水平已经让人叹为观止了,不仅拥有强大的感知能力、运动能力还具备对事物的情绪反应、对事物的客观价值有所分辨的能力,同时其神经系统已经能够对非常复杂和庞大的知识进行表征。但我们更倾向于此时的情绪反应是源自环境干预以及自身比较简单的身体激素调节,而非拥有像人类般细腻而丰富的情感而其价值系统也类似于学习出的知识,不是社会性的价值决定,而是客观性或者是生理性的价值分辨。

同时即便其神经系统已经具备强大的表示能力,但不同个体之间的信息交流效率依然是比较低效的。除了属于生物本能的反应,其余大部分知识和能力依然需要一代代的长时间带领和教导才能积累和延续,并且起初这种知识传递的效率比起现在的人类而言要低很多。想想人类社会中要传递的知识有多少,再想想一只老虎在一生中所传递的知识就知道了。那人与老虎在这方面的差异是什么造成的呢?是语言。人类在进化的过程中产生了用符号去表示和记录知识的习惯,进而形成了一整套语言体系,而这些语言承载了人类所积累的知识,越来越多并且越来越丰富。人与人的交流沟通也随着语言系统的发展而增强,人的社会性也随之进一步增强。总而言之,人类这一物种逐渐走向了高效知识传递、高度社会化、高度复杂化的方向。在“智能”的整体水平上也超越了其所有的生物。

1.6  价值系统升级:高级群体智能与个体智能协同进化

生命总是在不断演化,实际上人类所走的这条演化路线也具有很多困难和问题,其中一个重要问题是:在长时的决策要求、复杂的知识体系、复杂的社会关系下,个体通过理性和推理所能考虑的可能性空间将会变得无穷无尽,同时行动动作的唯一性和正确推理结果的唯一性与之具有矛盾。即如果面对问题时要尽可能充分利用个体已有知识得出可靠决策,那么便容易因为已有知识和信息过多而陷入推理过程无法得出结论和行动。而如果不充分利用已有知识,而仅从直觉和情绪反应或者单一的原则来得出结论,那么又会容易在环境变化时,因为没有利用已有知识灵活改变而做出更多错误的选择。

或许是为了平衡上述两种矛盾,人类演化出了更为精妙的价值系统。在诸多可能中,人类可以根据自身的价值判断来决定自己的行为。价值系统比纯粹的逻辑推理更有弹性,拥有更大的行为选择空间。例如塞翁失马的例子。实际上,塞翁因为可以调整自身的价值判断,使得他的选择更多,既可以为之悲伤,也可以为之庆幸,这种机制在处理社会化的问题和自身情绪时是很有用的。一个善于体会和调整价值观的人,总是能比固守某种观点的人看到更多的可能性,同时也能比过分思考的人更早做出满意的行动。人类弹性的价值系统为人类个体在社会中生存提供了支持,使得部分人类个体总能在社会中找到一个领域或方面,长时间地提升自身在这个领域的“智能”水平,同时得益于文字系统不断将知识代代积累和传递。

2  智能理论的发展

按前文所述,人类是独有的开发了复杂的语言并记录了大量对世界认知的物种。而人类所能记录的对世界的认识是从时间、空间规律开始的,这些规律蕴含了各种力量及其关系的存在。通常情况下,事实本身往往不会直接告诉我们什么是正确的什么是错误的,没有明确的概念,量分析是毫无意义的。然而,人们在处理各种客观时空矛盾时,常常会不自觉地忽略了主观价值的关涉问题,从而造成在涉及有人或模拟人参与的系统中或力不从心或南辕北辙,鉴于此,本节将从事实与价值结合的角度重新审视人类关于“智能”理论的发展:即自动化与智能化系统的基本规律。人类的智能不是从“我”开始的,而是从“我们”开始的,即一开始就是“群体智能”,所以是“我们”创造出了“我”的概念,也是人类的群体智能孕育出了更强的个体智能。

2.1  自动化存在的问题

传统的自动化领域涉及老三论,即控制论、信息论和系统论。

1943年罗森勃吕特和维纳的哲学论文《Behaviour, purpose and teleology》[3](行动、目的和目的论)是控制论萌芽的重要标志,奠定了控制论中反馈思想的雏形,该文的中心思想是:控制行为是一个从原因到目的之间的随机试探和反复调节的曲折过程。控制论通过信息和反馈建立了工程技术与生命科学和社会科学之间的联系。控制论中的信息输入、处理、输出、反馈一般是以客观事实性数据、模型、统计为基础的,因而在科技、工程领域使用效果较好,而在涉及包含主观价值的社会、经济领域使用效果不佳。

1948年10月香农的论文《A Mathematical Theory of Communication》[4](通信的数学理论)成为现代信息论研究的开端。在该文中,香农给出了信息熵(以下简称为“熵”)的定义,这一定义可以用来推算传递经二进制编码后的原信息所需的信道带宽,熵度量的是消息中所含的信息量。实际上,信息熵的提出解决了对信息的量化度量问题,而对于(不同发出/接收者)信息质量的好坏还没有度量。

1932年L·V·贝塔朗菲发表“抗体系统论”[5],提出了系统论的思想。目前,系统论运用完整性、集中性、等级结构、终极性、逻辑同构等概念,研究适用于一切综合系统或子系统的模式、原则和规律,并力图对其结构和功能进行数学描述。对于包含人的复杂系统的处理还很不理想。

总之,对于自动化领域的老三论(控制论、信息论和系统论)而言,缺乏价值反馈、价值度量、价值体现已成为其进一步发展的瓶颈和挑战,为此,我们将尝试在人机环境系统工程中建立新三论。

2.2  智能化存在的问题

一般而言,传统的自动化系统的典型特征是具有相对确定性的输入、处理、输出和反馈,以保持整个系统的鲁棒性、稳定性和可解释性,而智能化系统的输入、处理、输出、反馈各环节相对不确定(但利己),人工智能水平则处于自动化与智能化两者之间。

当前,智能化研究主要仍以人为本进行符号、连接、行为分析与模拟,取得了不少成绩(如阿尔法系列产品),但也出现了许多困难和不足,还远远没有达到人们的期望和要求,究其因,其核心仍试图以还原论的思想破解智能的机理或应用,还没有从根本上理解智能产生的机制原理及应用的规律。

与机器智能相较而言,人类的智能向来不是孤立的,而是人物环境交互产生的。真正的智能可以计算,但单纯的计算是不能产生智能的,智能的基本逻辑是比较,而不是计算。

智能不但涉及科学、技术、数学等领域,而且涉及人文、艺术、社会等方面,准确地说,智能是复杂事物,包括西方性复杂与东方性复杂。智能里面包含着唯物和唯心,既有客观事实又有主观意识,既有机械惯性也有灵活辩证,既有因果必然还有比较自由,既有逻辑推理更有直觉感悟。把智能看成是数据、信息、知识、算法、算力等是危险的,真实的智能不但能够学习、生产、使用、维护、升级这些事物,而且可以扭曲、异化、诡诈、变易这些概念或机制机理。

智能化不是信息化、数字化、自动化的简单延伸、扩展,而是一种与后三者大不相同的新型范式,智能不仅要掌握已知的信息/学习已有的知识,更重要的是还要生成有价值的信息、知识及有效地使用协调这些信息和知识,是理性逻辑推理与感性超逻辑判断的统一。

针对当前智能化研究的上述问题,我们尝试提出结合东西方思维,从人类具身、离身、反身的态势感知角度解决智能化建模难题。

2.3  西方还原理性与东方感性系统思想的融合

把智能看成逻辑,把智能看成计算,这两个错误是制约智能理论发展的瓶颈和误区。

世界是复杂的,复杂性的世界并不都是科学和计算,而是科学与非科学、理性与感性融合的人物环境系统,智能是自然与人工的结合,准确地说,依目前的数理、物理水平,通过编写计算机程序是不可能实现人类水平的智能的,人工智能是不可能真正理解世界的,必须另辟蹊径。我们尝试根据东西方文明的特点及现有计算和认知领域成果,提出计算计模型,针对复杂、多域、动态的环境,研究人机混合下的态势感知模型,探索人-机-环境对决策的影响;进一步构建基于理性和感性混合驱动的计算计模型,实现人机混合智能决策[6];完成智能领域的理论创新、模型创新、方法创新与平台创新,为未来智能研究提供方法和理论基础。爱因斯坦曾这样描述逻辑与想象(感性)的差异:“Logic will get you from A to B,Imagination will take you everywhere”,其实,人最大的特点就是能根据特定情境把逻辑与想象、具象与抽象进行有目的的弥聚融合。这种灵活弹性的弥散聚合机制往往与任务情境紧密相关。

休谟之问是指休谟1711年在其名著《人性论》里面提出来的一个问题:从“是”(Being)中能否推出“应该”(Should)来,即从客观事实里能否推出主观价值[7]。这个问题在西方近代哲学史上占有重要地位,在他之后许多著名哲学家纷纷介入,但终未有效破解。在两千多年前的东方,孟子在《告子上》一书中就说过:是非之心,智也[8]。智能的任务就是要打开科技与、或、非门的狭隘,比如大与、小与,大或、小或,大非、小非……大是(being)、大应(should)、小是(being)、小应(should)穿透各种非家族相似性的壁垒,用未来的想象(预期)和当前的感受(如同情、共感、同理心、信任等)影响智能领域的走势。

智能系统中的算计就是人类没有数学模型的计算,智能计算中的“与或非”逻辑,大家比较熟悉了,就不再赘述;算计中的逻辑不妨称之为“是非应”,其中,“是”偏同化,“非”侧顺应,“应”为平衡,当遇到未知问题时,先用“是”,再用“非”,后用“应”。大是大非时,大是不动,先试小非,再试中非,若不行,大非不动,先试小是,再试中是,这些试的过程就是“中”的平衡。“应”就是不断尝试、调整、平衡。以上就是计算与算计结合的新逻辑体系,算计逻辑把握价值情感方向,计算逻辑细化事实理性过程。智能走向未来,没有新逻辑出现或许就会没有灵魂。

智能的核心问题为“是不是”+“该不该”+“好不好”的混杂组合问题。其中,“是不是”属于客观事实性逻辑计算问题,“该不该”属于主观价值性判定算计问题,“好不好”属于主客观混合性决策计算计问题。当前大家思考智能大都处在做“是不是”(0、1)的逻辑可计算部分,对于主观价值的可判定性及两者的混合计算-算计(计算计)还未有好办法解决。

西方现代物理学有两大支柱理论。一是爱因斯坦的相对论,它从大尺度上解释了宇宙自身的膨胀现象,为其提供了理论框架。二是量子力学,它从小尺度上为分子、原子,以及比原子更小的粒子(比如电子和夸克)的存在性提供了理论框架。量子力学是由许多科学家,包括普朗克、海森堡、波尔、薛定谔等人共同提出。但这两个理论却有一个共同之处,就是都是通过算计而产生计算体系,还有大家熟知的数学四次危机及其化解也是如此吧。

东方智慧既有数学的成分也有非数学的成分,东方智慧不是单纯的智能计算,而是智能化,重点在“化”,即算计。算计是人类带有动因的理性与感性的混合盘算,是已有逻辑形式与未知逻辑形式的融合筹划。比如毛主席指挥打仗,在战略(算计)上从不犯错,不会在敌人(算计)选择的时间、敌人选择的地点,以敌人希望的方式开战。

元是认知之始的元素。一元为being,多元为should,除了多元之外,还有变元,随机应变的元。多元认知是如何形成一元认知的?即人们是如何把多种逻辑压入一次逻辑推理过程中的呢?这是智能领域的研究关键,也是未来科幻需要破解的难题!随之会衍生出这样一些问题:人们是如何把多种态、势压入智能系统中的态、势、感、知过程中的呢?人们是如何把多种科学事实计算压入一次智能系统计算计过程中的呢?

在西方科技发展的历史长河中,第一次数学危机称为毕达哥拉斯悖论(信奉“万物皆数”的信条,号称任何线段长度都可表示为两个自然数之比,毕达哥拉斯悖论是希帕索斯发现的,他发现了直角边长为1的等腰直角三角形斜边长度不是自然数之比);第二次数学危机称为贝克莱悖论(1734年由爱尔兰主教贝克莱提出:在牛顿和莱布尼茨求导数过程中,dx 既是0又不是0,这就是贝克莱悖论);第三次数学危机称为罗素悖论(集合R本身既是R的元素,又不是 R的元素)。

这三次危机的一致性在于“是”与“不是”的悖论,与量子物理的“猫”一样,与文学的“to be or not to be”相似,与东方思想中的“是非之心”相关,与经济行为中的“A与非A”异曲同工。“是”与“不是”即为一元,其相互间的转化即为变元,其衍生出的“应”即为多元。如A是一元,A转化为B是变元,A应为B或C或D……为多元。逻辑压缩、人与隐形系统、计算-算计(计算计)依然成为未来科幻领域的研究重点和难点。计算涉及事实性人机环境系统(事图)问题,算计则更多涉及价值性人机环境系统(意图)问题,而事实与价值常常会出现不一致甚至是矛盾,计算计就是各种事实、价值的混合性人机环境系统问题,而且不同粒度的计算计模型是不同的。如果说计算中含有贝叶斯(结论随新数据的输入而改变),那么算计就涉及锚定论(结论很难随着新数据的输入而改变),智能领域也许就是一个典型的科技与艺术的计算计案例。

算计是人类不借助机器的跨域多源异构系统的复杂“计算”过程。在某种意义或程度上,算计就是观演一体化、“存算一体化”这两个“神经形态”过程的交互平衡,观(存)就是拉大尺度或颗粒的非实时top-down过程,演(算)就是小尺度细颗粒实时bottom-up过程。

从东方角度而言,人机混合智能是观演同在的技艺术(艺术+技术)形式,它至少包含三层意思。第一层,人机混合必须是(人主)艺术的,但又不是真实艺术的,它是用(机器)技术语言再创造出的智能,它是艺术意念的技术化;第二层,创造出艺术性的目的,是要呈现智能的美;而这个智能的美,就蕴藏着人机智能的第三层意思:人机混合智能是人的艺术与机器技术的混合,它是观演同在的技艺术。因而,人机混合智能在观演关系中生成带有主观性、想象性的美,以及虚实相生、无中生有的真。

如何把算计嵌入多源异构计算的弥(散)聚(合)中去?如何实现不同颗粒度中(状)态的积分、(趋)势的微分、感(觉)的连续、知(觉)的离散呢?计算能够解决不少“态”的可计算问题,而要真正解决“势”的可判定问题则需要人类的算计。例如查尔斯·达尔文在用自然选择阐述他的进化论时,根本就没用到数学。同样,当阿尔弗雷德·魏格纳首次描述板块漂移理论时,也只是用语言表述的。当然,索维尔所言“理解人类的局限性,是智慧的开端”不无道理,未来新型人机关系最重要的是重构与合作,即随态/势的变化而重构感/知、随感/知的变化而重构态/势,二者由单纯被动的工具使用变为自主积极的合作关系。

数学本身就是一种虚实相间的元宇宙,点线面体都是非真实存在的虚拟概念,大家却用它来近似描述物理世界。从数到图(空间)、力(时间)、能(量)、信息(客观)、智(能),数学模型与物理世界的关系,如同形式逻辑模型与真实世界事物的关系一样,是理想符号关系对事实关系的描摹、刻画,这些“非存在的有”表征主要为三类,一是孙悟空、圣诞老人等想象类(虚拟量),二是爷爷奶奶等逝去先人真实类(物理量),三是艺术处理后的诸葛亮、维特根斯坦等真实想象混合类(加工量)。

自然科学及数学工具本质上是一种主体悬置的态势感知体系,人文艺术常常是一种主体高度参与的态势感知体系,博弈智能涉及了这两方面,由于主体的实时参与,所以更侧重人文艺术方面。

彭罗斯从歌德尔不完备定理发展了自己的理论,认为人脑有超出公理和正式系统的能力。他在《皇帝新脑》中提出,大脑有某种不依赖于计算法则的额外功能,这是一种非计算过程,不受计算法则驱动;而算法却是大部分物理学的基本属性,计算机必须受计算法则的驱动。对于非计算过程,量子波在某个位置的坍塌,决定了位置的随机选择。波函数塌缩的随机性,不受算法的限制。

人脑与电脑的根本差别,可能是量子力学不确定性和复杂非线性系统的混沌作用共同造成的。人脑包含了非确定性的自然形成的神经网络系统,具有电脑不具备的“直觉”,正是这种系统的“模糊”处理能力和效率极高的表现。而传统的图灵机则是确定性的串行处理系统,虽然也可以模拟这样的“模糊”处理,但是效率太低下了。而正在研究中的量子计算机和计算机神经网络系统才真正有希望解决这样的问题,达到人脑的能力。

彭罗斯认为,客观还原所代表的既不是随机,也不是大部分物理所依赖的算法过程,而是非计算的,受时空几何基本层面的影响,在此之上产生了计算和意识。非存在的有表现为三类,一是孙悟空、圣诞老人等想象类,二是爷爷奶奶等逝去先人真实类,三是艺术加工后的诸葛亮、维特根斯坦等真实想象混合类。

爱因斯坦所说的“时间和空间是人们认知的一种错觉”,即时间和空间只是人们对于事物发展顺序和物体间相互关系的一种抽象概念,在人们从日常经验总结出的观念中,时间和空间是绝对的、可度量的,而相对论揭示出时空的相对性和二者间的联系。我们认为不变的时间和空间都会随物体的运动、物质能量的分布而变化。

在态势感知中,态涉及物理、心理、管理等参数状态(主态、客态),势是有效态的变化方向,感是接受的各种数据刺激,知是建立起的各种联系。用态势的转化比值“态/势”确定有效态的大小,有效态变化的速度很重要。态势感知涉及计算-算计系统。事实态不能产生势,价值态能够产生势。如何快速识别出或尝试出价值态将变得十分关键,价值态有经验方面的,有情感方面的,有测试方面的,也有对环境认知方面的。

数理的物理域、心理的认知域、管理的信息域、情理的社会域中的时间空间同样会发生各种变化,我们不妨称之为基于事实-价值体系的虚拟-现实时空态势感知维度。共分为现实时空的xyzt+虚拟时空的xyzt+事实时空xzyt+价值时空xyzt,抑或它们之间的各种组合及参照系变换(如虚拟价值时空、现实事实时空、虚拟事实时空、现实价值时空)。

不同维度里的态、势、感、知不尽相同,所以常常会发生虚拟时空维度里的态对不准现实时空维度的势(如想象情景与实践情境不一致),事实时空维度里的态对不准价值时空维度的势(如物理场景与任务意图不一致),所以常常出现各种有“态”无“势”现象。

智能是在人与物、环境的交互中逐步形成的,一方面,我们的认知总是在与这个世界发生着融合;另一方面,被误用的计算却也可能会影响我们的认知。1968年图灵奖获得者理查德·哈明就曾一语中的地认识到:“计算的目的不在于数据,而在于洞察事物。”这里的洞察就包含着对未来的预测与算计。人类的洞察机制不是一维的具身认知,还常常涉及二维的离身认知、三维(以上)的反身认知及其混合认知机理。

3  ChatGPT的智能水平探讨

众所周知,ChatGPT是基于GPT-3模型的聊天机器人。GPT-3是OpenAI公司开发的一种自然语言处理模型,具有极强的语言生成能力和上下文感知能力。使用GPT-3模型作为其核心技术的ChatGPT,可以完成智能对话、问答等任务。可是它相比于从前的自然语言对话系统,究竟发生了什么变化?以至于如今在市面上备受欢迎,并且被诸多学者和各界人士给予厚望,认为其能够改变世界。

3.1  人类知识的模型化

ChatGPT从技术的角度讲,其实就是一个具有庞大参数的深度神经网络模型[9]。但是其强大之处在于实现了将人类记录在文字中的海量知识通过训练的方式输入了它的模型网络。原本这些文字记录本身就存在,并且我们可以通过搜索引擎进行高效检索,那为什么还要对知识进行模型化呢?

因为人类追求的人工智能是通用智能体,而通用智能体就势必需要面临它不曾见过的情景,即需要具备一定的泛化能力。但是记忆与检索的方式无法实现泛化,而神经网络模型却可以。所以当我们问ChatGPT它从未见过(即与其训练数据不同)的问题时,它依然能够回答得很好,这就得益于其强大的泛化能力。甚至有研究人员经过测试,发现ChatGPT具备了一定的推理能力和认知能力,这些从大量数据训练中所涌现出的能力着实让人们吃了一惊[10]。

这些新能力在诸如客服系统、智能搜索引擎、自然语言翻译、虚拟数字人、智能机器人……方面都会有巨大的应用潜力,毫无疑问或多或少会改变我们的生活。但同时也应该认识到,对比自然智能的演化历程,ChatGPT大模型的训练方式决定了它不会像自然智能那样各方面的能力都平衡且丰富,而是仅仅在对话领域有较好的效果[11]。并且也因为采用数据训练,而非生物体亲身经历世界那样,所以它也无法分辨真实和虚假,一切全由数据和随机因素影响,但人们却会因为它回答的貌似合理而觉得可靠,这种人机信任的状态在某种程度上是非常不可靠的。

3.2  ChatGPT与自然智能的演化路径

在前文中,我们梳理了自然智能的演化过程,那么可以对比ChatGPT的产生与自然智能的演化过程有何不同。首先考察ChatGPT能否自我复制。虽然ChatGPT因为本质是运行在计算机的程序,所以其复制相当的容易,但其复制的过程本身是受到人类控制的,所以无法达成“自我复制”这个条件,也无法达成低级群体智能的演化方式(即通过自我复制过程中差异积累和部分个体死亡的方式提升群体智能水平)。值得一提的是,从ChatGPT的能力来看,其在软件层面是完全能实现“自我复制”的,因为一个程序的复制说到底就是运行一些代码进行数据拷贝的事情,这正是计算机和机器程序所擅长的。

智能体的演化需要差异的积累与环境的反馈,而自然智能还需要具备对自然环境感知能力的提升,同时自然智能是先有对自然环境的感知能力,进而才发展出语言和符号、高级的价值系统。然而,ChatGPT一开始就是由人类所产生的文本数据进行训练的,其存储于模型的知识并非来自对自然环境的感知。虽然人类很多时候学习课本知识时也是如此,但是人类能够因为长时间与自然环境进行交互,所以从课本中学习的知识也能够在与环境交互的过程中“重新”进行学习和调整。总的来说,ChatGPT目前只能与人的文字进行交互,而无法与自然环境进行交互。也就是说,ChatGPT的智能水平高本质上是因为充分吸收了人类语言与符号系统大规模应用的成果,也即吸收了人类的“智能资产”。这对于机器来说,从理论和事实上都是“智能”水平快速提升的最优解。甚至ChatGPT发展出高级的价值系统也不是不可能,但应当也只能停留在文字和语言层面。人类同时具备两种能力。能力一:从与自然环境的交互中抽象出符号化知识的能力。能力二:从符号化知识中学习到自然环境特征的能力。我们可以认为ChatGPT具备能力二并且相当强大,但它不具备对自然环境的直观感知,也无法从与自然环境的交互中总结知识,所以当前其更像是“高度智能化的人类知识库”。

如果类似于ChatGPT的智能体要朝着更通用的方向发展,势必要突破上述所说的能力一。可以猜测,通用人工智能的演化相比于自然智能的演化过程,一个关键的不同将会在于:自然智能先演化出能力一,再演化出能力二;而通用人工智能将会先演化出能力二(当前已经实现),再演化出能力一(当前还未实现)。

3.3  不足:缺乏对事实与价值的理解与判断

ChatGPT是一种基于自然语言处理技术的聊天机器人,它的回答是基于对大量文本数据的学习和训练得出的。虽然ChatGPT可以生成看似合理的回答,但它缺乏对价值和事实的判断能力。究其原因,正如上文所说,ChatGPT不具备在与自然环境的交互中抽象出符号化知识的能力。虽然其得益于训练数据的庞大以及基于人类反馈的调整而能够表现出一定的判断力,但在能力一上的缺陷还是会导致缺乏对事实的理解与判断能力。ChatGPT并没有真正理解问题或回答中所涉及的概念和知识与对应的实体关系。这是仅仅依靠能力二必定会面临的局限。因此,在使用ChatGPT时需要谨慎,特别是在涉及重要决策或事实准确性要求较高的情况下,最好还是寻求专业人士或可靠来源的建议。

观察当前学界和业界热点,可以发现关于能力二的研究正是热点,正有非常多的研究点在如火如荼地进行(例如模型性能调优、轻量化部署等),而关于能力一的研究还暂且没有眉目。我们认为,人工智能系统对事实和价值在理解与判断上的问题,需要等到能力一相关研究突破才有可能解决。

3.4  军事应用潜力

ChatGPT的出现对军事智能技术的发展可能会产生积极影响。由于ChatGPT具有强大的自然语言处理能力,因此可以用于分析和理解大量的军事情报数据,从而帮助军方做出更明智的决策。此外,ChatGPT还可以用于开发智能对话系统,使得士兵和指挥官之间的沟通更加高效和准确。但是,也需要注意到ChatGPT存在一些局限性,例如无法分辨真实和虚假信息等问题。因此,在应用时需要谨慎评估其可靠性和适用性。

ChatGPT还可以用于开发虚拟训练系统,帮助士兵和指挥官进行模拟训练和实战演练。这种虚拟训练系统可以提高军队的战斗力和应对能力,同时也可以减少实际训练的成本和风险。另外,ChatGPT还可以用于开发智能机器人,用于执行一些危险或重复性工作,从而减轻士兵的负担,甚至也有可能用于实现能独立作战的机器人。总之,ChatGPT的出现为军事智能的发展提供了非常多新的思路和可能性。

ChatGPT能为军事智能带来新的发展机会是肯定的,因其在诸多方面能媲美人类的水平从而具有很高的下限,但考虑到当前类似的大模型训练方式还没有达到其能发挥出能力的上限,所以这类大模型经过军事相关的专门优化并应用之后能提升多少战力,以及这种提升能拉开与其他军事方的实力差距,这些都还是未知的。如果这种人工智能在未来的战争中能发挥至关重要的作用,那我们应当谨防技术和应用上的落后,以及谨防此类技术带来军事上某方的强权。

3.5  发展风险

通用人工智能的实现如果需要上述两种能力,那我们已经在其中一种能力上基本达到要求了,但同时也需要思考可能会带来的风险。只实现了能力二意味着人工智能还只能与人类进行交互而无法独立地与自然环境进行交互,所以带来的风险也主要体现为对人的影响(例如对价值观、隐私、教育等的影响)[12]。同时,当人类想要控制它的时候,还是比较可控的。并且其作为人的帮手时,也有非常多的益处,可以提升人类个体的工作效率和学习效率。所以我们认为,只具备能力二的人工智能系统对人类社会而言风险性还不算太高,而能力一因为交互过程的不可控,面临的风险将会更大。

自然智能在演化过程中并非一帆风顺,而是经历了非常多的腥风血雨,有蓝藻大量繁殖导致大氧化事件而造成大量生物灭绝,有生物之间的弱肉强食,有种群间与种群内的分裂与战争……这些过程的发生,都是在生命与自然环境的交互中产生的。我们现在通过历史已经知道了这些,但在生命与环境的交互过程中,有非常多的事物是人力不可控的,我们无法预料如果机器能够与环境独立进行交互,究竟会发生什么。曾经人类所犯的错误(例如混乱、战争与屠杀)会不会在机器学到能力一时重新再犯一遍呢?人性中的弱点会不会在机器中再次复现呢?我们认为这些情况都是当机器具备能力一时才有可能出现的,但也应当提前思考。或许因为人工智能在演化过程中会先具备能力二,从而能够从人类历史中学习,所以不会像人类那样再犯错;也可能在具备能力一之后产生人类无法预料的情况。

4  总结

综上所述,本文对比自然智能的演化过程,对人工智能的发展和ChatGPT的效果进行了全面分析,并提出了当前智能化理论的不足;突出强调了提高人工智能通用性的重要性和人工智能的长远发展方向。文章还探讨了新兴的应用领域和对世界的潜在影响。

展望未来,很明显,人工智能将继续在我们的生活中扮演越来越重要的角色。随着技术的进步,我们可以期待看到更复杂的人工智能系统,它们能够处理复杂的任务,并以更高的准确性做出决策。然而,也有人担心人工智能的伦理影响,特别是在隐私和安全等领域。因此,研究人员和政策制定者必须共同努力,确保以负责任和道德的方式开发人工智能。

总的来说,尽管仍有许多挑战需要解决,但人工智能的未来看起来很有希望。随着对研究和开发的持续投资,我们期待在未来几年看到这一领域更多令人兴奋的突破。

 

参考文献References

[1]   DARWIN C. On the origin of species, 1859[M]. Routledge, 2004: 296-306.

[2]   SKOPEC R. Intelligent evolution, complexity and self-organization[J]. NeuroQuantology, 2015, 13(3). DOI: 10.14704/nq.2015.13.3.832.

[3]   CORDESCHI R. The Discovery of the Artificial: Behavior, Mind and Machines Before and Beyond Cybernetics[M]. Springer. 2002: 116-117.

[4]   SHANNON C E. A mathematical theory of communication[J]. ACM SIGMOBILE mobile computing and communications review, 2001, 5(1): 3-55.

[5]   VON BERTALANFFY L. The Theory of Open Systems in Physics and Biology[J]. Science, 1950: 23-29. DOI:10.1126/science.111.2872.23

[6] 刘伟.人机融合:超越人工智能[M].北京:清华大学出版社,2021:74-113.

[7]   HUME D. A treatise of human nature[M]. Courier Corporation, 2003: 53-55.

[8] (宋)朱熹.四书章句集注[M].北京:中华书局,2010:304-316.

[9]   DAI D, SUN Y, DONG L, et al. Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta Optimizers[J]. arXiv preprint arXiv: 2212.10559, 2022.

[10] KOSINSKI M. Theory of mind may have spontaneously emerged in large language models[J]. arXiv preprint arXiv:2302.02083, 2023.

[11] Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901.

[12]  王建磊,曹卉萌.ChatGPT 的传播特质、逻辑、范式[J].深圳大学学报(人文社科版),2023,40(2):144-152.


本文摘自《智能安全》2023年第2期



https://blog.sciencenet.cn/blog-40841-1398099.html

上一篇:人机很难“互”的主要原因:主动与被动
下一篇:你见的人工智能,为什么显得不那么聪明?
收藏 IP: 123.119.251.*| 热度|

7 许培扬 崔锦华 柳林涛 王安良 冯圣中 高峡 杨正瓴

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-23 15:01

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部