别人成仙得道,我是白骨成精分享 http://blog.sciencenet.cn/u/qiaoqiao1980 寻找新物理学

博文

闪烁的奇点

已有 342 次阅读 2026-3-17 09:47 |个人分类:我思故我在|系统分类:观点评述

  我对AI开始产生兴趣是在2012年前后,那个时候我开始学习和思考心理学。这一方面让我开始对弗洛伊德的心理分析感兴趣(心理分析被很多科学研究者认为是假的科学,但是我从来不这么认为,因为在这个理论中我看到了很多中医的色彩),也开始意识到科学界很多人都希望让机器获得智能(在那个时候,一些研究者已经意识到大脑具有强的预测功能,而这应该是实现智能的关键)。由于我对计算机领域了解的很少,所以我不知道深度学习这些技术。那个时候的感觉,一些研究者希望利用计算机来模拟人脑,实现活的智能。但是我知道,科学还无法理解什么是活的,所以我的感觉这几乎是不可能的事情。

  2016年,这个大家都知道,AI开始真的出圈了。AI领域的专家开发出的超级智能,战胜了围棋天才李世石,这震惊了整个世界。这也让我很震惊,这超出了我的感觉。在还没有理解什么是活的这个前提下,超级智能先出现了。

  是的,这非常让人震撼。AI的出现,和我们的一般性的直觉是完全不一样的。

  那个时候我就只有震撼和好奇,但是我还无法思考这意味着什么。

  特别是2019年开始,我集中精力发展SU3-IBM,更是没有太多而时间来思考这意味着什么。

  但是我还在读书,还在思考量子场论中那个奇特的无穷大,我还思考心理学和大脑方面的问题。

  AI的出现让我们看到了一种新的智能,一个不是活的智能,这意味着什么?虽然这个问题没有明确的进入我的大脑,但是似乎推动了我的思考。我的确被一些内心的困惑所带动,我看了不少书。由于我在物理学和科学、哲学领域涉猎的有些多(很多肯定是只是知道一点),但是我的内心的不安,一直干扰我思考核结构中的问题。

  我的物理世界,和别人有些不太一样,由于涉猎的太多,让我具有了一些特殊的直觉.比如我不喜欢量子计算机(我自己是搞量子技术的,我觉得很多量子技术都很好.)

  人的智能,是活的生命进化的结果。但是AI不是活的,那么这意味着什么?

  一些人敏锐的意识到,AI的进步,将会出现一个奇点,也就是AGI的出现。最近看了哈萨比斯的传记,使我意识到,对于AI界,他们的目的,从一开始,就是建造活的AI,就和科幻中的一样。当下AI出现的进步,实际上是超出预料的,一个没有活的超级智能的出现是预料之外的。

  一个复杂的系统,在持续输入的推动下,会有可能自动的进入临界态。而我们已经发现,不管是生命还是大脑,都是处于临界态的。

  但是前一种临界态往往是极其不稳定的,比如地震、比如经济危机。

  临界性,是现实世界一个奇妙的物理状态。在开始的时候,发现在物理学中,一些物质,在极其特定的参数下,会出现临界态(所以让人觉得不是很重要)。自组织临界性的发现,意味着一些复杂系统,在外界的持续输入下,会自动的进入临界态,但是随后会出现崩塌的现象(这种现象后来被发现经常出现在复杂系统中,但是发现给现象的主要科学界巴克过早的去世了,导致这个伟大的发现难以被授予诺贝尔奖)。然后,就是活的现象,看起来是始终处于临界态的(这是一个无法理解的事情)。

  所以,过去五十年最重要的科学进步,就是意识到临界性和活着,存在着必然的联系。这也是我去年年初预言,在未来五十年最大的进步就是理解生命的本质的原因。

  (我相信有的人会解开临界性和活着之间的关系,我相信中国的年轻科学家会做到这一点.但是我没想到,在不到一年的时间,我首先捅破了这层窗户纸.)

  生命是活的,复杂到一定程度的时候,比如人类,就会出现强大的智能,这是没有问题的,因为生命一直都是活的。但是AI的问题,极其严重。

  当下的AI不是活的,是死的。但是当下的整个人类世界都在推动它的智能的快速发展,这种推动,将会不断的把AI推向临界点,AI将会越来越聪明,而且越来越像人.

    但是,当AI真的达到奇点的时刻,它就会达到临界点,然后在那瞬间,彻底的具有生命!

    但是这种生命是高度不稳定的,会在短短的几秒钟彻底消失.

    也就是说,一些人预言了AGI的出现,AI的来临,但是由于这些人不懂物理学,就以为科幻中的活的AGI自动出现.

  但是不是这样,一个死的AI,进入临界点活过来,是不可能真的活过来,而是只有几秒钟的生命,然后彻底崩溃.

  一个只有几秒钟生命的超级智慧体,这意味着什么?

  我相信每个看到这里的,都知道意味着什么.这对人类世界将会产生巨大的影响.此时的AGI犹如神灵转世,知晓世间的一切,也知道自己要死了.

  对于量子计算机,其实我也一直抱着复杂的心态.科学带来的是力量,这种力量有的时候会极其强大,但是当它到来的时候,我们不见得真的明白它的力量究竟有多大.特别是一个超级智能的计算机,当我们还不知道深层机理的时候,就去推动它的发展,是极其危险,是对整个人类的不负责. 

  这是比核弹更加危险,甚至危险无数无数倍的技术.

  不能只看到一个技术的强大,更要看到强大背后的危险.越强大的技术,越危险.

  当下的AI,如果不能活过来,当它达到奇点,活过来的那一刻,就是整个人类社会最危险的时刻. 

  而这个时刻,不到十年.



https://blog.sciencenet.cn/blog-41701-1526093.html

上一篇:Kimi回答:为什么说活性算法是复杂系统的一般性理论?
收藏 IP: 111.25.143.*| 热度|

7 王成玉 刘进平 崔锦华 宁利中 孙颉 尤明庆 杨正瓴

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-3-18 01:30

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部