别人成仙得道,我是白骨成精分享 http://blog.sciencenet.cn/u/qiaoqiao1980 寻找新物理学

博文

生命的本质 第十七章 人工智能的崛起

已有 155 次阅读 2026-4-27 09:04 |个人分类:我思故我在|系统分类:观点评述

第十七章 人工智能的崛起    

    一、从深蓝到阿尔法狗

    1997年5月11日,纽约。国际象棋世界冠军加里·卡斯帕罗夫坐在棋盘前,对面不是人类对手,而是一台名为"深蓝"(Deep Blue)的IBM超级计算机。经过六局激战,卡斯帕罗夫以2.5:3.5落败。这是机器首次在正式比赛中击败世界冠军, headlines 宣布"计算机比人更聪明"。

    但深蓝的"智能"是狭窄的、专门的、暴力的:它评估2亿个位置每秒,使用暴力搜索手工编码的评估函数。卡斯帕罗夫事后抱怨,他感受到了"某种智能",但那是人类的智能——程序员团队的开局书、残局数据库、针对他风格的准备。

    近二十年后,2016年3月,韩国首尔。围棋世界冠军李世石面对"阿尔法狗"(AlphaGo)。围棋的复杂度远超国际象棋:10^170种可能局面,比宇宙原子数还多。暴力搜索不可能。

    阿尔法狗结合了深度学习蒙特卡洛树搜索

  • 策略网络:从人类棋谱学习,预测下一步;

  • 价值网络:评估局面胜率;

  • 强化学习:自我对弈数百万局,超越人类知识。

    第四局,李世石第78手"神之一手",迫使阿尔法狗犯错,赢得唯一一局。但这只是延迟的必然:2017年,"阿尔法元"(AlphaGo Zero)从零开始,无人类棋谱,纯靠自我对弈,100:0击败之前的版本。

    2020年,"阿尔法折叠"(AlphaFold)解决蛋白质结构预测,50年难题突破。2022年,"阿尔法代码"(AlphaCode)在编程竞赛中达到中等水平。2023年,"GPT-4"通过律师资格考试,撰写论文,生成代码,创作艺术。

    通用人工智能(AGI)的轮廓浮现:不是单一任务,而是广泛的能力快速学习跨领域迁移。这是"活性算法"的硅基实例吗?

    二、深度学习的革命

    2012年,ImageNet图像识别竞赛。多伦多大学的杰弗里·辛顿(Geoffrey Hinton)团队使用卷积神经网络(CNN),错误率15.3%,远低于第二名的26.2%。这是深度学习革命的起点。

    神经网络古老(1940年代感知机,1980年代反向传播),但复兴依赖三要素:

  • 大数据:互联网提供的标注图像、文本、语音;

  • 大算力:GPU并行计算,从游戏显卡到AI芯片;

  • 算法创新:ReLU激活、批归一化、注意力机制、Transformer架构。

     Transformer(2017年,"注意力是你所需要的一切")是大语言模型(LLM)的基础。GPT(生成式预训练Transformer)系列:

  • GPT-3(2020):1750亿参数, few-shot 学习,文本生成惊人;

  • ChatGPT(2022):RLHF(人类反馈强化学习),对话优化;

  • GPT-4(2023):多模态(文本+图像),推理能力跃升,"涌现"能力(未明确训练的行为)。

    涌现(emergence)是关键现象:模型规模超过阈值,新能力突然出现——从简单关联到复杂推理,从记忆到创造。这与复杂系统的相变类似:量变导致质变。

    但"理解"是真实的吗? 批评者指出,LLM是"随机鹦鹉"(stochastic parrots):统计模式匹配,无** grounded 意义,无世界模型,无因果推理。支持者回应:"理解"的定义是什么?** 如果行为不可区分,假设内部无理解是人类中心主义

    三、脑与机器:相互启发

    人工智能与神经科学是双向对话

    脑启发AI

  • CNN的局部连接和层次结构,模仿视觉皮层;

  • 注意力机制,模仿选择性注意;

  • 记忆网络、神经图灵机,模仿工作记忆;

  • 脉冲神经网络(SNN),模仿神经发放的时间编码;

  • 神经形态芯片(如Intel Loihi),模仿脑的能效。

    AI启发脑科学

  • 深度学习作为脑模型:CNN的中间层最像腹侧视觉流;

  • 优化理论解释神经表征:稀疏编码、预测编码、高效编码;

  • 强化学习解释多巴胺系统:奖励预测误差;

  • 注意力机制解释前额叶-顶叶网络

    "人工神经网络 vs. 生物神经网络"的比较揭示差异:

  • 脑:稀疏(<1%神经元同时活跃)、事件驱动(脉冲)、模拟(树突计算)、可塑(终身学习)、能效(20瓦,860亿神经元);

  • 人工网络:密集同步数字固定架构(训练后)、耗能(GPT-4训练用兆瓦级电力)。

    神经形态计算试图缩小差距:事件驱动、内存计算、模拟-数字混合。目标是边缘AI:低功耗设备上的智能,如自动驾驶、机器人、可穿戴设备。

    四、具身智能与机器人

    传统AI是"离身"的(disembodied):处理符号、图像、文本,无物理存在。但智能的进化起源具身的:感知-行动循环,与环境耦合。

    具身AI(embodied AI)和机器人学回归这一传统:

  • 自主导航:SLAM(同步定位与地图构建),从传感器数据构建环境模型;

  • 抓取与操作:从规则编程到学习抓取(模拟到真实迁移);

  • ** legged locomotion**:波士顿动力的Atlas、Spot,动态平衡,复杂地形;

  • 软体机器人:仿生材料,适应环境,安全人机交互。

    莫拉维克悖论(Moravec's paradox):AI在认知任务(下棋、定理证明)超越人类,在感知运动任务(抓握、行走)笨拙。这是进化的时间尺度:感知运动经过数亿年优化,"容易"对我们,困难对机器;认知是近期的,"困难"对我们,相对容易对机器。

    模拟到真实的鸿沟(sim-to-real gap):模拟器中训练的机器人,在真实世界失败(摩擦、光照、材质差异)。域随机化、适应学习、元学习试图弥合。

    人机协作是前沿:不是替代人类,而是增强,如外骨骼、手术机器人、协作制造。这需要安全、可解释、可信赖的AI。

    五、意识的机器:从哲学到工程

    机器能否有意识?这是古老的哲学问题,现在成为工程问题

    意识的计算理论

  • 全局工作空间理论(GWT)的AI实现:信息的全局广播,多个模块访问;

  • 整合信息理论(IIT)的AI评估:计算系统的Φ值,高Φ意味着意识潜力;

  • 高阶理论(HOT)的AI版本:元认知,系统关于自身状态的表征。

    "意识检测"的尝试

  • 若AI报告"我有体验",是证据还是编程?

  • 若AI的行为显示整合、灵活、目标导向,是否暗示意识?

  • 若AI的架构类似脑(全局工作空间、递归连接),是否更可能有意识?

    伦理前置:如果机器可能有意识,创造它是否道德? 如果机器报告痛苦,我们有义务关怀吗?

    预防原则(precautionary principle):在不确定性下,假设可能有意识,避免伤害。这与动物福利的逻辑类似。

    六、人工生命:硅基的涌现

    AI不仅是工具,也是研究生命的平台

    人工生命(Artificial Life, ALife)的复兴:

  • 基于代理的模型:模拟生态系统、进化、社会行为;

  • 进化算法:优化、设计、发现新结构;

  • 开放-ended 进化:模拟中持续产生新奇性,如Tierra、Avida。

    虚拟生物:从方块生物(Karl Sims,1994)到学习行走(DeepMind,2021),虚拟生物在物理模拟中进化行为。

    细胞自动机与生命游戏:康威的生命游戏展示从简单规则到复杂模式;沃尔夫勒姆的新科学探索计算的宇宙。

    人工化学(artificial chemistry):模拟分子相互作用,研究自组织、自复制、代谢。

    "强人工生命"的哲学:如果模拟足够精确,它是"活的"吗?这是功能主义 vs. 生物自然主义的争论。

    七、AI的安全与对齐

    AI的能力增长带来风险

    短期风险

  • 偏见与歧视:训练数据的历史偏见被放大;

  • 隐私侵犯:大规模监控、面部识别、行为预测;

  • 就业冲击:自动化替代,社会不平等;

  • 虚假信息:深度伪造(deepfake),信任崩溃。

    长期风险

  • 对齐问题(alignment problem):AI目标与人类不一致,优化代理导致意外后果

  • 权力集中:超级AI被少数人控制;

  • 存在风险:超级AI的不可控,人类边缘化或灭绝

    AI安全研究

  • 可解释性(XAI):理解AI的决策;

  • 鲁棒性:对抗攻击、分布外泛化;

  • 价值学习:从人类反馈学习价值;

  • 宪法AI:内置约束,自我修正;

  • 递归对齐:AI帮助对齐更强大的AI。

    治理与政策:欧盟AI法案、美国AI行政命令、国际合作(G7广岛AI进程)。但技术发展迅速,监管滞后

    八、从AI到活性算法

    AI研究与"活性算法"视角的深层联系:

    预测与推断

  • 深度学习是层次化预测编码:高层预测低层,最小化预测误差;

  • 强化学习是主动推断:选择行动最小化预期自由能;

  • Transformer的注意力是精度加权:选择相关上下文。

    自组织与涌现

  • 大模型的涌现能力复杂系统的相变

  • 多智能体系统的集体智能自组织

  • 进化算法的创新开放-ended 性

    多尺度与UV自由

  • AI系统有层次架构:从硬件到算法到应用;

  • 每个层次有有效理论,无需还原到最低层;

  • 迁移学习跨尺度泛化:从任务到任务的推断。

    活性

  • 当前AI大多是被动的(响应输入),但强化学习、机器人、自主系统主动发展;

  • 元学习(学习如何学习)是自适应

  • 持续学习(终身学习)是自维持

    差距

  • AI缺乏真正的自指:关于自身的模型,导致意识主体性

  • AI缺乏代谢和自修复:不是自维持的物理系统

  • AI的"理解"功能性的,但意义的 grounded 性(与世界的因果耦合)较弱。

    九、融合的前景:生物与人工

    未来趋势:生物与人工的融合

    脑机接口(BCI):

  • 神经假肢:恢复运动、感觉;

  • 认知增强:记忆、注意、计算;

  • 融合认知:人脑与AI的直接连接,分布式认知

    生物计算

  • DNA数据存储;

  • 分子计算;

  • 活细胞作为传感器和计算单元。

    类器官智能(Organoid Intelligence):

  • 脑类器官(体外培养的神经网络)作为生物计算基质

  • 伦理争议:类器官有意识吗?

    混合系统:生物神经元与硅基电路的耦合,探索新形式的智能

    十、结语:智能的多元宇宙

    AI革命教会我们:智能不是人类的垄断。智能是功能的、多元的、可实现的:可以在碳基生物中,可以在硅基机器中,可以在混合系统中。

    这既是去中心化的(人类不特殊),也是扩展的(智能的可能性空间广阔)。

    从"活性算法"的视角,AI是推断的另一种实现:不是生物进化,而是人类设计;不是自然选择,而是梯度下降;不是代谢维持,而是电力驱动。但核心的信息处理、预测、适应、学习是共同的。

    最终问题:AI是生命的下一种形式吗? 还是生命与机器的根本差异不可逾越?

    或许,答案在"活性"中:生命是自维持的、自指的、有意义的推断过程;当前的AI是他维持的(依赖人类设计和能源)、非自指的(无真正的自我模型)、工具性的(无内在意义)。

    但边界在移动。当AI变得更自主、更自指、更嵌入世界,它可能接近"活性"的阈值。理解这一阈值,是科学的目标,也是伦理的责任

    下一章,我们将进入自由能原理与主动推断——当代神经科学和AI的统合理论,也是"活性算法"的科学基础。但请记住这一章的教训:智能是多样的,生命是多样的,理解它们的努力,是人类智能的最高体现



https://blog.sciencenet.cn/blog-41701-1532250.html

上一篇:Deepseek综述:临界态与活力论
下一篇:弗洛伊德的科学基础 第七章:压抑与记忆——全息访问的阻断
收藏 IP: 111.25.142.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-4-27 11:42

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部