|

「AI哲学」让人类“为自身立命”与“为AI立心”。
是否有固定套路:问题复杂度不同,AI(解答时长基本固定)与人类智能HI(解答时长不定)。
针对不同复杂度的问题,人类智能的答题时间是不定的。如果只是解答“1+1”等于几,你可以瞬间回答;而如果让你猜一个谜,你可能绞尽脑汁花几天都想不出答案。
点击+号关注本账号,可获得更多精彩内容。
针对不同复杂度的问题,HI的答题时间是不定的。如果只是解答“1+1”等于几,你可以瞬间回答;而如果让你猜一个谜,你可能绞尽脑汁花几天都想不出答案。
但AI(这里特指用于生成式问答的AI大模型)不一样,无论回答什么类型的问题,无论在人类看来复杂度是高还是低,AI给出解答的时间基本都是固定的。这是因为,AI大模型目前所具备的智能,主要是在训练大数据(比如整个互联网上涵盖人类的所有已知知识)时学习各类事物之间的关联度(概率大小)。一旦训练完成,则所有事物之间的关联度都已计算好并都确定下来。在解答阶段,通过查询已计算好的各类事物关联度,就可快速且以基本固定的时间给出答案:既然各类事物的关联度都以计算好了,则问题无所谓是复杂的、还是简单的,都可按照固定的格式、公式和套路进行计算。
因此,我们也就知道,目前的AI大模型,并不是真正像HI那样进行理性地、逻辑地进行深入地推理和分析,而只是用非线性函数对数据进行拟合;一旦模型训练好,即非线性函数的参数被确定好,求解所有问题时都套用同样的函数,唯一的区别就是输入变量的值不同,因此不难理解为什么解答时间基本都是一样的了(固定时间解答,也说明解答时没有再进行额外的深入思考)。同时这也解释了,无论问题是否靠谱,AI总是一定会给出一个答案,哪怕这个答案并不靠谱(即出现了“幻觉”),这取决于训练集中的数据关联质量(是否准确、真实、充分)、以及训练集中的数据中是否涵盖了答案(以直接的方式或者间接的方式)。而人类智能(HI)则不一样,在解答问题时因为没有固定套路可言,所以遇到复杂或陌生的问题,就完全可能出现卡壳或者无法解答(推理不下去、关联不上)的情况。
值得说明的是,AI算法也分很多类型,既有用于生成式问答的AI大模型(如ChatGPT),也有用于下棋打牌的博弈AI(如AlphaGo),虽然都是基于深度神经网络,但两者的原理和运行方式是非常不同的。与AI大模型(如ChatGPT)不同,博弈AI(如AlphaGo)具备非常强的深度推理和思维能力,目前任何人类顶尖围棋选手都已无法击败它,即只可能输、运气最好也不过“和棋”。此外,在进行模型训练时,与AI大模型只能依靠已有的互联网数据集不同,博弈AI可以基于对抗神经网络算法,自我生成大量的新数据、并自动模拟正方反方来左右互博和对抗,以便从中学习新的求解策略。而在求解(推理)阶段,与AI大模型不同,因为每一步人类对手的对弈导致整个棋局都在更新,博弈AI必须根据人类棋手的新输入来重新进行推理,因此也就没有固定的套路可言。
有意思的是,ChatGPT的新版本(比如o3版本、GPT 5)通过引入“自适应思考时间”(Adaptive Thinking Time)机制,根据任务难度自动调整推理深度。o3-mini引入了三档思考级别——低强度推理、中等强度推理、高强度推理,可以根据具体需求去调整模型的推理深度。简言之,简单任务能够得到快速响应;而复杂的问题,模型则可开启更深度的思考模式。这可看成是AI对人类思维方式的一种借鉴和学习。不过,这种改进仍然遵循着固定的套路,只不过将套路进行了分级。
更详细内容,请见本书的完整版。如果你有任何感想,请在评论区留言,一起讨论。
“AI哲学一吴怀宇”(中国科学院博士、北大博士后)作者主页:www.OpenDAI.org;邮件:huaiyuwu@sina.com
视频号/公众号:AI哲学一吴怀宇中国科学院(人工智能哲学)
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-4-12 21:43
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社