||
我们总以为,AI 越强大、越全能,就越能成为我们的得力助手。无论是写代码、做设计,还是分析数据,我们都在追求那个 “最厉害” 的 AI 工具。但事实真的如此吗?
一篇发表在全球人工智能顶会ICLR 2024上的研究,用一个象棋实验告诉我们:AI的价值,不仅是它有多强,更在于它是否 “适配” 你。
这场AI之间的象棋比赛,不是单挑,而是 “组队开黑”。
研究人员设计了这样一场特殊的比赛:
队伍配置:每支队伍都是 “强AI+弱AI”的搭档组合。其中的“弱AI”(代号 Maia)被训练成模仿普通人类业余棋手的水平,就像我们这些“凡人”队友。
这样就组成了两个队,实力差距肉眼可见:
红队(超级英雄队):拥有世界冠军级别的超级 AI “Leela”,它的棋力足以碾压目前任何人类棋手。
蓝队(默契搭档队):拥有一个实力稍弱于Leela的 AI,但它被专门训练去 “迁就” 和 “配合” 它的弱队友。它走的每一步,都不是追求自己的“神之一手”,而是确保队友能看懂、能接上。
核心规则:随机接力。具体来说,每个队伍的下一步该哪个队员走,全靠抛硬币决定。这意味着,强大的AI也不知道下一秒是不是需要把 “指挥权”交给那个水平远不如自己的队友。
对决结果呢?所有人都以为会稳赢的超级英雄队,被默契搭档队杀得落花流水。
你看,连下棋这种纯拼算力、拼硬实力的事,都不是AI越牛越好。AI自己再强,跟你搭不上伙、不能让你跟着变强,那它不仅帮不了你,反而可能因为它的“神操作”让你无所适从,拖垮整个团队。
这个实验的结论,放到目前的大学教育里,就精准戳中了绝大多数人都正在踩的坑。现在咱们大学生用AI,大多都在追“最强、最全能”的AI:写论文找最能生成内容的AI,做PPT找最会排版的AI,做数据分析找算力最强的AI,甚至连课堂发言的稿子,都要AI给你写得滴水不漏。
大家都觉得,AI越牛,我就能越省力,就能拿到越好的成绩。但你有没有发现,用了一学期AI之后,期末闭卷让你写个3000字的报告,你对着空白文档,连大纲都列不出来了?老师上课提问,你照着AI给的答案念,老师多问两句为什么,你瞬间就哑口无言了?因为你用的AI太强了,而你就是那个弱队友!
2025年的《柳叶刀》也报道了一个类似的案例:内镜医生长期靠AI辅助找癌前病变,仅一段时间后,不用AI、纯靠自己肉眼找病变的准确率,直接从28%掉到了22%。
这就是AI给我们挖的第一个坑:个体层面的“技能退化”。天天让AI替你写、替你想、替你做最核心的专业判断,你的脑子、你的专业能力,就跟长期不用的肌肉一样,慢慢就萎缩了。这不是AI赋能,而是AI替你完成了本该你成长的过程,最后你自己什么能力都没留下。
就像前面说的,真正好的AI,它的输出得是“弱队友能接得住、能接着往下走”的,而不是直接给你一个最终答案,把你该走的路全走完了。
但这还不是最可怕的。最可怕的,是绝大多数人都没察觉到的,第二个更深的坑:整个行业的“思考能力都在退化”。
回到那个象棋实验,下棋有一个明确的终极目标,就是把对方将死、赢比赛。但咱们上大学、学专业,目标大多不是一成不变的,也就是说没有一个类似将对方将死的最终目标。
你学临床当医生,最终目标不是“看片子100%找对病变”就完事了。我们可以看一个真实的临床场景:一位80多岁的老年患者,查出来早期肺癌,AI给的最优方案是手术切除,测算的5年生存率能到90%,数字非常漂亮。但患者本身有严重的心脏病、糖尿病,身体底子很差,子女也担心老人扛不住手术的创伤和术后的痛苦,想选保守治疗,让老人剩下的日子过得安稳舒服一点。
这个时候,医生要做的判断,根本不是盯着AI给的90%生存率的数字选方案。他要平衡的,是“延长生命的长度”和“保障老人最后的生活质量”,还要考虑患者本人的意愿、家属的顾虑、老人的心理状态。这个判断,没有任何AI能给你标准答案,它没法给你算一个“70%该手术,30%该保守”的概率,因为它背后是医生的专业伦理,是对“什么才是好的医疗”的理解,是对一个个活生生的人的共情。
而AI的局限就在这:它只能朝着一个固定的、能算出来的目标优化,比如“诊断准确率”,但它很难理解,那些没法用数字衡量的、一个行业真正的灵魂和价值。
现在很多大学的AI教育,走的完全是两个极端:要么可能就是一刀切、不让用,甚至有的说:抓到用AI写作业的直接算挂科;要么就是开一门课,只教你怎么写prompt、怎么让AI给你输出最完美的答案。
不得不遗憾地告诉你,这两种做法,都有很大的问题。禁用AI并不现实,现在绝大多数大学生都在接触和使用AI,你禁用了,只会让大家明着不用但私下使用,这就反而从课堂上的规范引导,变成了课堂外的盲目滥用;而只教你怎么写prompt,更是避重就轻——本质上就是在教你怎么去适配现有的AI,是如何跟着有缺陷的AI逻辑走,而不是教你怎么驾驭AI,怎么守住我们人类独有的、AI很难复刻的思考能力。
如果我们的大学,只教学生用AI做可量化的事,那十年之后,很难再有医生会去琢磨数字背后患者的真实处境;很难再有律师会去深究法律条文背后的公平正义;很难再有老师会去关心分数之外,孩子的成长与可能性。
整个行业,都会慢慢失去质疑和重新定义自身核心价值的能力,被AI的算法牵着鼻子走。这才是AI给高等教育,挖的最深的一个坑。
那面对这个坑,我们到底该怎么办?我想说最重要的一条,那就是:别再把AI当成计算机专业的子学科,它是能和文科、理科、农科、工科、医科、社科相融,甚至和这些学科门类并肩的基础能力。
很多人的认知里,AI就是计算机专业的事,只有学CS的才需要懂AI的底层逻辑,其他专业的学生,只要会用现成的AI工具就行。但这个认知,恰恰窄化了我们对AI的想象,也锁死了各个专业用好AI的可能性。
你想,学中文的,不是只能用计算机专业做好的AI写稿子,而是可以结合自己的专业,去定义AI该怎么帮我们做古籍整理、方言保护、民间文学的数字化传承;学农科的,不是只能用现成的AI算产量,而是可以结合田间地头的实际情况,去定义AI怎么适配不同的土壤、气候,帮农户做更贴合实际的种植决策;学医的,不是只能用现成的AI看片子,而是可以结合临床的真实需求,去定义AI该怎么辅助医患沟通、术后康复管理,该守住什么样的医疗伦理边界。
如果一直把AI困在计算机专业的子学科里,那其他所有专业的学生,都只能顺着计算机专业设定好的AI框架走,没法结合自己的专业需求,去定义AI该怎么用、该守什么边界,最后只能被AI的逻辑带着走,很难成为AI的主人。
所以,我们可能从一开始就搞错了AI的定位。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-4-17 02:28
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社