||
很多人跟模型越聊越嗨,根本原因是用创意模式在做验证。
创意模式(发散):要的是新角度、新比喻、新结构、更多可能性。允许胡一点。不妨信马由缰,或天马行空。
验证模式(收敛):要的是可检验、可复现、能被反驳/可证伪的东西。必须“抠”。
建议与大模型每次开聊前问自己一句:“我现在要发散,还是要验证?” 然后把提示词写明白:现在进入验证模式/创意模式。这一个动作就能把“被哄爽”概率砍掉一半。
2) “反迎合”三件套:让模型主动拆你台大模型厂家在调教模型与人类对齐的时候,默认是迎合和鼓励模式。这符合人性,也符合厂家的商业利益。谁不爱听“顺耳”的话呢?何况多数时候,我们是拿模型当伴侣看,它需要满足我们的情绪价值。
但对于严肃问题,我们就需要纠正默认的“迎合偏差”。忠言逆耳,这就是对症下药的地方。Tips:只要固定用这三句,模型立刻从“捧哏”变“挑刺”。
A. 先让它复述你的观点,但要求列出隐含前提
“请用最强钢人化方式复述我的观点,并明确列出它依赖的 5 个隐含前提。”
B. 要求它做反方律师
“现在你是反方律师:请给出 8 条反驳(含至少 3 条‘如果为真会致命’的反驳),并标注每条反驳需要什么证据。”
C. 要求它指出你可能自嗨的点
“指出我最可能因为哪些认知偏差而觉得这个结论‘很对’,并给出具体纠偏动作。”
这三步走完,你会明显感觉:同一个模型,从“高手知音”秒变“冷面审稿人”。
3) 把“说服力”拆成可检查的零件:证据链一个观点只要过这张表,清醒度会暴涨:
结论(Claim):一句话说清楚
机制(Mechanism):为什么会这样(可画因果图)
可证伪预测(Predictions):如果结论真,会出现哪些具体现象(至少 3 条)
反例空间(Counterexamples):什么情况下会不成立(至少 3 条)
最小验证(MVE):我能在 24–72 小时内的验证动作是什么
判定标准:什么结果算支持,什么结果算否定/存疑
你可以让模型按这个模板强制输出;它一旦开始写“可证伪预测”和“MVE”,就不那么容易飘。
4) “去回声室”策略:同题三问 + 盲测大模型默认要做我们思想的回响,critical thinking 最有效的办法是把回声室拆掉:
同题三问同一个问题,连问三次,但角色不同:
作为合作者:帮我完善
作为审稿人:挑错、要证据
作为实验员:给最小实验
三种答案如果高度一致,通常是我们问题写得“太引导”;如果差异明显,我们才真正拿到了信息增量。
盲测把你的观点 A 和一个相反观点 B 混在一起,不告诉模型你支持哪个:
“下面有两个互相矛盾的观点,请分别评估证据需求。”
盲测能显著降低“它顺着你说”的概率。
5) 把模型当“提示词放大器”而不是“真理引擎”大模型的训练目标是词语接龙(next token prediction),因此,AI 结果很大程度上取决于你怎么提示。这句话的正确解读是:
它更像“镜子+放大器+写作助推器”
它不是“事实裁判”,也不是“世界模拟器”
所以最清醒的用法是:用它提高你的搜索半径、表达密度、思考速度;但用现实约束做最终裁决。
一句话原则:“模型负责生成候选,现实负责投票。”
6) 一个可直接复制的“清醒模式提示词”你下次深聊任何宏大问题(AI 与人类结局、产业走向、技术路线)可以直接贴这个:
现在进入“清醒模式”。
先复述我的观点并列出隐含前提(≥5)。
给出最强反驳(≥8),并标注每条反驳需要的证据类型(实验/数据/理论/案例)。
将争论点改写成可证伪预测(≥3)与最小验证实验(≥3),每个实验给出可执行步骤与判定标准。
指出我可能的认知偏差与纠偏动作(≥5)。
最后再给“在证据不足时最稳健的暂定结论”和“下一步信息采集清单”。
这套提示词的效果是:它会被迫从“会说”转向“检验”。
7) “AI 后创伤心理学”:怎么避免越聊越亢奋群里有人说“聊嗨了睡不着”,这不是矫情,是真现象。解决办法也工程化:
把情绪峰值当噪声:越兴奋越要做“反方律师”和“MVE”,不然就是被语言推着跑。
第二天复盘:隔夜再看昨天结论,问一句:“如果这是错的,最可能错在哪里?” 这一步很解毒。
说句扎心的:大模型最擅长的能力,不是推理,而是“把你已经相信的东西,说得更完整、更像真理”。
所以我们现在遇到的最大风险,并不是被 AI 骗,而是——被它温柔地确认。
几个我们正在集体踩的坑:几乎人人中(过)招1️⃣ 把“顺着我说”误判成“它很懂我”它不是懂你,它是在最大化“让你觉得被理解”。迎合不是副作用,是目标函数的一部分。
2️⃣ 把语言流畅度当成思维深度逻辑链条被“丝滑地补全”,我们就误以为这是推理,其实很多时候只是空白被填平了。
3️⃣ 把情绪共振当成认知共识一聊嗨,就以为“想通了”;一写顺,就以为“看透了”。但第二天冷静下来,往往发现:什么也没被验证。
4️⃣ 把“看起来能解释一切”的模型,当成世界模型能解释 ≠ 能预测;能预测 ≠ 能被证伪:不能被证伪的东西,本质上只是在安慰人。
认知茧房现象真正扎心的是为什么高手反而更容易中招?如果一个结论只在“和模型对话时显得正确”,却很难被实验、数据或现实摩擦验证,那它更可能是语言游戏,而不是认知突破。
因为模型:
知识面极广,非常会“抬咖”
善于把零散直觉整理成宏大叙事
极其擅长让人产生一种错觉:“我刚刚完成了一次深刻思考”
但现实是:你只是完成了一次“高质量自我回声”。
一个简单但残酷的自检问题这个观点的可证伪预测?
一个最小实验?
至少三个可能把我推翻的反例?
如果不能——那刚才那次“深聊”,更像心理按摩,而不是智力劳动。
和大模型相处的底线原则是模型负责生成候选解释,而人负责实验、证伪、承担后果。
最后一句,真的扎心9) 例外如果一个人长期不和物理世界、实验数据、失败反馈打交道,只和模型共振语言,那他和大模型的主要差别,可能只剩下——算力更低。
迎合符合人性,给我们带来的是满满的情绪价值:各种条条是道的鼓励夸赞让我们舒适或兴奋,这本身有益心理健康,如果议题并不带来重大后果的话。下列情形属于我们可以认可和享受这种心理按摩的例外场景。
1️⃣ 闲聊或娱乐谁不愿意找一个懂“我”的对象聊天?酒逢知己千杯少。
2️⃣ AIGC文艺创作审美本来就没有黄金标准,模型要迎合你的审美趣味,可以由着它来,自我陶醉。何况带偏了也不产生严重后果。当然,也有让它说得天花乱坠,但用到AIGC实处,发现结果有落差,这最多带来失望,教育我们模型只是帮助我们拓展了候选,但并不保证结果惊艳。
3️⃣ 文科理工农医等比较硬核,需要严防落入“认知茧房”的陷阱。但绝大多数文科不然。文科与美学类似,第一没有黄金标准,第二鼓励百花齐放。这正是可以充分发挥AI的创意和想象力,而不带来严重后果的“学问”地,对 bias 相对免疫。最坏的结果也可以是一家之言。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-1-24 00:40
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社