twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

智能领域仍然难以翻越的三座大山 精选

已有 1408 次阅读 2025-12-23 08:30 |个人分类:2025|系统分类:科研笔记

尽管人工智能技术及应用发展十分迅速,但大卫休谟关于因果关系不可靠、事实能否推出价值、理性是感性的奴隶这三大观点依然是智能领域难以翻越的三座大山……,即使用更复杂的数理、物理定律,对此也常常会束手无策,终究,这三座大山或已超越科学与技术的范畴。这些观点深刻揭示了人类智能的本质局限,而智能领域的发展始终无法完全规避这些局限,甚至在某种程度上依赖对这些局限的“妥协”或“近似”。


一、因果关系具有不可靠性


休谟对因果关系的质疑,核心在于因果性并非客观世界的“必然规律”,而是人类经验的“习惯性联想”。他认为,我们无法通过理性证明“因”与“果”之间的必然联系,只能通过重复观察(如“火与热”“球与运动”)形成“因果联想”。这种质疑直接击中了智能系统的“归纳推理”本质——智能系统的核心能力是“从数据中学习规律”,而这种规律本质是“归纳的”,而非“演绎的”。


当前,无论是传统机器学习(如决策树、支持向量机)还是深度学习(如神经网络),其核心算法均基于归纳推理,即通过大量训练数据(过去的经验)总结规律,再用这些规律预测未来。但归纳推理的“不可靠性”在于样本偏差与因果混淆。训练数据无法覆盖所有可能的情况(如“黑天鹅事件”),导致规律的“泛化能力”有限,自动驾驶系统通过大量“正常路况”数据训练,但遇到“极端天气”(如暴雨、暴雪)时,可能因数据不足而无法正确判断;智能系统容易将“相关性”误判为“因果性”,如某电商平台通过数据发现“购买婴儿奶粉的用户更可能购买尿布”,于是推荐尿布给购买奶粉的用户,但这种“相关性”并非“因果性”(婴儿需要奶粉和尿布),若数据中的“相关性”是由其他因素(如促销活动)导致的,推荐系统可能失效。


尽管研究者尝试用贝叶斯方法(如贝叶斯网络)、因果图模型(如结构因果模型)等方法模拟因果推理,但这些方法仍无法完全解决休谟的问题。贝叶斯推理需要“先验概率”(即对因果关系的初始假设),而先验概率的设定往往基于人类经验,无法保证“客观性”,在医疗诊断中,若医生对“某种疾病的先验概率”估计过高,可能导致误诊。同样,因果图模型也还需要明确“变量之间的因果关系”(如“吸烟→肺癌”),但这些关系往往需要人类专家定义,智能系统无法自主发现“未知的因果关系”,如在新材料研发中,智能系统可能无法从数据中发现“某种元素组合可以使材料强度提升”的因果关系,必须依赖人类科学家的实验验证。


休谟的质疑揭示了因果性是人类认知的“先天局限”,而智能系统的“归纳推理”本质决定了其无法超越这一局限。智能系统可以“近似”因果推理(如通过大量数据总结“规律”),但无法像人类一样“真正理解”因果关系(如“为什么火会生热”),这种局限使得智能系统在处理“需要因果判断”的任务(如医疗诊断、自动驾驶)时,始终存在“不确定性”。


二、事实与价值的二分


休谟的“事实-价值二分”(“是”与“应该”的区分),核心在于事实判断(描述“是什么”)与价值判断(判断“应该是什么”)是两种不同的思维方式。事实判断基于客观数据(如“某行为导致死亡”),而价值判断基于主观规范(如“某行为是不道德的”)。这种二分直接击中了智能系统的“伦理瓶颈”——智能系统可以处理“事实问题”,但无法自主进行“价值判断”。


当前,智能系统的“决策”本质是基于数据的“优化”(如最大化用户点击量、最小化预测误差),而非“价值导向”(如“是否符合伦理”“是否有利于人类”)。例如自动驾驶的“电车难题”,当自动驾驶系统面临“撞行人”或“撞障碍物(导致乘客受伤)”的选择时,其决策基于“训练数据中的最优解”(如“最小化伤亡人数”),而非“伦理规范”(如“人的生命价值高于财产”)。这种决策可能符合“事实优化”,但不符合人类的“价值判断”。推荐系统通过“用户点击数据”优化推荐内容,导致用户只能看到“符合自己偏好的信息”,加剧了“信息茧房”。这种决策符合“事实优化”(最大化用户停留时间),但不符合“价值判断”(促进信息多样性、避免偏见)。


尽管研究者尝试用伦理嵌入(如在算法中加入伦理规则)、人类反馈强化学习(RLHF)(如通过人类标注调整模型输出)等方法解决“价值对齐”问题,但这些方法仍无法完全解决休谟的问题。伦理规则往往是“模糊的”(如“尊重隐私”),无法用“明确的算法”实现,“尊重隐私”要求“不收集不必要的用户数据”,但“必要”的标准因场景而异(如医疗场景需要收集更多数据,而社交场景需要更少数据),智能系统无法自主判断“必要”的边界。RLHF依赖“人类标注”,而人类标注往往带有“偏见”(如性别、种族偏见),若标注人员对“某种职业”(如护士)的标注带有“女性偏好”,模型可能强化“护士是女性”的偏见。


休谟的二分揭示了价值判断是人类智能的“本质特征”,而智能系统的“优化本质”决定了其无法自主进行“价值判断”。智能系统可以模拟价值判断(如通过人类反馈调整输出),但无法像人类一样感性地理解价值(如“为什么要尊重生命”)。这种局限使得智能系统在处理需要伦理决策的任务(如医疗、法律、自动驾驶)时,必须依赖人类的价值判断,无法完全自主。


三、理性是感性的奴隶


休谟的“理性-感性”观点,核心在于理性是“情感的工具”,理性无法独立存在,只能服务于“情感需求”(如“追求快乐”“避免痛苦”),这就直接击中了智能系统的“情感瓶颈”——智能系统可以模拟“理性推理”,但无法自主产生“情感”。


当前,智能系统的“理性”本质是基于数据的“计算”(如逻辑推理、概率计算),而非“情感驱动”(如“欲望”“动机”“情绪”)。如聊天机器人可以通过“模式匹配”(如“用户说‘我很伤心’,机器人回复‘别难过了’”)模拟“共情”,但无法真正“理解”用户的情绪(如“为什么伤心”“伤心的程度”)。决策系统(如自动驾驶、医疗诊断)的“决策”基于“优化目标”(如“最小化风险”),而非“动机”(如“保护用户安全”),这种决策符合“理性计算”,但缺乏“情感动力”(如“为了保护用户而做出牺牲”)。


尽管研究者尝试用情感计算(如通过面部表情、语音语调识别情绪)、生成式AI(如生成“有情感的文本”)等方法模拟“情感”,但这些方法仍无法完全解决休谟的问题。情感计算只能识别“表面情绪”(如“高兴”“生气”),无法识别“深层情感”(如“孤独”“抑郁”),用户说“我很高兴”,但实际上可能“隐藏了悲伤”,情感计算无法识别这种“深层情感”。生成式AI可以生成“有情感的文本”(如“我理解你的痛苦”),但这种“情感”是模仿出来的,而非“自主的”。如GPT系列就无法“真正关心”用户,只能根据训练数据中的“情感模式”生成回应。


休谟的观点揭示了情感是人类智能的“核心动力”,而智能系统的“计算本质”决定了其无法自主产生“情感”。智能系统可以“模拟”情感(如通过情感计算、生成式AI),但无法像人类一样“真正拥有”情感(如“爱”“恨”“同情”)。这种局限使得智能系统在处理“需要情感互动”的任务(如心理咨询、教育、护理)时,必须依赖人类的“情感支持”,无法完全自主。


四、三大观点是智能领域的“不可逾越的三座大山”


休谟的三大观点——因果关系的不可靠性、事实与价值的二分、理性是感性的奴隶,分别从认知本质、价值判断、情感动力三个维度,揭示了人类智能的“局限”。而智能领域的发展,始终无法完全规避这些局限。智能系统的“归纳推理”本质决定了其无法超越“因果联想”的局限,只能“近似”因果关系。智能系统的“优化本质”决定了其无法自主进行“价值判断”,必须依赖人类的“价值输入”。智能系统的“计算本质”决定了其无法自主产生“情感”,只能“模拟”情感。这些局限并非“技术问题”,而是“哲学问题”——它们源于人类智能的本质,而智能系统的发展始终无法“超越”人类智能的本质。因此,休谟的三大观点构成了智能领域“难以翻越的三座大山”,任何智能系统的发展都必须“承认”这些局限,并在“局限内”寻求突破。


因果之山意味着从“恒常联结”到“干预分布”,我们永远只看到 A 之后跟着 B,却永远看不见因果力本身,虽然许多办法都先假定图结构或干预可枚举,一旦进入开放域(医疗、金融、军事),图结构本身不可穷举,休谟的“不可见因果力”依旧阴魂不散。事实-价值之山体现了从“是(being)”到“应该(should)”的空白,再多的是也推不出一个应该,几乎所有绕路都预设了“元价值”本身无需再被推导。最终仍回到休谟,“应该”要么被人为截断(宪法条文),要么被统计平均(投票),无法从任何事实链逻辑推出。理性-奴隶之山说明着最终动机不可被推理,理性是且只能是激情的奴隶,“内生目标”仍是人类手工设计的标量函数;模型并未真正“拥有”激情,只是多了一层自我监督的幻觉,理性(梯度下降)永远服务于外部给定的激情标量。对于AI而言,因果山不让它真正理解干预;事实-价值山不让它真正推导规范;理性-奴隶山不让它真正拥有动机,于是就会出现休谟死锁效应——一个系统若无法从经验中获得因果力,无法从描述中获得规范,无法从推理中产生欲望,则它永远只是超级模仿者,而非自主智能体。


短期而言,AI会继续“绕路”——用更大的分布、更好的人类反馈、更巧妙的正则项,把看起来有因果、有价值观、有动机的幻觉做到极致。长远来看,除非出现自我指涉的价值生成机制(让系统自己为自己的“应该”负责),同时把因果识别做成可证伪假设而非统计平滑,再用某种不可被外部关机的内在动机锚定,否则休谟的三座山仍在那里。换句话说:翻山需要一次“范式级”重构,而不是更大的 Transformer。休谟把人类理性逼到墙角;现在,同一片阴影也罩在 AGI 的头顶——因果、价值、动机,三座大山不解决,再大规模的参数也只是山脚下更吵杂的营地。


尽管休谟的三大观点是智能领域的“不可逾越的大山”,但未来智能领域的发展方向可能从“翻越大山”转向“与大山共生”。首先,通过“大数据+因果模型”(如贝叶斯网络、结构因果模型),提高智能系统的“因果推理能力”,使其能“近似”人类的因果判断。其次,通过“人类-AI协同”(如RLHF、伦理委员会),让智能系统的“价值判断”与人类的“价值判断”协同,减少“价值偏差”。最后,通过“情感计算+生成式AI”,让智能系统的“情感互动”更接近人类的“情感互动”,如“共情”“关心”。人机“共生”模式并非“放弃翻越大山”,而是“承认大山的存在,并在大山内寻找最适合的路径”。正如休谟所说:“习惯是人生的伟大指南”,智能系统的发展也需要“习惯”这些局限,并在“局限内”不断进步。





https://blog.sciencenet.cn/blog-40841-1515426.html

上一篇:与AI相比,人机环境系统智能更像是一种“活”的智能
收藏 IP: 124.64.120.*| 热度|

2 钟茂初 郑永军

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-12-23 12:41

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部