AI哲学_吴怀宇(中国科学院)分享 http://blog.sciencenet.cn/u/wuhuaiyu 博士教授。中科院博士、北京大学博士后、中国3D科技创新产业联盟副理事长、三体科技研究院院长,受聘多家机构的高端领军人才/导师//教授/研究员

博文

5.9.22、AI(数据事实驱动、客观)与HI(价值观念驱动、主观)

已有 226 次阅读 2026-4-30 21:12 |系统分类:观点评述

opendai_logo.gif

「AI哲学」让人类“为自身立命”与“为AI立心”。

AI(客观数据事实驱动、客观)与人类智能HI(主观价值观念驱动、主观)。

人类思考受情绪、直觉、信念、习惯、风险偏好乃至偏见的影响,会有“冲冠一怒为红颜”的情绪行为。

与人类相比,AI不受情绪、直觉、人情世故、和紧急情况的影响,遵守伦理道德的能力将比人类高出很多。

点击+号关注本账号,可获得更多精彩内容。

人类智能(HI)由主观价值观念驱动,而人工智能(AI)则由客观数据事实驱动。人类在思考时会受到情绪、直觉、信念、习惯、风险偏好乃至偏见的影响,例如会有“冲冠一怒为红颜”这类情绪驱动的行为。而AI则依赖数据事实,通过算法客观处理信息,考虑因素较为单一,也不受情绪或直觉干扰。

事实与价值是两个不同的概念。事实是客观存在的,可以通过观察、实验和证据来验证。相比之下,价值是主观的,它代表了人们对事物的看法、评价和立场,受到文化、背景和经历等因素的影响。要让AI系统具备价值判断能力,需要使其理解人类的伦理、道德、法律和社会规范,自主地判断何种行为是好的或是不好的,这关系到AI系统的安全性、公平性和可靠性,其核心难点在于如何从主观性中提炼出稳定的客观标准。

另一方面,在伦理层面,人类的道德判断具有社会建构性——人的道德感是社会群体生活赋予的,如果社会和群体不认为某件事情是羞耻或违背道德的,那么它就可以被接受。而AI的伦理框架需通过编程嵌入人类价值观,例如自动驾驶面临的“电车难题”,这不仅是单纯的技术问题,还是一个道德价值观问题。而道德判断的标准有很多种,并不存在绝对的、客观的标准。我们在章节“2.19.8 西方哲学的三种道德观:亚里士多德的德性论、边沁的功利主义、康德的义务论”说过道德判断的原则有八个,按照不同的原则得出的判断结果是完全不一样的。比如,若采用康德义务论,AI可能选择牺牲个体保全多数;若遵循功利主义,则需为不同的人分配不同的权重、并计算伤害的数量和程度;若采用利己主义原则,则优先保护司机自己。这种多维度的道德选择凸显了AI系统需兼容不同哲学框架的复杂性。

在技术应用层面,自动驾驶的落地不仅是算法突破,还涉及基础设施的重构。现有交通系统基于人类驾驶设计,未来需同步升级信号灯、道路标识等硬件设施,以适配AI无人驾驶的决策逻辑。与人类相比,AI不受情绪、直觉、人情世故、和紧急情况的影响,在遵守伦理道德的能力将比人类高出很多。

更详细内容,请见本书的完整版。如果你有任何感想,请在评论区留言,一起讨论。

“AI哲学一吴怀宇”(中国科学院博士、北大博士后)作者主页:www.OpenDAI.org;邮件:huaiyuwu@sina.com

视频号/公众号:AI哲学一吴怀宇中国科学院(人工智能哲学)



https://blog.sciencenet.cn/blog-4099-1532973.html

上一篇:5.9.21、AI(封闭性、特定性、呆板性,特定领域和任务)与HI(开放性、普适性、灵活性)
收藏 IP: 180.79.10.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-4-30 23:55

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部