|

「AI哲学」让人类“为自身立命”与“为AI立心”。
AI(客观数据事实驱动、客观)与人类智能HI(主观价值观念驱动、主观)。
人类思考受情绪、直觉、信念、习惯、风险偏好乃至偏见的影响,会有“冲冠一怒为红颜”的情绪行为。
与人类相比,AI不受情绪、直觉、人情世故、和紧急情况的影响,遵守伦理道德的能力将比人类高出很多。
点击+号关注本账号,可获得更多精彩内容。
人类智能(HI)由主观价值观念驱动,而人工智能(AI)则由客观数据事实驱动。人类在思考时会受到情绪、直觉、信念、习惯、风险偏好乃至偏见的影响,例如会有“冲冠一怒为红颜”这类情绪驱动的行为。而AI则依赖数据事实,通过算法客观处理信息,考虑因素较为单一,也不受情绪或直觉干扰。
事实与价值是两个不同的概念。事实是客观存在的,可以通过观察、实验和证据来验证。相比之下,价值是主观的,它代表了人们对事物的看法、评价和立场,受到文化、背景和经历等因素的影响。要让AI系统具备价值判断能力,需要使其理解人类的伦理、道德、法律和社会规范,自主地判断何种行为是好的或是不好的,这关系到AI系统的安全性、公平性和可靠性,其核心难点在于如何从主观性中提炼出稳定的客观标准。
另一方面,在伦理层面,人类的道德判断具有社会建构性——人的道德感是社会群体生活赋予的,如果社会和群体不认为某件事情是羞耻或违背道德的,那么它就可以被接受。而AI的伦理框架需通过编程嵌入人类价值观,例如自动驾驶面临的“电车难题”,这不仅是单纯的技术问题,还是一个道德价值观问题。而道德判断的标准有很多种,并不存在绝对的、客观的标准。我们在章节“2.19.8 西方哲学的三种道德观:亚里士多德的德性论、边沁的功利主义、康德的义务论”说过道德判断的原则有八个,按照不同的原则得出的判断结果是完全不一样的。比如,若采用康德义务论,AI可能选择牺牲个体保全多数;若遵循功利主义,则需为不同的人分配不同的权重、并计算伤害的数量和程度;若采用利己主义原则,则优先保护司机自己。这种多维度的道德选择凸显了AI系统需兼容不同哲学框架的复杂性。
在技术应用层面,自动驾驶的落地不仅是算法突破,还涉及基础设施的重构。现有交通系统基于人类驾驶设计,未来需同步升级信号灯、道路标识等硬件设施,以适配AI无人驾驶的决策逻辑。与人类相比,AI不受情绪、直觉、人情世故、和紧急情况的影响,在遵守伦理道德的能力将比人类高出很多。
更详细内容,请见本书的完整版。如果你有任何感想,请在评论区留言,一起讨论。
“AI哲学一吴怀宇”(中国科学院博士、北大博士后)作者主页:www.OpenDAI.org;邮件:huaiyuwu@sina.com
视频号/公众号:AI哲学一吴怀宇中国科学院(人工智能哲学)
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-4-30 23:55
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社