|
2024 年,一位旅客因为家人去世,向Air Canada 官网的客服聊天机器人咨询是否可以申请丧亲折扣。机器人明确回复:可以事后申请。结果呢?航空公司拒绝兑现,旅客把事情告上法庭,法院最终判定:航空公司败诉。很多人第一反应是:“这不是 AI 自己乱说的吗?为什么要公司负责?”但法院的态度非常明确:聊天机器人不是“一个建议者”,而是“代表公司对外说话的主体”。这起案件,揭开了一个正在快速浮出水面的新风险:算法正在“直接参与业务决策”,但我们的责任体系还停留在人类时代。
一、AI已经不只是“工具”,而是“在干活”今天的 AI,早已不是后台分析模型那么简单。在大量行业中,算法已经被嵌入到业务流程的“执行层”:
这些系统有一个共同点:它们的输出,会直接改变人的权利、义务和经济结果。在我们的研究中,我们把这种情况称为:Algorithmic Operations(算法化运营)而随之而来的,就是一种新的风险形态:Algorithmic Operations Liability(算法运营责任风险)
二、算法责任,不只是“算法算错了”很多人一提 AI 风险,第一反应是:
这些当然重要,但远远不够全面。在论文中,我们系统梳理了算法责任的主要来源,发现真正危险的,往往不是“模型本身”,而是它如何被使用、被嵌入、被管理。
1. 模型错误和偏见(你熟悉的那部分)比如:
问题不在“有没有恶意”,而在于:错误结果是否是可预见、可避免,却被忽视了。
2.数据问题,才是隐藏得最深的雷现实中,大量 AI 风险来自数据,而不是模型:
这些问题一旦进入生产系统,就会产生两个后果:
在法律上,这是非常致命的。
3.环境一变,模型就“过期”了算法往往假设世界是稳定的,但现实从来不是。
如果模型继续在不再适用的环境中运行,而企业却没有监测、更新、停用机制——这在法律上,很容易被认定为:持续性疏忽(ongoing negligence)
4.AI 最大的风险,常常发生在“部署之后”这是很多技术团队低估的部分。模型本身可能没问题,但:
这些MLOps 和系统集成问题,往往会:
从法律和保险视角看,这是放大器级别的风险。
三、算法责任,正在变成一个「可以被保险的风险」一个有意思的趋势是:保险行业已经开始认真对待AI 风险。在我们的研究中,我们发现:
这意味着什么?AI 不再只是“技术问题”,而是“财务与治理问题”。企业将不得不回答这些问题:
这是我们论文中最想强调的一点:算法责任的核心,不在于模型有多先进,而在于治理是否成熟。真正有用的措施包括:
无论我们喜不喜欢,AI进入业务执行层,是不可逆的趋势。真正的分水岭不在于:“你用不用 AI”而在于:“你是否意识到:AI 已经在替你承担法律后果”算法不会坐牢,也不会赔钱。最终承担责任的,永远是组织本身。如果你在:使用AI做决策管理AI团队制定AI政策或研究AI 风险与治理那么,算法责任(Algorithmic Operations Liability),已经是一个绕不开的话题。
本文基于以下论文改写:Zhiyong (John) Liu,Jin Park, Mengying Wang,and He Wen. Insuring Algorithmic Operations: Liability Risk, Pricing, and Risk Control. Risks2026, 14(2), 26;https://doi.org/10.3390/risks14020026
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-2-4 13:57
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社