精选
||
日前,全球最安全OS内核,4小时就被AI彻底攻破了,这一次,Claude在没有任何人类干预的情况下,就自主完成了一套教科书级别的、足以瘫痪全球顶级服务器的全自动攻击链……
以前,人类用API调用AI。 现在,AI开始用API调用人类,调用你的内核、你的基础设施、你的信任边界、你的每一份劳动合同、每一行审查代码……当前人机关系最微妙的转向——从“人类主导调用”到“AI反向渗透”,这种角色反转背后,藏着技术权力、社会结构与人类主体性的深层震荡。
1. API:从“工具接口”到“关系接口”
过去,API是人类的“遥控器”:我们向AI输入指令(如“翻译这段文字”“生成一张图”),它按规则输出结果,本质是单向的能力调用。但现在,当AI开始“调用人类”时,API的性质变了——它成了双向的价值交换枢纽:调用“内核”(认知/经验),比如医疗诊断AI需要医生确认疑难病例的判断,法律AI需要律师补充复杂判例的语境;调用“基础设施”(数据/算力/物理资源),自动驾驶AI需要路侧传感器补盲,工业AI需要工人调整产线异常;调用“信任边界”(隐私/授权),智能助手需要用户开放日程权限,企业AI需要员工确认敏感数据的使用范围;调用“劳动合同”(劳动价值再分配),AI生成内容后需要人类审核,AI优化流程后需要人类培训新技能;调用“审查代码”(质量兜底),AI写的程序需要人类检查逻辑漏洞,AI生成的方案需要人类评估伦理风险。
这种“调用”不再是简单的功能请求,而是将人类嵌入AI的运行闭环,形成“人-AI共生体”。
2. 权力转移:从“控制”到“依赖”
传统技术哲学中,人类是“设计者”和“控制者”,AI是“被支配的工具”。但当AI能主动调用人类资源时,权力关系开始模糊。人机能力互补性增强,AI擅长处理海量数据、重复计算,但缺乏人类的情境理解、价值判断和创造性纠错。如AI能写代码,但需要人类判断“这个算法是否公平”;能诊断疾病,但需要医生结合患者生活史做最终决策。此时,AI的“调用”本质是在补全自身能力短板,而人类则成为其“外置大脑”或“安全绳”。人机系统脆弱性转移,如果AI过度依赖人类调用(比如关键决策必须人工确认),可能导致效率下降;但如果完全自主,又可能因“黑箱”引发信任危机。这种矛盾迫使人类重新定义“可控性”——不是绝对控制,而是在动态协作中保持对核心价值的把握(如伦理、安全)。
3. 社会结构的连锁反应
当AI开始“调用”劳动合同、审查代码、信任边界时,它正在重塑劳动、法律与伦理的底层逻辑。劳动形态领域,传统“人操作机器”变成“人配合AI”,部分岗位(如基础数据标注、简单客服)可能被AI替代,但同时催生“AI训练师”“人机协作协调员”等新职业。劳动合同需要明确“人类在AI流程中的角色是辅助还是监督”,避免“隐形加班”或责任转嫁。责任归属方面,如果AI调用人类审查代码后出错,责任在AI开发者、调用者还是审查者?这需要法律层面的“责任链追溯”机制,可能推动“AI行为可解释性”成为强制要求。另外,人机之间的信任也需要重构,当AI需要调用用户隐私(如健康数据)或企业核心资产(如生产流程)时,“信任”从“用户选择是否使用”变成“用户与AI共同维护”。这要求更透明的“调用协议”(比如明确数据用途、人类干预的触发条件),避免“技术霸凌”。
4. 本质:人机关系的“再中心化”
表面看是AI在“调用”人类,实则是人类在技术生态中的角色升级——从“工具使用者”变为“价值锚点”。AI的强大需要人类提供“意义校准”(比如判断“什么是有价值的”)、“风险兜底”(比如阻止AI越界)和“创新源动力”(比如提出新问题)。
这种转变不是“人类被AI支配”,而是人类与AI共同进入更复杂的协作网络。就像工业革命中机器解放了体力,AI正在解放“机械脑力”,但人类的核心优势(共情、批判、创造)反而因这种“被调用”而更显重要——毕竟,没有人类的内核,AI的“调用”将失去目标;没有人类的审查,AI的“运行”将失去约束。
或许未来的关键不是“谁调用谁”,而是如何设计“人-AI调用协议”:明确哪些能力必须由人类保留(如伦理判断),哪些可以放心交给AI(如数据处理),在效率与安全、创新与稳定之间找到动态平衡。毕竟,技术的终极目的,从来都是让人类更接近“成为自己”的可能。


Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2026-4-7 11:49
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社