|
在人工智能时代,优先考虑人类能动性的政策是可能的
《Guardrails: Guiding Human Decisions in the Age of AI》这本书在人工智能政策和伦理领域中脱颖而出,因为它完全理解了这些问题,并且为我们理解AI介导的治理做出了贡献。这是一本令人印象深刻、详细且有用的书,同时也是一本简短、引人入胜且易于阅读的书。
作者Urs Gasser和Viktor Mayer-Schönberger回顾了我们自治的各种方式,采取了深度自由主义和人文主义的方法来考虑作为公共福利的护栏,旨在提高所有个体繁荣的能力。尽管两位作者都是具有法律资格的学者,但这本书及其例子强调了提供社会“护栏”的新范围机构,这些机构超越了政府。这本书信息量很大、结构良好的叙述传达了规则的普遍价值,描述了在不同情境中哪些类型的规则最有价值,并解释了AI如何改变治理的工具和问题。
从书的第一页开始,Gasser和Mayer-Schönberger就强调护栏不是墙。虽然护栏确实意味着限制我们,但我们也可以爬过去甚至调整它们的位置。换句话说,对于作者来说,人类机构是治理的核心,无论是通过政府、公司还是其他方式。
作者认为,好的护栏必须植根于社会结构,必须实现个人赋权,而且——或许最重要的是——必须通过迭代式的社会“自我”改进促进全社会学习。这些要求是为什么人们担心护栏越来越多地被编码为数字的和不灵活的原因,而且通常是由公司完成的。这种反乌托邦的后果可能在其他地方得到了更好的说明(1),但我从未遇到过如此清晰的关于治理全貌以及其所有组成部分与AI的关系。
正如《Guardrails》的作者们所展示的,脆性并不是AI的本质。他们描述了一系列由AI辅助的灵活且运作良好的治理示例,包括在乌克兰当代网络防御中使用的系统、非洲沃尔特河的资源管理、维基百科和创意共享许可中的系统。特别是后两者,他们详细介绍了促进民间社会和其他利益统一的数字工具,以帮助治理跨国数字领域。这可能是我们在数字治理中面临的最大问题之一,因为我们考虑如何治理全球数字服务以及其他由AI促进增长逻辑的部门(2)。
灵活的AI辅助治理有助于协调沃尔特河流域的利益相关者需求。
当然,人们对这本书总是有些小挑剔。例如,我怀疑真相是否随上下文而变化,正如作者所假设的那样。在我看来,真实是物理宇宙,而变化的是目前对治理个人生活和协调社会最有用的近似值。同样,作者投射到AI系统上的刚性并不是那些系统的计算属性,而是产生AI产品的社会经济系统可能解决的后果。
我也感到惊讶的是,书的后面章节并没有像前面章节那样强调政府在治理中的作用,也没有回到最近欧盟立法在改善AI产品以人为本的重要性上。欧盟的AI法案最近才最终确定文本,但数字服务法和数字市场法已经是法律,并且如果得到充分执行,将非常有助于解决本书的关切。
但我不想贬低《Guardrails》的卓越。我学到了很多,迫不及待地想要教授它。事实上,这是我读过的第一本我认为非常适合数字治理硕士课程的书。对于申请或在政策职位工作的人来说,这也是必读之作,包括在科技公司内部。
然而,《Guardrails》的主要受益者可能是那些相信通过严格应用AI规则可以实现一个更美好世界的软件专业人士和民间社会倡导者,这将使世界变得公平、平等和一致。这本书非常清楚地解释了为什么这样的世界更可能是反乌托邦而不是理想的,以及可以与AI一起为治理做出积极工作的正面工作,包括通过政府。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 02:18
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社