|
对人工智能的监管,各有政策
“对人工智能的监管至关重要,”技术公司OpenAI首席执行官Sam Altman今年五月在人工智能(AI)听证会上告诉美国参议员。许多技术专家和非专家都同意这一点,围绕人工智能的法律护栏的呼声正在上升。今年,经过两年多的辩论,欧盟预计将通过其第一部广泛的人工智能法律。中国已经制定了人工智能法规。
Rules to keep AI in check: nations carve different paths for tech regulation (nature.com)
但在实践中,人们仍然争论什么需要控制,人工智能的风险有多大,以及实际上需要限制什么。尽管总部位于加利福尼亚州的OpenAI和其他公司公开呼吁加强监督,但这些公司抵制了欧盟提出的一些控制措施,并倡导国际指导机构和自愿承诺,而不是新的法律。同时,该技术是一个不断变化的目标。
到目前为止,三个主要参与者——美国、欧盟和中国——采取了不同的方法,总部位于柏林的非营利组织AlgorithmWatch的执行董事马蒂亚斯·斯皮尔坎普(Matthias Spielkamp)说,该组织研究自动化对社会的影响。欧盟是高度谨慎的——其即将出台的《人工智能法案》侧重于禁止某些用途并允许其他用途,同时为人工智能公司制定尽职调查。美国是许多领先的人工智能公司的所在地,到目前为止,美国是最不干涉的。每个人都在努力弄清楚人工智能在多大程度上需要监管,因为现有的法律可能已经解决了它的一些风险。
“很多人都说这是人类有史以来最重要的创新,”加州硅谷大型律师事务所Wilson Sonsini的首席创新官David Wang说。“说'停止'很容易,但说'朝这个方向走'就难多了。
从某种意义上说,我们正在见证一场宏大的监管实验。
今年六月,欧盟议会通过了《人工智能法案》(AI Act),这是一项巨大的立法,将根据人工智能工具的潜在风险对其进行分类。尽管该法案可能会发生变化,因为它需要得到所有三个有投票权的欧盟机构——议会、欧盟委员会和欧盟理事会——的同意,但目前的草案将禁止使用造成不可接受的风险的软件。人工智能法案将其定义为涵盖预测性警务、情绪识别和实时面部识别中的大多数用途。
人工智能软件的许多其他用途将被允许,但根据其风险有不同的要求。这包括指导社会福利和刑事司法决策的工具,以及帮助公司选择雇用哪些潜在雇员的工具。在这里,欧盟法案要求开发人员证明他们的系统是安全、有效、符合隐私、透明、可向用户解释和非歧视性的。
对于“高风险”用途,包括执法和教育软件,该法案需要详细的文件,自动记录人工智能系统的所有使用情况,并测试系统的准确性、安全性和公平性。
违反规则的公司可能会被处以全球年度利润7%的罚款;在该法案生效后,他们将有大约两年的时间来遵守,这可能要到2025年。
关于什么算作高风险的问题仍然存在。去年,OpenAI向欧盟提交了一份白皮书,认为其大型语言模型(LLM,例如ChatGPT背后的语言模型)和图像生成模型不应被视为这一类别。这一建议反映在现行法案中,该法案将“基础”模型(通用人工智能系统,而不是用于特定应用的模型)放在自己的类别中。这包括可以自动生成逼真的文本、图像和视频的生成式 AI 工具。
这里的风险与可能用于执法的人工智能分类系统的风险不同。例如,图像生成工具和LLM可能导致有害内容的扩散,例如“复仇色情”,恶意软件,诈骗和错误信息,并可能最终破坏人们对社会的信任。这些工具应该需要什么样的透明度——以及是否有可能强制执行——是一个主要问题。由于这些系统接受了大量人类生成的文本和艺术的培训,因此侵犯版权也是一个悬而未决的问题。
欧盟将要求基金会模型的提供者汇编和发布用于其培训数据的受版权保护材料的摘要,并培训其模型以保护他们免受违法内容的侵害。该法案的当前文本还要求在人工智能生成内容时进行披露,但这仅适用于一种特定类型的“深度伪造”内容,这些内容未经同意将真实的人描绘成他们没有做的事情或说了他们没有做的事情。
斯皮尔坎普说,欧盟的做法是太强还是太弱取决于你问谁。
政策分析师Daniel Leufer对此表示赞同。“我认为业界有很多关于它将如何扼杀所有创新的咆哮,他们永远无法遵守它,”在布鲁塞尔的Access Now工作的Leufer说,这是一个捍卫数字权利的国际组织。“但这是通常的表演。
在柏林赫蒂学院(Hertie School)研究人工智能及其监管的乔安娜·布赖森(Joanna Bryson)表示,她听到的公司欢迎法律,因为合规不是沉重的负担,会改善他们的产品。例如,Microsoft的一位发言人指出,该公司的博客文章表示支持监管的必要性,包括欧盟的人工智能法案。
Spielkamp说,对欧盟方法的一个批评是,只要公司遵守与其应用程序的风险类别相关的规则,他们就有强有力的辩护来应对可能来自其系统的损害责任。更重要的是,一家公司可能建立在另一家公司的工具之上,而另一家公司又建立在第三家公司的工具之上,因此目前尚不清楚谁将对造成的任何伤害负责。
英国纽卡斯尔大学专门研究互联网法律的莉莲·爱德华兹(Lilian Edwards)说,人工智能法案在通过之前将不断发展,并警告说,目前不应对其进行过度分析。但她认为这是一个“良好的开端”,有一些有用的技术细节,例如提到提供者需要警惕数据“中毒”,即人们通过弄乱他们的训练数据来破解人工智能系统。
然而,爱德华兹更希望该法案通过一组标准而不是现有用例列表来定义高风险人工智能,以便立法面向未来。
欧盟已经制定了适用于人工智能的法规。例如,自2018年以来,其GDPR(通用数据保护条例)立法对个人身份数据的收集施加了限制。通过GDPR,欧盟公民已经有权获得有关自动决策中涉及的逻辑的“有意义的信息”(有时称为解释权),以及选择退出的权利。然而,在实践中,这些权利目前的用途有限:只有少数流程是完全自动化的,例如广告的放置,Michael Birtwistle说,他在Ada Lovelace研究所指导人工智能和数据的法律和政策,这是一家位于伦敦的研究机构,研究技术伦理问题。
最后,特别是对于推荐和内容审核人工智能算法,欧盟去年通过了《数字服务法》,旨在阻止危险内容的在线流动。公司必须向用户解释他们的算法是如何工作的,并提供替代方案。该法案将从2024年<>月开始正式实施,尽管包括谷歌、Facebook、X(以前称为Twitter)和TikTok在内的大型在线平台必须从本月底开始遵守。
与欧盟相比,美国没有广泛的联邦人工智能相关法律,也没有重要的数据保护规则。
2022 年 10月,白宫科技政策办公室 (OSTP) 确实发布了《人工智能权利法案蓝图》,这是一份白皮书,描述了旨在指导人工智能使用的五项原则以及潜在的法规。该论文称,自动化系统应该是安全有效的,非歧视性的,保护人们的隐私和透明的:当系统做出决定时,应该通知人们,被告知系统如何运作,并能够选择退出或有人为干预。
“从哲学上讲,[蓝图和欧盟的人工智能法案]在确定人工智能监管的目标方面非常相似:确保系统安全有效,非歧视和透明,”罗德岛州普罗维登斯布朗大学的计算机科学家Suresh Venkatasubramanian说,他在担任OSTP科学与司法助理主任时共同撰写了该蓝图。尽管美国对实施的想法与欧盟的想法略有不同,但“我想说他们同意的远远多于他们不同意的,”他补充道。
纽约伊萨卡康奈尔大学技术政策研究所所长莎拉·克雷普斯(Sarah Kreps)说,当一个国家勾勒出其愿景时,这可能会有所帮助,“但在蓝图和可实施的立法之间存在着巨大的差距”。
美国还举行了与人工智能监管有关的国会听证会和总统会议。今年7 月,7家美国公司——亚马逊、Anthropic、谷歌、Inflection、Meta、Microsoft 和 OpenAI——会见了拜登总统,并宣布他们将实施保障措施,例如测试他们的产品、报告限制和处理可能有助于识别人工智能生成的材料的水印。然而,这些承诺含糊不清,无法执行。在当月的参议院听证会上,加利福尼亚州旧金山Anthropic的负责人达里奥·阿莫德伊(Dario Amodei)呼吁美国立法,要求对人工智能模型进行审计和安全测试;他还表示,他最担心的是不良行为者滥用人工智能系统。
“有活动的表象,”西雅图华盛顿大学技术政策实验室的创始联合主任瑞安·卡洛(Ryan Calo)说,“但没有实质性和约束力。
去年十月,一项法律确实通过了国会。它要求采购人工智能产品和服务的联邦机构的官员接受有关人工智能如何工作的培训。今年2月,拜登还签署了一项行政命令,简要提到了“预防和补救......算法歧视“——但同样,它只适用于联邦机构。
Venkatasubramanian说,蓝图足够详细,各机构和各州开始在其提案中实施其原则。例如,加利福尼亚州议会提出的一项法案(称为AB 331)将要求自动决策工具的部署者向州注册其工具的用途,并解释如何使用该工具。
他还敦促白宫根据该蓝图和美国国家标准与技术研究院发布的自愿人工智能风险管理框架发布行政命令。这将坚持要求使用人工智能的联邦机构遵守某些做法,例如在使用人工智能系统时进行披露,并为其决策提供可理解的解释。
联邦立法已经提出。立法者此前曾考虑过一项旨在实现算法问责制的法案,该法案将要求使用自动化的公司向联邦贸易委员会(FTC)提交影响评估。但这并没有通过,目前还不清楚它或其他法案是否会在目前的政治分裂状态下通过国会。
由联邦机构执行的现有规则可以扩展到涵盖与人工智能相关的产品。今年四月,美国卫生与公众服务部提议更新其电子健康记录法规,让患者能够了解影响预测模型的因素。去年,消费者金融保护局澄清说,公司必须解释为什么他们拒绝某人信贷,即使决定是由算法做出的。联邦贸易委员会还提醒公司,禁止“商业中不公平或欺骗性行为或做法或影响商业”的消费者保护法同样适用于人工智能。7月,它开始对OpenAI的数据安全实践进行调查,并要求该公司提供任何投诉的细节,称其LLM对人们做出了虚假或有害的陈述。
这是“我们现在所处的一个具有挑战性的领域,试图弄清楚我们可以用现有的监管做些什么”,Venkatasubramanian说。他说,在某些情况下,新的联邦规则可能是有用的。例如,法规可能需要在自动化系统中设置所需的透明度级别,或者指定如何在部署算法之前限制算法的偏差。
美国一些州和城市已经有了自己的人工智能相关规则。在伊利诺伊州,2020年的一项法案要求公司宣布并解释使用人工智能来分析求职面试,该州长期以来一直有一项法律,允许公民起诉滥用生物识别数据,包括用于面部识别的扫描。(Facebook 在 650 年根据这一规则支付了 2021.<> 亿美元来解决一起集体诉讼案件。其他州已经禁止执法部门使用面部识别,有些州保护个人数据并限制基于这些数据的自动决策。“在州一级,你最终会得到一些拼凑的规则,”Kreps说。
至于生成人工智能,关于版权的诉讼是目前美国最重要的发展,纽约市康奈尔应用法律与技术技术研究实验室主任James Grimmelmann说。库存照片公司Getty Images起诉Stability AI公司使用Getty的内容训练其图像生成软件Stable Diffusion。Microsoft和OpenAI被匿名诉讼当事人起诉,因为他们对代码编写软件GitHub Copilot进行了人员代码的培训。格里梅尔曼说,原告可能只寻求版税,但胜利可能会看到版权问题被用来推动关于偏见、错误信息和隐私等问题的更广泛立法。
Venkatasubramanian说,一些公司已经与蓝图进行了斗争,认为该行业可以很容易地解决自我监管问题。但其他公司告诉他,他们支持它是为了防止人工智能道德的竞争,即公司为了竞争优势而相互削弱。当Altman在五月出席美国参议院委员会时,他建议为大型模型颁发许可证。但他和其他人也阐明了大公司引导监管机构制定规则的风险,这些规则使他们比小公司更具优势。
大型科技公司还没有对人工智能监管进行太多斗争,Kreps说。“我不认为现在有一种感觉,有意义的立法即将到来。
“律师们的一个共同俏皮话是,美国人在技术方面进行创新,而欧洲人在监管方面进行创新,”王说。“有人说,欧洲在监管大型科技公司方面如此领先并非巧合,因为欧洲的超大规模科技公司较少”,因此游说较少。
到目前为止,中国颁布的人工智能立法最多——尽管它适用于公司使用的人工智能系统,而不是政府。2021 年的一项法律要求公司在自动决策中使用个人数据时保持透明和公正,并允许人们选择退出此类决策。中国国家互联网信息办公室 (CAC) 2022 年关于推荐算法的一套规则表示,这些规则不得传播假新闻、让用户沉迷于内容或助长社会动荡。
今年1月,CAC 开始执行2022 年发布的规则,以解决深度伪造和其他人工智能创建的内容。合成图像、视频、音频或文本的服务提供商必须验证用户的身份,获得 deepfake 目标、水印和日志输出的同意,并反击产生的任何错误信息。
CAC本月将开始执行针对ChatGPT和DALL-E等生成工具的其他法规。这些规定规定,企业必须防止传播虚假、私人、歧视或暴力内容,或任何破坏中国社会主义价值观的内容。
其他一些国家已经明确了他们对人工智能监管的目标。加拿大政府出台了《人工智能和数据法案》,承诺要求对所谓的“高影响力”人工智能系统采取透明度、非歧视和安全措施(这些尚未定义)。今年晚些时候将举办人工智能安全峰会的英国在三月份发布了一份白皮书,描述了一种“支持创新”的方法,其中没有计划新的法规。然而,欧盟的《人工智能法案》可能会影响全球公司,就像GDPR影响全球科技公司的运营方式一样。
还讨论了潜在的国际协议。欧洲委员会(一个不同于欧盟理事会的人权组织)正在起草一项条约,管理人工智能对人权的影响,但各国可以选择退出其某些规则。联合国秘书长安东尼奥·古特雷斯(António Guterres)也建议,可能需要一个新的联合国机构来管理人工智能。
人工智能公司普遍认为政府间协议是必要的,但对需要达成一致的内容以及如何执行协议却含糊不清。例如,今年7月,总部位于伦敦的谷歌DeepMind及其一些学术合作者提出了一个全球高级人工智能治理组织,该组织将制定标准并监督合规性,尽管该公司对执法的提及有限。
DeepMind的一位发言人表示,如果拟议中的组织为国内治理制定了指导方针,那么政府将“激励”开发人员遵循标准。(她还指出,在制定新政策时,监管应侧重于可能造成人身伤害的人工智能应用,例如在医疗环境或能源网中,而不是不分青红皂白地应用于所有系统。Microsoft表示,它支持制定国际自愿守则的各种努力,认为“原则级护栏”即使不具有约束力也会有所帮助。OpenAI拒绝就监管问题向《自然》发表评论,而是指出了有关其自愿努力的博客文章。
无论人工智能的法规如何,各国都可能发现很难执行它们。这尤其适用于可解释性的规则,因为许多机器学习系统的黑盒性质,它们在数据中找到自己的模式。对于那些做出分类决策的人,可以用一系列输入轰炸它们,看看不同的因素如何影响算法的决定。但是这些方法不适用于LLM,例如ChatGPT。对于这些,政府可能需要使用审计来迫使公司对何时使用生成式人工智能保持透明。尽管如此,Venkatasubramanian认为“任何直接,积极的执法,即使是少数实体,都会开始让人们停下来思考一下”。
审计不太可能针对生成人工智能的非专业使用,因此,无论制定何种透明度法规,个人都可能秘密使用LLM而不被发现。
一些人工智能开发人员更担心长期风险,例如人工智能的反乌托邦,这些反乌托邦逃脱了人类的控制,或者被坏人用来制造广泛的破坏。他们提出了法规,以涵盖如何开发强大的AI模型。
然而,三月份由技术领导者签署的一封信呼吁暂停开发强大的人工智能六个月,但似乎收效甚微。旧金山研究和资助基金会Open Philanthropy的高级项目官员卢克·穆尔豪泽(Luke Muehlhauser)提出了其他想法,包括大型人工智能模型的许可证,大型计算集群上的远程操作终止开关以及危害和近距离呼叫的报告系统。该基金会资助了建立人工智能事件数据库的努力。
使用人工智能引导武器也是一个问题,数十个国家呼吁联合国监管致命的自主武器系统。(军事人工智能不在欧盟人工智能法案的范围内。但美国尚未加入。在三月份关于这个问题的联合国会议之前,它认为各国尚未就什么是自主武器达成一致,目前最好制定不具有法律约束力的指导方针。
这是另一个例子,说明全球在人工智能监管方面的协调似乎不太可能,不同的社会对必要的愿景截然不同。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-23 23:10
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社