twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

[转载]致命性自主武器系统的报告

已有 797 次阅读 2021-11-20 22:48 |个人分类:2021|系统分类:科研笔记|文章来源:转载

2021年11月19日向国会提交的关于致命性自主武器系统的报告


以下是2021年11月17日国会研究服务中心的焦点报告《国防入门:美国致命自主武器系统政策》。



国防手册:US致命性自主武器系统政策

致命自主武器系统(Lethal autonomous weaponsystems, LAWS)是一类特殊的武器系统,它使用传感器套件和计算机算法独立识别目标,并使用机载武器系统攻击和摧毁目标,而无需人工控制系统。尽管这些系统尚未得到广泛开发,但人们相信,它们将使军事行动能够在通信退化或被拒绝的环境中进行,而在这些环境中,传统系统可能无法运行。
与许多新闻报道相反,美国的政策并不禁止制定或使用LAWS。尽管美国目前的库存中没有LAWS,但一些高级军事和国防领导人表示,如果美国竞争对手开发LAWS,美国可能会被迫在未来对此进行开发。与此同时,越来越多的国家和非政府组织出于道德考虑,呼吁国际社会管制或禁止LAWS
LAWS的自主武器技术发展和国际讨论可能都会对国会监督、国防投资、军事作战概念、条约制定和战争未来产生影响。

 

美国政策


关于定义:国际论坛上使用的致命性自主武器系统并没有达成一致的定义。然而,国防部指令(Department of DefenseDirective, DODD3000.09(该指令)确立了美国武器系统自主政策,为美国军方提供了不同类别自主武器系统的定义。这些定义原则上基于人类操作员在目标选择和交战决策方面的作用,而不是武器系统的技术复杂性。
DODD 3000.09LAWS定义为“一旦激活便无需人工操作员进一步干预可以选择和打击目标的武器系统。”这种自主的概念也被称为“人不在环”或“完全自主”。该指令将自动武器系统与人类监督或“人在回路”自主武器系统进行了对立。在这种人类参与的系统中,操作人员有能力监控和停止武器的目标交战。另一类是半自动武器系统,或称“人在回路”,这种武器系统“只攻击由人类操作人员选定的单个目标或特定目标群体”。半自主武器包括所谓的“开火然后忘记”武器,比如某些类型的制导导弹,它利用自主功能对人类识别的目标产生效果。
该指令不包括“用于网络空间操作的自主或半自主网络空间系统;非武装无人平台;非制导弹药;由操作者手动制导的弹药(如激光或线制导弹药);地雷;[以及]未爆弹药,”也不受其指导方针的约束。

关于操作员的作用:DODD 3000.09要求包括LAWS的所有系统设计为“允许指挥官和操作员能够对武力使用行使适当程度的人类判断。”正如20188月美国政府白皮书所述,“‘适当’是一个灵活的术语,它反映了一个事实,即不存在一个固定的、一劳永逸的、适用于每一种情况的人类判断水平。‘适当’的存在会因武器系统、战争领域、战争类型、作战环境而有所不同,甚至因武器的不同功能而产生不同的系统。”
此外,“人类对使用武力的判断”并不需要像经常报道所说的人工手动“控制”武器系统,而是需要更广泛的人类参与决策如何、何时、何地以及为什么使用该武器。这包括一种人在作战中的决策,即武器将“以适当的谨慎并根据战争法、适用的条约、武器系统安全规则和适用的交战规则”使用。
为了辅助该种决策,DODD 3000.09要求“充足的训练、[战术、技术和程序]和条令可用,定期审查,并由系统操作员和指挥官使用,以了解系统在实际作战条件下的自主性的功能、能力和限制。”该指令还要求武器的人机界面“易于被训练有素的操作员理解”,以便他们能够就武器的使用做出明智的决定。
关于武器审查流程:DODD 3000.09要求测试和评估所有系统的软件和硬件,包括致命的自动武器,以确保:

 

在对抗适应性对手的现实作战环境中发挥预期的作用;在符合指挥官和操作员意图的时间范围内完成交战,如果无法完成,则在继续交战前终止交战或寻求其他人工操作员输入;并具有足够的鲁棒性,以最大限度地减少可能导致意外参与或未经授权方失去系统控制的故障。

 

例如,由于机器学习而对系统运行状态进行的任何更改将要求系统再次进行测试和评估,以确保其保留其安全功能和按预期运行的能力。

关于高等级审查:除了标准武器审查程序外,还需要对LAWS和某些类型的半自主和人类监督的、能够产生致命影响的自主武器进行二级高等级审查。在根据指令附件3中列出的“依照指导进行正式开发之前和部署之前”,该审查要求负责政策的国防部副部长、参谋长联席会议主席以及负责采办和维持的国防部副部长或负责研究和工程的国防部副部长批准该系统。如果“紧急军事行动需要”,国防部副部长可搁置该高等级审查“除法律审查要求外”的流程。据报告,国防部正在编写一本手册以指导高级领导人完成这一审查过程;然而,由于美国目前尚未制定法律,迄今为止,没有任何武器系统经过高级审查过程。

关于对LAWS的国际讨论:2014年以来,美国在《联合国就特定常规武器公约》(the United Nations Conventionon Certain Conventional Weapons, UN CCW)的支持下参与了对于LAWS,有时被通俗称为“杀手机器人”,的国际讨论。2017年,这些讨论从非正式的“专家会议”转变为正式的“政府专家组”(Group of Governmental Experts,GGE),负责从技术、军事、道德和法律维度检验LAWS2018年和2019年,政府专家组审议了缔约国关于发布LAWS政治声明的提案,以及对LAWS进行监管的提案。

此外,约30个国家和165个非政府组织出于道德考虑,呼吁先发制人地禁止LAWS,包括对操作风险、使用责任以及遵守战争法的相称性和区分要求的考虑。美国政府目前不支持LAWS禁令,并在20183月的白皮书《致命自动武器领域新兴技术的人道主义利益》中解决了有关该系统的道德问题。该报告指出,自动目标识别、跟踪、选择和交战功能可以让武器更准确地打击军事目标,同时降低附带损害或平民伤亡的风险

尽管UN CCW是一个以共识为基础的论坛,但其讨论结果可能会对美国的致命自主武器政策产生影响。

 

对会议的潜在问题

美国的潜在对手在多大程度上开发LAWS?

美国应该如何平衡LAWS研究和发展与伦理考虑?

美国应在UN CCW关于LAWS的讨论中发挥什么作用?美国是应该支持现状,提出政治宣言,还是提倡对LAWS进行管制或禁止?

如果美国选择开发LAWS,那么目前在冲突中使用武器的审查程序和法律标准是否足够?

 

国会研究处成果


CRS Report R44466, Lethal Autonomous Weapon Systems:Issues for Congress, by Nathan J. Lucas.

CRS In Focus IF11294, International DiscussionsConcerning Lethal Autonomous Weapon Systems, by Kelley M. Sayler.

CRS Report R45178, Artificial Intelligence and NationalSecurity, by Kelley M. Sayler. 

CRS Report R45392, U.S. Ground Forces Robotics andAutonomous Systems (RAS) and Artificial Intelligence (AI): Considerations forCongress, coordinated by Andrew Feickert. 

 

其他资源


Department of Defense Directive3000.09, “Autonomy in Weapon Systems,” Updated May 8, 2017, https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf.

U.S. Government, “HumanitarianBenefits of Emerging Technologies in the Area of Lethal Autonomous Weapons,”March 28, 2018,https://www.unog.ch/80256EDD006B8954/(httpAssets)/7C177AE5BC10B588C125825F004B06BE/$file/CCW_GGE.1_2018_WP.4.pdf.

U.S. Government, “Human-MachineInteraction in the Development, Deployment and Use of Emerging Technologies inthe Area of Lethal Autonomous Weapons Systems,” August 28, 2018,https://www.unog.ch/80256EDD006B8954/(httpAssets)/D1A2BA4B7B71D29FC12582F6004386EF/$file/2018_GGE+LAWS_August_Working+Paper_US.pdf.

United Nations Office atGeneva, “Background on Lethal Autonomous Weapons Systems in the CCW,”https://www.unog.ch/80256EE600585943/(httpPages)/8FA3C2

562A60FF81C1257CE600393DF6?OpenDocument.

Defense Innovation Board, “AIPrinciples: Recommendations on the Ethical Use of Artificial Intelligence bythe Department of Defense,” October 2019.

 

声  明


这份文件是由美国国会研究处(Congressional Research Service,CRS)准备的。CRS是国会委员会和国会议员的无党派共享人员。它完全在国会的命令和指导下运作。除了公众了解CRS向国会议员提供的与CRS机构角色有关的信息外,不应依赖CRS报告中的信息。CRS报告作为美国政府的作品,在美国不受版权保护。任何CRS报告都可以在未经CRS许可的情况下全部复制和分发。然而,由于CRS报告可能包括来自第三方的受版权保护的图像或材料,如果您希望复制或以其他方式使用受版权保护的材料,您可能需要获得版权所有者的许可。




https://blog.sciencenet.cn/blog-40841-1313270.html

上一篇:科幻理论的未来在于发现新的逻辑体系
下一篇:感性逻辑与理性逻辑

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2022-1-23 13:21

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部