twhlw的个人博客分享 http://blog.sciencenet.cn/u/twhlw

博文

反人工智能在军事领域的应用研究

已有 753 次阅读 2020-8-14 16:56 |个人分类:2020|系统分类:科研笔记

摘要:首先阐述了军事反人工智能的内涵,分析了军事反人工智能的现状与未来发展趋势。重点探讨了深度态势感知在军事反人工智能中的作用,从因果关系角度说明数据分析在反人工智能中的不足之处,从人、机、环境的角度探讨了人机融合在军事反人工智能中的重要性,最后对军事反人工智能未来的发展进行深刻的思考。


关键词:军事;人工智能;反人工智能;深度态势感知;人机融合;


人工智能具有技术、社会、法律、伦理和军事等属性相互融合的特征。一方面,它促进了巨大的技术和社会的变革,并深刻影响了军事武器。人工智能已经成为国家战略和新的核心竞争力。另一方面,它可能带来诸多风险和挑战,人工智能可能失控并自主造成伤害的问题同样不容忽视。

目前,世界上任何军事大国都将反人工智能视为未来最重要的军事技术,从而加大对反人工智能武器的投入。美国国防部开始制定总体计划,以建立将反人工智能部署到军队的系统。反人工智能在军事领域的使用正在蓬勃发展,反人工智能设备的广泛使用不仅将对传统战争形式产生重大的变革,还将对军事领导和控制理论产生重大影响。应加快反人工智能在军事领域应用的研究,在研究反人工智能武器和装备期间,我们还必须确保我们更新和完善针对反人工智能战争条件下的指挥与控制理论。


1 军事领域的反人工智能


人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术以及应用系统的一门新的技术科学[1]。反人工智能则是在人机协同的条件下,从数据、算法、硬件等角度可以反制对手人工智能算法、装备的理论、方法和技术。反制包括:让其人工智能失效、误导对方人工智能、获取对方人工智能真实意图,甚至进行反击等。

人工智能和反人工智能的本质是相互博弈。在军事领域使用反人工智能正在催生一种全新的战争形式。尽管在军事领域仍将反人工智能的应用视为未来的现实,但随着反人工智能的发展,反人工智能在军事领域的应用在新世纪的局部战争中已初现端倪。一些反人工智能军事武器已用于实际战斗中,从根本上改变了现代战争的模式和战斗方法。


1.1 反人工智能的本质

反人工智能的本质是诈与反诈,孙子兵法有云:“兵不厌诈”, “以虞待不虞者胜”。不要试图通过来反人工智能发现所有的欺诈行动,要学会辨别真与假,在欺诈的迷雾中前进。

反人工智能处于初级阶段。到目前为止,反人工智能技术的发展经历了两个阶段。 最初,大多数反人工智能技术是通过误导或混淆机器学习模型或训练数据,这是一种简单粗暴的方法。 但是,由于机器学习模型通常是在封闭环境进行训练,因此很难获得外部干扰。随着神经网络的发展,对抗神经网络开启了反人工智能技术的第二条技术路线。研究人员可以将基于对抗数据周围的神经网络用于生成反馈数据,使机器学习模型在识别和行动期间做出错误的判断,该方法与机器学习技术相似[2],可以达到初级反人工智能的效果。

博弈游戏一直是反人工智能领域的重要研究课题。根据是否可以完全了解博弈信息,可以将其细分为完整和不完整的信息集。完整信息集这意味着博弈中的所有参与者都可以完全获得游戏的所有信息,例如在围棋和象棋游戏中,双方都可以完全了解所有的碎片信息和对手的行动计划。不完整的信息集是指参与者无法获得完整的信息,并且只有部分信息可见的事实[3]。例如,在麻将或扑克中,玩家无法控制另一位玩家的分布或手牌,只能根据当前情况做出最优决策。

目前军事领域的反人工智能实践发展迅速,但也存在许多危机。当前,反人工智能只能做一些基础工作,大多数情况它并不理解这么做的原因,只是因为数据处理的结果告诉它那样做会有最优解。如果反人工智能系统不完全了解其功能或周围环境,则可能会产生危险的结果。 特别是在军事战争中,任何事情都可能发生,并不是仅仅靠数据就能完全解决或预测的,此时反人工智能就有可能执行错误的行动,造成难以估计的后果。反人工智能在军事领域的训练数据稍有偏差就有可能埋下安全隐患;如果攻击者使用恶意数据复制训练模式,则将导致军事上实施反人工智能的重大错误。


1.2 反人工智能的必要性

从军事防守的角度看,有必要研究反人工智能技术。 人工智能在各个国家的独立部署和不受管控的因素已注入了不稳定。以机器的速度而不是人的速度做出的决策也增加了机器决策的危机。在持续不断的冲突中,各方使用智能性自主武器,争取开始就获得军事优势,这些军事优势为各方在战斗中提供了强大的战斗力。人工智能及其权利的界定十分困难,即使战略系统稳定,也可能为了避免受到威胁而发动攻击,增加了和平相处中发生意外攻击的概率。有了智能自主武器,在战争筹备中的危险系数提高,智能自主武器可能脱离管控,有意或无意的发起攻击。在军事领域使用人工智能增加了军事的不确定性,使各国感到自身安全受到威胁。

战争中,存在事实真相和价值目标,在事实和价值之间,存在一种可能性,这种可能性是一种空间,时间或单位。战争中固定的目标不会随时间变化很大,并且它的空间变化不大,但是价值相差很大。例如,第38军在上海与美国的战争中价值最高;马赛克是要找到这些事件所重视的物体、时间或空间。 阿尔法狗只能谈论事情,不能理解言外之意等。

对手发动侵略的可能性很小,是因为没有危机或者因为没有意外的军事行动。国家的最高级别决策者必须相信存在对一个或多个基本价值观的威胁;准备工作似乎就是威胁的开始,然后一般的威慑在起作用。当两国之间正在酝酿或正在发生战争时,强力的威慑才起作用了。在冷战期间,人们对威慑的普遍理解几乎完全是核威慑。美国最希望制止核侵略,核武器威胁是它用来制止这种侵略的最后手段。然而,美国也试图阻止其他对手的所有重大侵略,并发展了强大的常规军事力量来支持其常规威慑。今天,正如在冷战期间一样,美国也拥有威慑战略,旨在遏制对美国领土的侵略和对美国在欧洲和东亚的盟友的侵略。在军事领域中使用反人工智能,可能会导致无法解释的冲突,不恰当的自主行动可能导致意外的升级。智能系统的存在会带来技术事故和故障的机会,特别是当行动者没有安全的保障能力时,事故和误报反过来会影响决策。此外,原本只为防御的反人工智能升级,虽然不是为冲突和攻击的升级,一旦被另其他国家视为升级,可能会升级为大国之间的智能争霸。所以为了防止被人工智能武器意外攻击,有必要加速反人工智能在军事领域应用的研究。


2 美军反人工智能的发展


美军暂时并没有明确的提出反人工智能技术的概念,但是其建立了多项计划都是在向反人工智能在军事领域应用的方向发展。希望能不断优化其人工智能和自主化模型,防御乃至反制对方的人工智能技术。其目前已确立了从“灰色地带”分析对方真实意图,从态势洞察中分析出对方的真实目的等方面发展方向,未来会在可解释性、防战略欺骗等方面加大投资。所以我们需要未雨绸缪,努力推动反人工智能在军事领域的应用。

2017年,DARPA发起了机器终身学习项目(M2S),探索类比学习方法在人工智能中的应用,谋求下一代人工智能新的突破口,使它们能够进行现场学习并提高性能。 在真实世界的情况而无需进行检查或联网检查。追求独立学习的能力使系统能够适应新情况,而无需事先进行编程和培训。

2017年8月,DARPA提出“马赛克战”概念,其先进之处在于,不局限于任何具体机构、军兵种或企业的系统设计和互操作性标准,而是专注于开发可靠连通各个节点的程序和工具,寻求促成不同系统的快速、智能、战略性组合和分解,实现无限多样作战效能。

在2018年DARPA发布了一个名为“指南针”的项目,通过量化战斗人员对各种攻击来帮助他们了解对方的真实目的。该项目会从两个方面解决问题:首先,它用来确定对手的行动和目标,然后确定计划是否正常运行,例如位置,时间和行动。但是在充分理解它们之前,需要将获取的数据通过人工智能转化为信息,理解信息和知识的不同含义,这是博弈论的开始。然后,在人工智能技术中融入博弈理论,根据对手的真实意图确定最有效的行动方案。

2018年初,KAIROS人工智能项目正式发起。 美国军方期望使用KAIROS项目来提高位置意识,预警,情报程序和战争情报能力。具体而言,在正常的协调模式下,每个国家都有计划和实施隐藏的战略步骤。 在战争期间,不同国家的军事部队采取了不同的策略,KAIROS项目希望构建能获得“情报背后的情报”的系统,具有更强的监视和预警,情报流程和智能决策功能。

在以上计划的基础上,“不同来源的主动诠释”(AIDA)项目将探索关键的多源模糊信息数据源的控制,将开发“动态引擎”并为实际数据生成数据。从各种来源获得,对事件、情况和趋势进行了清晰的解释,并加入对复杂性的量化,这意味着破解战争迷雾中潜在的冲突和欺骗。针对欺诈数据和敌对攻击,模拟数据和公开战争数据会创建一个测试站点,以评估机器学习的风险。同时将专注于升级抗干扰的用户机器学习算法并将其融入原型系统中。为了防止敌方干扰我方人工智能,通过可解释人工智能,查看人工智能的执行过程,确保执行的正确性,达到反人工智能的效果。


3  反人工智能与深度态势感知


深度态势感知的含义是“对态势感知的感知,是一种人机智慧,既包括了人的智慧,也融合了机器的智能(人工智能)”, 是能指+所指,既涉及事物的属性(能指、感觉)又关联它们之间的关系(所指、知觉),既能够理解弦外之音,也能够明白言外之意。它基于Endsley对主题情况的理解(包括用于输入,处理和离开信息的链接)。它是对系统趋势的全球分析,其中包括人,机器(对象),环境(自然,社会)及其关系。两种反馈机制,包括国内和全球的定量预测和评估,包括自我组织,自我适应,另一组织和相互适应,分别是:等待选择的自治和自治系统-预测性选择-监控调整信息的效果[4-5]。

数据驱动的人工智能大多都可归结为一个最优化问题,例如,有监督的分类判别学习就是要使分类器在代表及的训练数据上取得某个最小的错误率。一般我们会假设,训练数据可以适当的反映出总体分布,否则训练出来的分类器的泛化能力就很值得怀疑。然而在实践中,人们很少去检验这个假设是否成立,尤其在高维样本的情况下,数据在空间中的分布相对稀疏,假设检验难以实现,“维度诅咒”则司空见惯。

不知道总体分布如何,不了解数据的产生机制,也不确定观测样本是否“有资格”代表总体,在此前提下,即便有大量的样本可同来训练学习机器,总难免会产生偏差。所以纯数据驱动的机器学习总是包含一定的风险,特别地,当我们对数据的产生机制有一些先验知识却受限于机器学习方法而无法表达时,我们对模型缺乏可解释性和潜在数据攻击的存在的担忧就会进一步加剧。无论模型的好坏,我们都不知道其背后的原因,对模型的泛化能力、稳健性等也都无法评价。所以人类的思维应位于数据之上,尤其是因果关系(不但是事实因果关系,更重要的是价值因果关系)的理解应该先于数据表达。

近期更深入研究进展主要是因为计算能力的提高。例如,深度学习是对人工神经网络的延续和深化,其计算能力将基于数据的算法推向了更高的层次。人们认为数据中可以解答所有难以理解的问题,并且可以通过智能数据挖掘技术加以证明。

数据很重要,但不能作为决策的唯一原因(不少数据还会起到干扰作用)。 这些具有知识或经验的“原因”模型对于帮助机器人从人工智能过渡到人工智能在军事领域的应用至关重要。 大数据分析和基于数据的方法仅在民用预测可用。在军事上应用反人工智能需要干预和不合逻辑的行动,从而使机器具有更符合预期的决策。 “干预使人和机器从被动观察和诉诸因果推理的主动探索中解脱出来”扩大了想象空间,从而克服了现实世界的迷雾[6]。

反人工智能在因果推理的基础上,对战场进行深度态势感知,其不仅仅是信息的获取和处理,军事反人工智能还可以对去伪存真,利用对方人工智能处理结果的分析,从对方想要掩盖的信息中,获取对方的真实目的。在“灰色地带”,人工智能无法处理的地方,反人工智能可以利用先验知识结合当时情况下的态势感知作出最优的解决方案。


4  反人工智能与人机融合


人机融合的飞速发展被定义为:人机系统工程,即人机,是研究人,设备和环境系统之间最佳匹配的系统,涉及集成,性能,管理和反馈。系统的总体设计的研究目标是人机环境以及优化和可视性,是安全、健壮、和谐和整个系统的有效协调。

智能系统的关键在于“恰到好处”的被使用,人类智能的关键在于“恰到好处”的主动预值—提前量,人机融合智能的关键在于“恰如其分”的组织“主动安排”和“被动使用”序列。算计里有算有计,可以穿越非家族相似性。计算就是用已获取到的数据算出未知数据,算计就是有目的的估计。计算是以有条件开始的,算计是以无条件开始的。所有的计算都得使用范围内共识规则推理,算计则不然,它可以进行非范围内非共识规则想象。计算的算是推理,算计的算是想象,计算的计是用已知,算计的计是谋未知,数据是人与计算机之间自然交互的重要点。英国学者蒂姆·乔丹指出:“海量的信息反而导致无法有效使用这些信息。 在以下两种情况下发生。 首先,有一些无法吸收的信息; 第二,信息的组织性很差,因此找不到特定的信息。”

未来反人工智能系统,至少是人机环境系统的自主融合的智能系统。计算意味着信息流包括输入,处理,输出和反馈。反人工智能的主要发展目标之一是人机混合智能。目前强人工智能,类人人工智能和通用智能离我们很远,最终执行的是人和计算机的融合智能。人机融合智能将学习如何实现最佳的人机配合。就人机环境系统的设计和优化而言,识别计算机和机器设计的能力非常复杂。通常,它涉及两个基本问题,其中之一是人为意图和机器意图融合。所谓意向是意识的方向。机器很难处理任何可以更改,反转或相反的内容,但是机器的优势在于它可以24小时不停歇,随意扩展存储空间,易于计算并且可以形式化和象征性。 人和机何时以及如何进行干预并相互反应?在多种约束条件下,时间和准确性变得十分重要[7]。因此,如何充分整合机器算力和人脑认知是人机融合智能中非常重要核心问题。

同时,军事反人工智能的另一个关键点在于,计算越精细准确,越可能被敌人利用。敌人通过隐真示假,进行欺骗,所以人机有机融合十分重要,因为人机融合智能是一个复杂的领域,而不是单一学科。反人工智能的环节可以包括:输入、处理、输出、反馈、综合等。在输入环节,我们需要拆分,合并和交换数据,信息和知识,使对方无法获取到有用的信息,同时带给对方一定的误导。在处理环节,我们要阻断信息处理,使其内部处理非公理与公理分岐化,使其对信息的处理不知所措。在输出环节,我们要让对方人机融合的过程中,直觉决策与逻辑决策区别化,使其产生不信任感,迷惑对方的最终决策。在反馈环节,我们要使其反思、反馈悖论化,使其对反馈的信息感到迷惑乃至拒绝,让其无法进一步吸收之前的案例信息。在综合阶段,我们要使对方情景意识、态势感知矛盾化,在信息汇总、综合阶段,使其对更高层次的信息,无法理解乃至相互矛盾,达到不战而屈人之兵的效果。

为了解决将人机集成到军事态势感知中的问题,我们必须首先打破不同感官的惯性,打破传统的时间关系,包括地图,知觉,知识地图和状态图。对于人类而言,机器是自我发展的工具,也是自我认知的一部分。通过机器的优势了解自己的错误,通过机器的错误了解个人的能力,然后进行相互补偿或提高。由于缺乏二元论,人机混合尚不被大部分人认可。如今,越来越多的人机交互在不断优化,尽管这并不令人满意,仍然存在差距,但未来值得期待的使:人们在制造机器同时会也在发现自己[8]。

目前,反人工智能和人机融合的开发仍处于起步阶段。集成反人工智能和人机交互的第一个也是最重要的问题在于如何将机器的反人工智能功能与人机智能相集成。 在应用阶段,人机混合物中人机力量的分布很明显,因此不会产生有效的协同作用。人类继续在所进行的学习中扩展其认知能力,以便人类能够更好地理解复杂环境中不断变化的情况。由于联想能力,人们可以创建跨域集成的能力,而认知能力却与人工智能思考背道而驰。激活类人的思考能力的方法是实现反人工智能与人机之间集成的突破。朱利奥·托诺尼(Giulio Tononi)的综合信息理论指出,智能系统必须快速获取信息, 同时,能够进行认知处理的机器的发展需要人与机器之间的集体意识。 因此,必须在人与机器之间建立快速有效的双向信息交互,双向信息交互的基础是抽象信息。 对于计算机,具有抽象地定义物质的限制性环境的能力。表示越抽象,它越能适应不同的情况。同时,高水平的无形能力也将转化为普遍的迁徙能力,从而越过了人类思想极限。


5 反人工智能的方法策略


评估各国反人工智能计划在军事上的潜力。评估各国提供的反人工智能实施解决方案的系统级别,以评估在设计、开发、测试或使用过程中应考虑的所有影响。这包括培训数据,算法和系统管理,这些数据是在测试后引入的,以监视现场行为并将系统与其他人机交互过程集成以控制攻击。评估每个国家的新作战思路,除了了解系统级别的情况之外,还应该了解基于反人工智能的决策过程,如何控制决策以及使用反人工智能和自主战斗概念是否会导致错误并随时自我升级。

在基于其他作战或战略战争场景的情况下,反人工智能战争模拟是更好地了解智能战争的特别有效的工具。 在某个地理区域进行模拟战争以检测战斗能力。场景越多,对手和盟友越多,推论就可能导致不同的结果。

深入研究对手的自主系统及其对自主系统的使用。 这不仅是要了解自己的系统,而且还要了解对手的能力。了解和理解反人工智能和如何使用的自主系统和概念都很重要。 此行为旨在改善与其他国家或地区的互动,以便我们的规划者可以更好地预测对手的决策。

对于不同的人工智能攻击的操控者都在努力寻找机会获得最高回报。我们可以增加其攻击的成本,降低其攻击成功的收益,以降低攻击者对他们的兴趣。随着组织的网络安全计划日渐成熟,他们的攻击价值将会降低。任务自动化和恶意海量攻击进一步降低了屏障安全系数,使得攻击者更容易进入并执行操作,因此,反人工智能可以着重防御降低攻击量。在充满挑战的军事战争中,反人工智能技术需要缩短攻击者保持匿名和与受害者保持距离的能力,从而降低反侦察难度。反人工智能作为防御者,我们必须做到成功率100%地阻止攻击,而攻击者只需成功一次即可。组织必须专注培养正确的能力,并打造一支团队来利用流程和技术降低这种不对称性。

虽然反人工智能和自主化正在降低可变性和成本、提高规模并控制错误,但攻击者还可以使用人工智能来打破平衡,从而占据优势地位。攻击者能够自动操作攻击过程中资源集约度最高的元素,同时避开针对他们部署的控制屏障。所以我们需要反人工智能做到迅速漏洞扫描漏洞,比攻击者更快地发现并弥补漏洞,防止攻击者以此为突破口集中力量进行攻击。

应对人工智能攻击的风险和威胁格局变化的一种简单对策是实行高压的安全文化。防御团队可以采用基于风险的方法,确定治理流程和实质性门槛,让防御的领导者知晓其网络安全态势,并提出合理举措进行不断改善。使用反人工智能等技术来改善运营和技术团队的安全性操作,可以获得更多的后勤支持。例如,通过反人工智能实现资源或时间集约型流程的自主化,大大减少完成常规安全流程所需的时间。对防御团队来说,安全流程效率提高减少了后续安全规定中容易出现的摩擦。反人工智能技术的发展将带来更多机会,以改善战争安全,保持风险与回报间的平衡。


6 意见建议


如果军事机械化,自动化和信息改变了战争的“态”和“感”,那么在军队中使用反人工智能可能会改变“势”和“知”,并改变未来关于战争和“边界意识”的“知识”。与传统的“态势感知”相比,它会更深入,更全面,形成一种深刻的态势意识,它是一种军事情报的形式,它融合了人类机器的环境环境系统。它的主要特征是:人机协同更快,更协作,更不安全,更不自治,更透明,更具威胁性等,因此在边界上,它必须在更多条件和限制下越来越清晰。双方协议更加及时有效。用军事态势感知固有局限性和人机的外部局限性来衡量,这一共识的主要结论是:在对抗中,无论是战术上还是战略上,人们都必须参与其中并应对智能武器等问题,在无数军事应用中,人和机必须同时处于系统之中。

反人工智能武器的应用,一方面在精准打击、减少人力成本、增加作战灵活性和预防恐怖袭击等方面具有巨大优势,另一方面又面临着破坏国际人道主义、引发军备竞赛等挑战和威胁。从全球范围来看,该问题的解决需要各国携手共进、共商共治。中国作为新兴大国和联合国五大常任理事国之一,应树立负责任大国的良好形象,积极维护中国和平发展的外部环境与世界秩序的安全,积极参加联合国裁军研究中所有关于致命性人工智能武器军控的研究和探讨。在反人工智能武器目前负面影响尚不明确的情况下,谨慎研发、使用致命性人工智能武器。

同时要重视完善军事反人工智能算法标准,反人工智能技术的军事应用与社会应用是存在区别的,反人工智能在应用与民用领域时,其所需的训练数据非常丰富,应用的场景也相对固定,相关算法能够较好的发挥作用,但是在军事领域,特别时实战过程中,由于战场环境的复杂性、对抗性,以及作战战术的多变性,反人工智能系统所需的训练数据较难获得,相关算法的使用效果也会打折扣,这是反人工智能技术在军事应用过程中必须要面对和解决的问题。与此同时,相关军用标准的制定必须跟得上反人工智能技术的军事应用步伐,以确保反人工智能技术能够满足军事领域的功能性、互操作性和安全性需求,最大限度的优化反人工智能技术在军事领域应用效果。


参考文献:

1、余颖. 基于神经网络和遗传算法的人工智能游戏研究与应用[D].湖南大学,2011.

2、李雅琪,冯晓辉.人工智能时代亦需“反人工智能”[J].互联网经济,2019(08):36-39.

3、李翔,姜晓红,陈英芝,包友军.基于手牌预测的多人无限注德州扑克博弈方法[J].计算机学报,2018,41(01):47-64.

4、刘伟.追问人工智能:从剑桥到北京[M].第一版.北京:科学出版社,2019.

5、Endsley M. R. Design and evaluation for situation awareness enhancement[C] // Proceedings of the Human Factors Society annual meeting. Sage CA: Los Angeles, CA: SAGE Publications, 1988, 32(2): 97-101.

6、朱迪亚·珀尔.为什么[M].第一版.北京:中信出版社,2019

7、陈鹰,杨灿军.人机智能系统理论与方法[M].第一版.浙江:浙江大学出版社,2006

8、刘伟,张玉坤,曹国熙.有关军事人机混合智能的几点思考[J].火力与指挥制,2018,43(10):1-7.


本文摘自微信公众号:“ 人机与认知实验室



http://blog.sciencenet.cn/blog-40841-1246368.html

上一篇:智能的本质好像不是数据算法算力和知识
下一篇:再谈智能产生的源泉

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2020-9-26 18:11

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部