时空可变系多线矢世界分享 http://blog.sciencenet.cn/u/可变系时空多线矢主人 演绎矢算研究高速运动且有相互作用的问题所不可缺少!

博文

自动武器将带来军事空前革命但人类可能难以操控

已有 2283 次阅读 2018-2-22 11:11 |个人分类:物理|系统分类:科研笔记

自动武器将带来军事空前革命但人类可能难以操控

英国《经济学人》周刊网站125日刊登题为《自动武器是一个规则改变者》的文章称,相对于机器人暴动的终极噩梦,一个更加现实的担忧是人类有可能让自动武器自行判断杀人与否。有分析认为,在竞争激烈的地区执行任务时,让机器全权负责的诱惑将变得难以阻挡。

专家保罗·沙雷担心自动系统可能因代码编写质量不高或对手发动网络攻击而失灵。这可能致使机器人攻击人类部队,或导致局势快速升级,以至于人类无法做出反应。自动武器的可靠性非常难以测试。会思考的机器可能以人类操控者从未设想过的方式行事。

外媒点评未来战争:军事机器人将带来空前革命

专家警告:杀人机器人军备竞赛或导致对平民屠杀

德媒称联合国欲约束杀人机器人发展至今无果

外媒:装备多型武器机器人战士明年或上战场

外媒:机器人武器技术发展迅速《终结者》剧情或成真

英媒:联合国忧机器人破坏世界稳定

2018-02-21 00:30:01 来源:参考消息网

外媒点评未来战争:军事机器人将带来空前革命

联合国《特定常规武器公约》(CCW)相关会议已经进行了有关致命自动武器的讨论,该公约禁止或限制一些被认为会引起不合理痛苦的武器。CCW去年11月一场会议召集了一批政府专家和阻止杀手机器人运动组织的非政府组织代表。阻止杀手机器人运动组织希望达成一项具有法律约束力的国际条约,禁止使用致命自动武器,就像此前禁止集束弹药、地雷和激光致盲武器一样。

文章称,棘手的是,自动武器包括从能够有选择性地瞄准的导弹到具有能够决定打击谁、何时打击以及如何打击等认知技能的学习型机器等一系列武器。大多数人认为,当使用致命武器时,应当由人来负责启动。但要确定哪类人工控制是适宜的则更为棘手,并且相关技术发展太快,导致国际外交无法跟上形势。

文章称,令情况更加复杂的是,人工智能和自动机器最引人注目的进展正由具有商业动机的私企实现。即使能够达成禁止军用机器人的协议,催生自动武器的技术也会很快普及并容易转让。

防务分析人士彼得·辛格指出,人工智能竞赛由不可阻挡的力量驱动:地缘竞争、知识前沿领域的科学动力以及追求利润的科技企业。因此,是否能抑制人工智能竞赛一些更令人不安的方面以及如何抑制成为问题所在。简单来说,一个令大多数人惊恐的想法是让能够思考的机器自行选择是否杀死人类。而且,尽管有关机器人暴动的终极噩梦仍是科幻小说,但其他担忧则具有现实性。

专家保罗·沙雷担心自动系统可能因代码编写质量不高或对手发动网络攻击而失灵。这可能致使机器人攻击人类部队,或导致局势快速升级,以至于人类无法做出反应。自动武器的可靠性非常难以测试。会思考的机器可能以人类操控者从未设想过的方式行事。

   文章称,美国前国防部副部长詹姆斯·米勒说,如果自动系统在竞争激烈的地区执行任务,让机器全权负责的诱惑将变得难以阻挡。

专家警告:杀人机器人军备竞赛或导致对平民屠杀

参考消息网1121日报道

英国《明星日报》网站1117日发表了题为《杀人机器人军备竞赛》的报道。

一名人工智能专家透露,美国、英国、俄罗斯、以色列等国正卷入一场打造杀人机器人军团的竞赛。

从自主射击枪械和无人机到遥控超级坦克,美国和俄罗斯的原型机器人已经打造成功并整装待发。而人形机器人上战场也不过是几十年内就会出现的事情——并为这个世界勾勒出可怕的前景。

英国设菲尔德大学的人工智能与机器人学荣誉教授诺埃尔·沙尔基对本网站记者说:“一场军备竞赛已经拉开序幕。”

沙尔基说:“我们现在看到,美国、以色列和俄罗斯(的杀人机器人军备竞赛)已经开始了。如果这些东西登场,那么它们随时可能意外触发战争。”

他还说:“怎样才能取缔它们?你完全可以把这些东西永远搁置起来,可它们只需再充一次电就能再次启动。”

如今,人工智能机器人正在全球掀起一股热潮。沙尔基教授担心,杀人机器人的研发可能也有着如此惊人的速度。因此,他正在领导一场禁止杀人机器人的全球运动。

在本网站披露了相关的最新进展——美国机器人做后空翻——后,这名专家警告说,俄罗斯的最新项目“绝对令人害怕”。

沙尔基表示:“还有很可怕的东西……俄罗斯人研发出了这个被称为‘超级坦克’的东西,而它是世界上最先进的坦克,领先很多。它绝对是一个拥有巨大破坏力的庞然大物,而且他们可以远程遥控它。他们还在努力以最快速度把它变成一种全自动的机器人。”

虽然自主武装机器人比人形机器人领先很多年,但沙尔基教授担心,可能出现的人形机器人也许会给世界带来灾难——导致对平民的大屠杀。

在警告杀人机器人的可怕后果时,沙尔基教授说:“这不可能符合战争法,它们能区分某个目标是军事目标还是民用目标吗?这是战争法的关键。”

他说:“杀死试图投降的人也是不允许的。我知道很多人以为投降就是举白旗,其实投降是指任何表明不再战斗的姿态,比如手无寸铁地躺在地上……但机器人无法对此加以区分。我个人最大的担心是,这会对全球安全造成怎样的破坏——因为一场此类武器的军备竞赛已经拉开序幕。”

2017-11-21 10:14:24

德媒称联合国欲约束“杀人机器人”发展至今无果

参考消息网1116日报道

据德国《每日镜报》网站1113日报道称,在不久的将来,完全自主行动的杀人机器人将在战场上决定人们的生死。关于禁止或者至少是限制此类武器系统使用的讨论近年来一直没有停止,但至今仍毫无结果。联合国近期开始在日内瓦就此进行讨论。

什么是杀人机器人?

它的正式名称为“致命自主武器系统”。目前还没有普遍有效的定义。联合国和国际红十字会是这样解释的:它无需人类的帮助就可以确定目标、发动攻击并清除目标。换句话说,一旦编好程序,这些武器系统可以独立分析数据,导航至作战地区并使用机关炮或火箭等武器。近年来人工智能领域的巨大进步构成了杀人机器人发展的基础。

已经在使用的无人机目前还是由士兵操控的,因此它(还)不是杀人机器人。尽管距离它独立操作似乎并不遥远。

发展到何种程度了?

负责军备的俄罗斯副总理罗戈津今年春天发布过一段视频,里面可以看到《终结者》似的类人杀人机器人。这更多地属于宣传范畴。外观是否与人类相像一点都不重要。人权观察组织的专家认为,“美国、英国、中国、以色列、俄罗斯和韩国开发的武器系统自主性都在增大”。目前已经有原型机在使用当中。

支持者辩称,它将令军人的危险最小化。但恰恰这点可能会导致门槛的降低并令战争增多——从而导致更多的平民伤亡。人们已经可以在远程操控的无人机的使用中看到这样的发展。

后果责任谁来承担?

这是与杀人机器人密不可分的一个根本性的伦理问题。合乎伦理和道义的行动,善与恶、对与错的区分,对后果的评估,对自身行为责任的承担,所有这些在未来战争中都不存在。机器人虽然有人工智能,但却没有怜悯或悔恨等情感,它没有任何的愧疚感。对于适度等概念它无从下手。但这却是写在所谓的战争法当中的:冲突各方必须避免不必要的破坏并避免给对方带来不必要的伤痛。必须善待平民、受伤、无作战能力和被俘的军人。专家认为,这是无法编入程序当中的。2013年时,政策专家在给联合国人权委员会的一份报告中就警告说:这些“不知疲倦的战争机器”可能会令武装冲突变成无休止的战争——外交将没有可能来终止专门用来在即便是毫无希望的情况下也继续作战的机器的杀戮。

法律规范如何确立?

到目前为止,没有。本次联合国会议也不会立法,它只会在一份“政治声明”中摸索其政治、伦理和法律上的空间。禁令不在讨论范围之内。

由于这些系统目前实际上还不存在,德国和法国一起建议先确定自主武器系统的定义。包括军工代表在内的一个技术专家小组将对新武器的风险进行说明。“国际停止杀人机器人运动”的代表认为这完全不够,必须提前对这些武器进行禁止。

只有19个国家要求颁布禁令。在幕后阻挠的恰恰是在将人工智能与作战装备相融合方面领先的国家。最近,有100多名专家在一封公开信中写道,杀人机器人是在火药和核弹之后的第三次作战革命。如果新武器落入暴君和恐怖分子手中,等待人们的将是彻底的恐怖。

2017-11-16 09:31:00

外媒:装备多型武器乌“机器人战士”明年或上战场

参考消息网1014日报道

外媒称,我们即将进入机器人战争的时代了吗?据防务一号网站报道,乌克兰军队领导人9日在华盛顿特区召开的美国陆军协会年会上,骄傲地展示了他们的“幻影”机器人。这种机器人尚处于试验阶段,但据报道最早可能于明年投入乌克兰境内的战场。

据美国《新闻周刊》网站1011日报道,“幻影”机器人可以根据地形配备车轮或坦克式履带。它还能装备反坦克武器、榴弹发射器或机枪。

报道称,该机器人还配备了备用微波通信线路,即使与操作者的连接被阻或遭到黑客袭击也能继续运转。

几十年来,无人驾驶地面车辆已经被用于各个冲突地区的拆弹任务,但是为之装备武器还是相对较新的概念。相比之下,无人驾驶航天器——通常是指无人机——已经作为武器用于作战行动,特别是美军。

报道称,俄罗斯斥巨资研制各种武装无人驾驶地面车辆。比如在叙利亚,俄罗斯用上了“天王星-6”机器人,这是一种可以协助排雷、拆除路边炸弹和未爆炸弹药的无人驾驶地面车辆。俄罗斯还研制了体积更大的无人驾驶地面车辆“天王星-9”机器人,用于作战行动。“天王星-9”机器人装备了一门30毫米口径炮、一架7.62毫米口径机枪和反坦克火箭。俄罗斯认为在不久的未来,“天王星-9”能用于叙利亚战场。

报道称,随着机器人战争变得越来越常见,专家警告说,我们对这种技术利用的整体影响还不甚了解。

另据英国《每日邮报》网站1013日报道,乌克兰军事官员公布了一款可以改变行进模式、甚至更换所携带武器种类的作战机器人。

报道援引防务一号网站消息称,“幻影”地面机器人可装配坦克式履带或6个轮子,还能携带反坦克武器、榴弹发射器或机枪。

“幻影”机器人一次可行驶20公里,最高时速可达38公里。这种多用途机器人可以使用安全的无线电频道进行遥控操作,或是使用5公里长的光缆,配备昼夜瞄准系统,可以朝1公里开外的目标开火。

乌克兰国防工业公司负责人罗曼·罗曼诺夫去年谈到这项技术时说:“无人驾驶多用途战术车辆‘幻影’机器人是应对技术时代的挑战,顺应时代要求而创造出的全新武器装备种类:它无人驾驶、多功能,并且能承担现在只能由军人承担的具有生命危险的任务。”

防务一号网站报道称,本周在华盛顿参加机器人演示的官员说,这种新型地面机器人可能用于乌克兰同俄罗斯支持的部队作战。

报道称,俄罗斯也有地面机器人,但尚未表示准备进行部署。

隶属美国海军分析中心的国际事务集团副研究员塞缪尔·本德特告诉防务一号网站:“乌克兰冲突的有趣之处在于,研制自认为有助于作战行动的无人驾驶系统的居然是乌克兰一方。‘幻影’机器人就是这样一种系统。”

2017-10-14 11:38:03

外媒:机器人武器技术发展迅速《终结者》剧情或成真

参考消息网1010日报道

日本《日本时报》网站920日发表了彼得·阿普斯的题为《为即将到来的机器人军备竞赛做准备》的报道。

俄罗斯正在北约东部边界举行最新的“西方-2017”军演。数以万计的士兵正参与这场4年一度的大规模军演,这既是一场演习,也是向西方展示军力。下一次到2021年,这些军人可能要和一种不同类型的力量分享他们的战斗空间:无人驾驶无人机、坦克、舰船和潜水器。

无人机战争不是什么新概念——200110月,美国无人机在阿富汗发动了首次致命袭击。不过如今,这种无人驾驶系统在缺乏人工控制的情况下自动操作的能力正在快速发生变化。

这是一个真正革命性的转变——每一个大国都想占据领先地位。长久以来,批评人士担心各国可能更愿意让无人系统去参加战争。现在,有些人认为这样的风险是真实存在的,它可能会超出人类的掌控范围。

科技企业家伊隆·马斯克长期以来警告说,在人工智能方面,人类可能会面临一些灾难性的错误。他在上个月进一步警告说,自动武器平台的发展可能会引发潜在毁灭性的军备竞赛。

似乎是为了支持马斯克的观点,俄罗斯总统普京在之后不久向学生表示,他认为这种技术将成为改变游戏规则的东西。普京明确表示,俄罗斯将在这方面投入资源。媒体援引普京的话说:“这个领域内的领导者将成为世界的统治者。”

中国也在推进这方面的研究。一些专家认为,在研发自主无人机集群方面,中国现在是全球的领导者。

无人机已经能够实现独立飞行,一旦与人类飞行员失去联系的话,它们仍可以保持空中飞行。很快,它们也许能作出自己的战术决策。这个夏天在美国佐治亚理工学院,研究人员编制程序,让一些轻型无人机集群自己在空中进行混战。美军正在尝试类似的产品。

那意味着一名操作人员就能指挥许多许多无人机——或者说,这些无人机可能根本不需要人工直接监督。

在机器人技术上,比这些更重要的可能是人工智能的更广泛发展。这不一定会让战争变得更致命——从无人机上投放下去的炸弹本身不会比有人战机投放的炸弹更致命。尽管精确度提高可能会减少伤亡人数,但一些分析人士担心新型无人驾驶系统带来的变化可能会助长新的冲突。

今年7月,哈佛大学贝尔弗中心为美国情报界撰写的一份报告认为:“激进的技术变革会引发激进的政府政策理念。”报告警告说,事实可能会证明,一场“不可避免”的人工智能军备竞赛带来的冲击力并不比发明核武器小。

人工智能可以大幅提高监控技术的效率,单个系统也许可以监控数百万的数字对话、被入侵的个人设备和其他信息来源。其带来的影响是非常可怕的,特别是在少有或没有民主监督的国家手里。

最近在英国的一个小组讨论会上,英国特种部队前指挥官格雷姆·兰姆中将预计,到2030年技术突破——不仅仅是人工智能,还包括量子计算和其他技术——将带来完全不可预测的变化。他指出,特种部队小组很可能有与之配合的机器人和人工智能设备——美国陆军称之为“有人/无人组队”。

这听起来像是科幻小说里的内容——或许看上去也像科幻小说里的东西。去年,俄罗斯公布了一款名为“费多尔”的人形超级机器人。大多数国家刻意隐瞒本国军队在人工智能上的发展,这最终可能会引发马斯克警告中所提到的军备竞赛。一些科学家已经在担心,阿诺德·施瓦辛格主演的电影《终结者》可能会在真实世界中上演。在这部电影中,美国把主要军事系统的控制权交到人工智能“天网”手里。(天网担心其人类创造者可能会选择将它关闭,所以立即对人类发起全面核攻击。)

就目前而言,西方国家看起来至少热衷于在“杀伤链”中保留人类的位置。不过并非所有国家可能作出这样的选择。长期以来,俄罗斯一直有着信任机器超过人类的名声,一度甚至考虑倘若俄罗斯的指挥结构被对方率先发起的攻击摧毁的话,就利用自动化系统来发射核武器(即“死亡之手”系统)。

在军队之外,有证据表明人工智能运算法则已经让它们的创造者感到惊慌不安。今年8月,脸书网站关闭了一个人工智能实验,因为实验中的智能机器人开始用人类无法理解的语言来相互沟通,造成项目失控。

这会是普通人类战士的结局吗?几乎肯定不会。甚至有人争辩说,更复杂的高技术战场可能需要更多士兵,而不是更少。

机器人系统可能易受黑客入侵、干扰,甚至通过电子战就能使其无法操作。在伊拉克,这样的技术使得以美国为首的部队能在很大程度上让IS极端组织使用的无人机失效。在乌克兰,俄罗斯使用类似的技术来对付西方生产的无人机。

武装部队——就像许多行业一样——押注自动化系统的趋势令人感到担忧。英国的新航母严重依赖自动化系统来管理武器装备和损坏控制。跟比它稍大一些的美国航母相比,其部署的船员只有后者的一小部分。俄罗斯的最新坦克——T-14“阿玛塔”主战坦克——装备了无人自动炮塔。这些技术具有明显的优势,但也意味着用电子设备来进行干扰可能会让它们变得毫无用处。

无论其是好是坏,这种技术正在变成现实。事实上,即便是相对较老的军事装备也越来越多地被改造。俄罗斯的工程师向我们展示,他们可以对20年前的T-90坦克进行改造,以实现远程遥控。

具有讽刺意味的是,半岛危机提醒我们,最危险的技术可能仍然是70多年前发明的——核武器和运载它们的导弹。即便人类可以避开核武器带来的世界末日,即将到来的人工智能和机器人革命也可能给人类的生存带来同样严峻的挑战。(编译/杨雪蕾)

2017-10-11 00:16:01

英媒:联合国忧机器人破坏世界稳定

参考消息网929日报道

英媒称,联合国在启用设在荷兰海牙的一个监视人工智能发展状况的总部前夕警告说,机器人可能破坏世界稳定。

据英国《卫报》网站927日报道,联合国为这个新设立的人工智能和机器人技术中心设定的目标是预测可能的威胁,包括大规模失业的危险、犯罪组织和无赖国家利用自主机器人技术等。

据普华永道会计师事务所说,英国估计有30%的就业岗位受到人工智能领域突破性发展的潜在威胁。在某些行业,一半的就业岗位会丢失。国际律师协会最近的一项研究结果宣称,机器人技术有可能迫使政府就雇用人类工作者的比例立法。

与此同时,美国、中国、俄罗斯和以色列等国都在寻求发展智能武器技术,即能够独立组织行动,无需人工控制的武器。

联合国区域间犯罪和司法研究所高级战略顾问伊拉克利·贝里泽说,新团队将力争就如何利用该领域的进展帮助实现联合国目标提供建议。他还说,必须应对与人工智能技术发展相关的巨大风险。

贝里泽对荷兰《电讯报》说:“如果社会适应技术发展的速度不够快,就可能产生不稳定。我们最重要的任务之一是设立一个专家网,这些专家来自商业、研究所、民间组织和政府。我们当然不想禁止或者阻碍这些技术发展。我们还将探索新技术如何能够帮助实现联合国的可持续发展目标。为此,我们希望启动具体的项目。这里不会是一个清谈馆。”

8月,100多位机器人技术和人工智能领域的领导者,其中包括创建特斯拉公司的亿万富翁埃隆·马斯克,敦促联合国采取行动防范武器装备使用人工智能技术的危险。他们有时将这种武器装备称作“机器人杀手”。

他们撰文说:“致命性智能武器有可能引发第三次‘战争革命’。一旦开发,它们就有可能导致空前规模的武装冲突。它们可以是恐怖性杀人武器、暴君和恐怖分子用来对付无辜民众的武器和搞破坏的黑客工具。”

去年斯蒂芬·霍金教授警告说,强大的人工智能将被证明“要么是发生在人类身上的最好事情,要么就是最糟糕的事情”。

2017-09-29 13:42:11




https://blog.sciencenet.cn/blog-226-1100708.html

上一篇:锻造战斗力的练兵应如何确定和培训红、蓝?
下一篇:美澳日印要借经济项目巩固建立军事政治联盟反对中国
收藏 IP: 111.196.66.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-19 18:18

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部