本篇文章2631字,读完约7分钟

据报道,俄罗斯军方目前正在应用人工智能和大数据技术来测试软件的使用,以取代士兵在作出作战决策,以应对突然的军事打击。对于拥有大量黑客和数学家的“战斗国家”,在战争中使用机器和程序并不奇怪。人工智能在战争中的应用一直是人们关注和争论的焦点。

对此,军事专家陆离表示:“从技术上讲,这种机器启动自己的防御反击模式并不困难。事实上,它已经被用于许多反0+和反导弹预警系统。目前,机器之间已经实现了基于规则的多平台协调。在许多反0+和导弹防御系统操作员和系统合作并识别和确认敌人目标后,他们发射自动拦截器,然后系统自动探测和拦截目标。”

国防科技大学的军事专家史海明副教授告诉记者:“在智能战争时代,智能系统应该是人类的补充。人工智能的更大价值是从高层次介入战争,并协助指挥和控制行动。”

智能战争的帷幕已经逐渐拉开。

目前,虽然信息战在军事领域仍占主导地位,但智能战的帷幕已经逐渐拉开施海明指出,将人工智能应用于作战是有先例的。武装机器人系统和广泛使用的无人驾驶飞行器的层出不穷就是最明显的例子。“从表面上看,当大国竞争变得重要时,情况似乎很平静,但越来越多的无人驾驶和智能作战武器和平台使用了尖端技术。”

人工智能与战争:“爱与杀”的悖论?

例如,成功起飞并降落在几艘美国“尼米兹”级核动力航空母舰上的X-47B侦察和打击一体化无人驾驶飞行器具有强大的隐身能力,完全由计算机控制,无需人工干预。

石海明说,近年来,人工智能的发展方向发生了很大的变化,即智能的发展是以密集计算和数据驱动为基础的。如果计算机系统能够基于大数据和深度学习,它将对人类有很大的价值。这种方法与科学家以前试图模拟人脑的思维过程来创造人工智能的尝试大相径庭,而传统的方法进展缓慢。

对此,陆离表示,就大数据而言,还没有关于其在实战中使用的官方报告。即使在北约内部演习中,大数据技术也没有用于分析和决策。但在非战争军事行动中,大数据技术早已被广泛使用。特别是在反恐领域,利用大数据筛选可疑分子,降低恐怖袭击的风险已经成为日常反恐的重要手段。

在2013年波士顿马拉松爆炸案中,恐怖分子使用高压锅和背包作为攻击工具。事后,有人在网上同时搜索了上述两个工具。警方立即利用大数据技术捕捉相关信息,然后调查搜索者的目的,大大降低了恐怖袭击的风险。

机器不能完全取代人类的决策

据俄罗斯军方透露,一些专家认为,上述应用程序有利于独特的作战规划,并能推断出现代海战武器的用途。机器真的能代替人类做出操作决策吗?

陆离说,人工智能在战争指挥和作战规划方面不断取得突破。过去,计划20分钟的大规模空操作需要40-50人12小时,但该计划预计在采用自主技术后1小时内完成。

记者了解到,美国国防高级研究计划局(DARPA)开发的“深绿色”系统是人工智能介入战争指挥最著名的系统。五角大楼正试图复制打败人类棋手的超级计算机“深蓝”。它已经使用计算机创建了一个智能辅助系统来帮助指挥官做出决策。随着作战过程的不断调整和改进,作战效率得到了极大的提高。然而,经过多年的发展,项目主体已经暂停。

人工智能与战争:“爱与杀”的悖论?

对此,施海明指出,目前最需要的是上级的指挥控制系统。美国军方发起的第三个“反制战略”也认为,以智能部队、自主装备和无人作战为标志的军事变革风暴即将来临。为此,美国将通过开发智能作战平台、信息系统和决策支持系统,以及定向能、高超音速、仿生、基因和纳米武器等新型武器,到2035年初步建立智能作战系统,从而为主要对手形成新的军事“代沟”。到2050年,智能作战系统将发展到高级阶段。作战平台、信息系统和指挥控制将完全智能化,甚至无人化,从而实现一场真正的“机器人战争”。

人工智能与战争:“爱与杀”的悖论?

“当然,为了实现人工智能与更高级别的作战系统的集成,必须结合更多的智能技术,如超级计算机沃森的基于自然语言的知识获取和统计推理技术,以及超级计算机深蓝的规则驱动的暴力搜索技术。”施海明。

然而,陆离认为,这并不意味着机器可以完全取代人类在重大攻击中的决策。在目前的人工智能水平上,机器对目标和威胁的判断相对简单和初级,对关键点判断的可靠性难以保证。

例如,陆离表示,2016年6月,一艘英国潜艇上的三叉戟二号-D5潜射洲际导弹被误射到美国本土。联合王国立即将这一情况通知了美国。在收到消息后,美国发现原本应该自动搜索和响应的本土反导弹系统没有响应。幸运的是,导弹没有配备核弹头,最终在美国西部无人地带自毁。

“如果自动反应机制及时反应并运行,它将触发核报复机制,美国核弹将自动向英国发射,后果不堪设想。因此,在机器取代人在重大问题上做出反击决定之前,可能还有很长的路要走。”他说。

关于人工智能武器化的争论仍在继续

陆离指出,机器人代替人执行战斗任务已经成为现实。当前争论的焦点是致命自主武器系统是否被允许。

他说,目前国际人道主义法没有关于这种技术的任何具体规定,国际社会也没有明确支持限制或禁止这种武器系统的条约。1949年签署的《日内瓦战争人道主义公约》要求,任何攻击都必须满足三个条件:“军事必要性、参与者和非参与者之间的区别对待以及军事目标的价值和其潜在附带损害之间的平衡。”目前,自动武器很难做出这些主观判断。学术界对此也一直争论不休。许多重量级科学家反对人工智能武器化。马斯克、霍金和其他人签署了一封公开信,呼吁禁止自动武器。他们甚至说,完全人工智能的发展可能会导致人类历史的终结。

人工智能与战争:“爱与杀”的悖论?

“在无人作战中,战斗的主体远离战场。无人驾驶武器以“不人道”的方式杀人。像电子游戏一样,他们认为生活毫无价值。他们不承担战争危险的伦理性质,也没有任何战争痛苦的情感体验。“孤立因素”区分了战争的发起者和执行者。对此,施海明也表示担忧,“正是因为这个原因,才出现了有关战争责任的伦理问题。自主机器人在战斗中战斗吗?我们应该承担什么样的战争责任?”

人工智能与战争:“爱与杀”的悖论?

施海明说,早在2008年,美国海军研究室就发布报告称,战争中使用的自主机器人不承担法律责任。

“的确,目前机器人不能区分平民和士兵,当然也不能对自己的行为负责。如果军事机器人本身不能承担责任,他们需要他们的“代理人”为他们的战争行为负责吗?这就提出了一个新问题,谁是无人作战中军事机器人的“代理人”?是程序员吗?或者是战场指挥官?对相关战争责任的调查显然已成为一个非常棘手的问题。”他说。

人工智能与战争:“爱与杀”的悖论?

陆离还指出,随着技术的发展,相关的争论可能会变得更加现实和激烈。然而,根据历史经验,人类理性很难阻止新技术军事化的步伐。军事自治时代的到来可能只是时间问题。

来源:联合新闻网

标题:人工智能与战争:“爱与杀”的悖论?

地址:http://www.longtansi.com.cn/news/2380.html