然而,进入21 世纪以来,在国防以外的领域,我们所看到的行业,如汽车领域大互联网服务供应商和企业,正在ai发展上做出显著的贡献。这些发展具有重要意义,因为它们可以提供如何进一步改善无人系统自治的解决方案,并提高我们在军事指挥和控制(c2)系统内更好地处理大量信息和数据的能力。
本文的目的是提供对ai、当前发展以及军事应用可预期的现实进展的基本了解,其中包括与空中力量、网络、c2、培训和人机组合相关的示例。虽然关于人工智能使用的法律和道德问题不容忽视,但有关这方面的细节不在此讨论,因为本文主要关注技术成就和未来概念。当然,文章也会涉及指挥官需要关注的此类ai应用程序的可靠性和信任问题。
人工智能是什么以及不是什么定义ai的概念随着时间的推移而发生了变化。从本质上讲,人们一直认为人工智能是机器所展示的智能,与人类和其他动物展示的自然智能相反。在通用语言中,当机器模仿归因于人类思维的认知功能(例如学习和解决问题)时,应用术语ai。研究人员、公司和政府使用了许多不同的人工智能方法,目前机器学习和神经网络目前处于最前沿。
随着计算机和高级算法变得越来越强大,最初被认为需要ai的任务经常从列表中移除,因为所涉及的计算机程序没有显示智能,而是处理对预定和有限的输入集的预定且有限的一组响应。他们不是“学习”。截至2018年,通常被归类为ai的功能包括成功地理解人类语音、在策略游戏系统(例如国际象棋和围棋)中的最高级别竞争、自治系统、内容传递网络中的智能路由以及军事模拟。此外,工业界和学术界普遍认为图像识别作为人工智能的尖端技术取得了重大进展。
虽然这种已知的和“应用ai”系统通常非常强大,但应该注意它们通常是高度专业化和严格的。他们使用的软件工具仅限于在特定环境中学习、推理和解决问题,并且无法动态适应新情况。这导致了术语“弱ai”或“窄ai”的出现。与“强ai”相比,弱ai不会尝试执行全方位的人类认知能力。相比之下,强大的人工智能或“通用人工智能”是能够成功执行人类任何智力任务的机器智能。在强人工智能的哲学中,软件之间没有本质的区别,即人工智能完全模仿人类大脑的行为,以及人类的行为。在学术圈子里,但是,大多数人认为我们几十年以后才有可能成功开发这种“通用ai”的能力。
训练和运动的军事模拟许多“弱ai”应用程序开始出现在20世纪70年代末/ 80年代,其中一些用于军事模拟系统。例如,美国国防部高级研究计划局(darpa)资助了一个名为模拟器网络(simnet)的原型研究计划,以研究为装甲车辆操作员创建一个具有成本效益,实时和分布式战斗模拟器的可行性。到1988年,半自动化(saf)或计算机生成力(cgf)能力可用于支持更复杂和现实的运动场景,模拟侧翼和支持单位可以在很少的人力资源需求下进行管理。
同时,各个国家和公司开发了自己的saf / cgf或建设性模拟器,其中大部分具有广泛的互操作性,可以连接到其他实时、虚拟和构造(lvc)模拟环境。例如,北约空中力量正在通过分布式仿真(mtds)的任务培训来利用这些能力,这已经证明了多种类型的机组人员模拟器和培训中心之间的可靠连接和有益的培训机会。此外,自2001年以来,指挥与控制 - 仿真互操作(c2sim)数据交换标准为现有的指挥与控制、通信、计算机和智能(c4i)系统提供了在与真实单元和系统交互之间切换的潜力,包括机器人和自主系统,模拟部队和系统。
从远程控制到自治物理系统近几十年来,无人驾驶车辆研究使得最先进的远程操作在民用和军用应用方面取得了显着进展。然而,人工智能的发展现在提供了前所未有的机会,超越远程控制并建立自动化系统,要求人类操作员直接控制得更少。自动系统开发的示例包括民用交通和运输部门中的自动驾驶汽车,火车和运输系统。
同样,军方正在开发自动进行常规车辆操作的系统。例如,到2014年,美国海军x-47b计划开发了一种无人作战飞行器(ucav),该飞行器完成了大量的航空母舰弹射器起飞,回收和触地飞行着陆,只需人工监督。2015年4月,x-47b成功进行了世界上第一次全自动空中加油。
然而,自治系统进行的作战行动因各种法律和道德问题而变得极为复杂,这些问题过于复杂,无法在本文中详细讨论。此外,军事指挥官需要问自己,他们希望在启用ai的自治系统能够做到的事情中有多少信任。与远程操作员相比,它在持久性,精确性,安全性和可靠性方面有多好?当谈到地面上的动能目标时,任何时候能够进行干预的“人在环路”可能仍然是必需的。
相反,在空对空作战领域,关键决策的毫秒长时间框架阻碍了远程ucav的运行,最近又出现了一个有希望的飞跃。2016年,由美国空军研究实验室(afrl)资助的另一种方法导致了“alpha”的创建,这是一种基于高性能和高效“遗传模糊树”的ai代理。在飞行模拟器测试期间,它在各种空对空作战情景中不断击败经验丰富的作战飞行员,这是以前ai支持的战斗模拟器从未实现过的。虽然目前是模拟工具,但alpha的进一步发展旨在增加物理自主能力。例如,这可以允许有人和无人战斗机机身的混合作战团队在高度竞争的环境中操作,如下面进一步描述的。
人机组合
自主物理系统和人员控制车辆的军事行动的变化是有人无人合作(mum-t)概念,领导者认为这是未来在所有领域的军事行动的关键能力。一些国家目前正在测试和实施各种配置,以改善以下方面:飞行员的安全,态势感知,决策和军事航空的任务有效性。美国陆军已经进行了一段时间的mum-t - 最着名的是涉及控制无人驾驶的mq-1c灰鹰的阿帕奇直升机飞行员 - 陆军将为mum-t进一步发展其多域作战概念指定更广泛的角色。
美国afrl一直致力于“忠诚僚机”概念模型,载人指挥飞机与无人机配对,作为僚机或侦察机。在2015年的现场演示中,改装的无人驾驶f-16与编队飞行中的载人f-16配对。在2017年的实验中,无人驾驶的f-16攻击地面上的模拟目标,修改其飞行模式以应对模拟威胁和其他不断变化的环境条件,并重新进入有人驾驶飞机的编队。美国空军的规划预计将来的应用与载人f-35联合攻击战斗机与这样一个无人驾驶僚机配对。
然而,在上述测试场景中,无人驾驶f-16仅基于一组预定参数进行半自主操作,而不是为自己做太多考虑。具有更高要求的ai要求的下一个技术航路点将是“植绒”。这与“忠诚僚机”概念截然不同,因为一群可观察数量的无人机(通常由六到二十几架飞机组成)执行更抽象的指挥官的意图,而指挥飞机不再直接控制机群中的单架飞机。然而,指挥飞机仍然可以识别地层的离散元素并指挥来自单个资产的离散效果。afrl于2018年3月发布的一则未来视频显示f-35a与六个隐形ucav一起工作。afrl还发布了xq-58a“valkyrie”概念(以前称为xq-222),这是一种多功能无人驾驶飞机,团队成员目前正在为一个名为低成本航空飞机技术(lcaat)的项目进行开发。
第三个航点“群集”超过了植绒的复杂性,因此操作员无法知道任何离散群元素的位置或个体动作,并且必须在聚合中指挥群体行为。反过来,群体元素将完成大部分战斗工作。例如,2016年10月,美国国防部展示了一群103架“perdix”自主式微型无人机从战斗机中弹射出来。该群成功地展示了集体决策,自适应编队飞行和自我修复能力。虽然主要不是攻击性工具,但这种无人机群体有多种用途,包括侦察和监视,定位和追捕目标,或进行电子战措施。此外,通过伪装成更大的目标,群体可以充当消耗性诱饵来欺骗敌人的防空系统。
网络和信息行动的演变人工智能和自动化在网络系统中的应用是进化和优势的最直接的舞台。网络领域的本质编码性质、数据量以及连接最强大的硬件和算法的能力以及极少的约束创建了一个人工智能可以快速发展的环境,ai代理可以快速优化其分配的任务。随着机器学习和人工智能的不断增长,“寻找弱点”将自动化,而且至关重要的是,它将比人为控制的防御能够响应更快。
然而,迄今为止,人工智能方法未能在网络安全方面取得重大进展。虽然该行业成功应用深度神经网络和自动异常检测来发现恶意软件或可疑行为,但核心安全运营商的工作(如监控,分类,范围和补救)仍然是高度手动的。人类有直觉找到新的攻击技术和创造力来调查它,而机器更善于收集和呈现信息。
ai支持c2和决策军事总部基本上已从纸质工作流程转向基于电子工作流程。反过来,这又增加了信息感知,但也增加了工作人员必须管理的数据量。未来的情报,监视,目标获取和侦察系统将产生更大量的(近)实时数据,如果没有自动支持,几乎不可能处理这些数据。与此同时,将出现越来越先进,网络化,联合和多领域的能力,一个国家或国家联盟将拥有这些工具用于他们自己的业务。对于指挥官有效协调这种环境中的行动,他们需要对可能的行动方案(coa),其影响和后果进行情境理解和决策支持。改进了数据管理和互操作性,数据融合,自动分析支持和可视化技术对于实现可管理的认知负载和增强决策至关重要。这些关键能力不仅适用于指挥官和总部工作人员,也适用于平台操作员,士兵和支援人员。
除了传统的算法,模拟和人工智能被设想为可以增强决策的工具。然而,相关的研究和开发仍处于起步阶段。直到最近,在2017年,北约科学和技术组织才将“使用大数据和人工智能工具进行军事决策”作为其主要主题之一。在征集论文后,该组织收集了许多学术和专家意见。为了更好地定义任务,其中一些输入是通过打破john boyd众所周知的observe-orient-decide-act(ooda)循环(一种通常包含不同类型的军事决策过程的抽象模型)开始的 - 然后分配未来所需的每个ooda步骤的ai角色和功能。
观察(感知)。从各种传感器收集数据,包括社交媒体分析和其他形式的结构化和非结构化数据收集,然后验证数据并将其融合到统一视图中。这需要一个强大的,可互操作的it基础架构,能够快速处理大量数据和多个安全级别。
展示(情境理解)。应用大数据分析和算法进行数据处理,然后根据人类可消化的浓缩统一视图进行数据呈现,以便及时抽象和推理,但足以提供所需的详细程度。这应该包括情况,资源(时间表,能力,活动的关系和依赖性)和上下文(行动点和效果)的图形显示。
生成(计划生成)。提供及时,简洁的情况观点,可能的对手coa和推荐的自己的coa,包括对支持决策的潜在后果的建议。为此,必须能够评估和验证ai的可靠性,以确保可预测和可解释的结果,使人们能够正确地信任系统。
决策。随着人工智能越来越先进和/或时间压力增加,人们可能只被要求批准预先编程的行动,或者系统将采取完全自主的决定。对此类ai的要求必须严格,不仅因为应该防止不需要的错误决定,而且因为人类通常在法律上和道德上对系统采取的行动负责。
图1:ai支持的ooda决策周期的系统视图。(资料来源:北约科学技术组织sto-mp-ist-160,japcc重建图形。)
总结和结论新的人工智能技术不仅具有潜在的好处,而且还有必要时需要评估和减轻的缺点和风险。人工智能的本质 - 一种确定最佳行动然后追求它的机器 - 可能使其难以预测其行为。弱ai系统的特定性质特征意味着它们被训练用于特定任务,无论是下棋还是解释图像。然而,在战争中,由于“战争的迷雾和摩擦”,环境迅速变化。人工智能系统必须在高度非结构化和不可预测的环境中工作,并且反对者故意试图破坏或欺骗它们。如果给定ai系统的应用设置改变,则ai系统可能无法适应,因此增加了不依赖的风险。在作战环境中,军队需要在可靠性和信任的基础上运作。因此,如果人类操作员,无论是在静态总部还是战场指挥所,都不知道ai在特定情况下会做什么,可能会使计划复杂化,使操作更加困难,更容易发生事故。
人工智能系统越来越多的功能不会受到可以做什么的限制,而是受到参与者信任他们的机器的限制。我们的ai系统越有能力,它们进行本地处理和响应更抽象,更高级别命令的能力就越强。我们对ai的信任度越高,维护系统控制所需的数字连接水平就越低。在此背景下,制定适当的标准,有力的保证,认证制度以及展示有意义的人力责任的有效机制至关重要。
话虽如此,军事ai应用程序的重要要求可能会使民用技术不合适或要求实施变更。此外,进一步的道德和法律问题往往会发挥重要作用。因此,国防组织将不得不做出艰难的选择。一方面,他们必须从快速的技术开发中受益,另一方面,明智地选择投资点,以确保应用程序适合军事用途。
人工智能技术已经成为数字化转型的关键,因为组织将自己定位为利用不断增长的数据生成和收集。大数据和人工智能技术目前正以惊人的速度发展,对战略,战役和战术军事决策过程具有重大潜在影响。因此,联盟及其对手的运营利益可能是巨大而多样的。然而,尚未预见到ai增强技术的全部潜力,并且需要时间来使能力成熟。