发布时间:2026-02-06
信息来源:科技日报
字体:
大
中
小
打印
发布时间:2026-02-06
信息来源:科技日报
近日,美国国防部正式推出GenAI.mil平台。该平台旨在将谷歌“双子座”(Gemini)等商用生成式AI安全地引入国防体系,通过鼓励相关人员优先使用AI技术,扩大AI技术在军事领域的应用范围。
相关技术持续突破
生成式AI的相关技术正在持续突破,其在军事领域的应用也从简单数据处理升级为辅助军事决策,未来有可能重塑现代军事决策的流程与范式。
生成式AI之所以能够参与到军事决策中,是因为它能依托数据展开训练学习、内容生成及迭代优化,打破了传统AI仅仅能对数据进行被动分析的局限。基于海量军事数据,生成式AI可以生成与决策相关的重要内容。未来,这一技术可渗透到态势感知、情报侦察及作战指挥等多个环节。
正因如此,多国将其作为推动智能化转型的抓手,积极进行探索。
在高级别兵棋推演中,美军曾系统性测试生成式AI系统“多诺万”。
2025年5月,瑞典萨博公司与德国赫尔辛公司合作,在3次“超越计划”飞行测试中,成功展示了机载“半人马座”AI智能体指挥“鹰狮E”战斗机的能力。在首次飞行试验中,“半人马座”AI智能体在超视距作战环境下,自主完成复杂机动并引导飞行员开火。赫尔辛公司副总裁表示,AI智能体在第3次测试中仅用几个小时,就积累了人类飞行员约50年的飞行经验。
再比如,2023年10月以来,以色列国防军在加沙军事行动中使用“薰衣草”(Lavender)人工智能决策支持系统,它通过分析多源情报数据,识别潜在打击目标。该系统还可整合地理空间情报、信号情报、人力情报及开源信息,运用生成式AI技术分析个体行为模式与通讯特征。据报道,仅在冲突爆发后六周内,“薰衣草”就标记了约3.7万个潜在目标,极大提高了目标侦查效率。
潜在瓶颈不容忽视
尽管生成式AI在辅助军事决策方面展现出较大潜力,但其发展和应用仍面临一些挑战,主要包括:相关技术存在“黑箱效应”与“幻觉问题”;战场数据受保密性、稀缺性限制,AI辅助决策存在安全风险;在伦理方面,AI辅助决策缺乏明确准则,责任界定模糊。
在这些问题中,“幻觉问题”尤为关键——即模型会无中生有或歪曲事实。这与军事决策的“零容错、高透明、强关联”等核心要求不相容,可能引发巨大风险。
具体而言,生成式AI虽然能够快速生成“决策方案”,但其对关键细节的把握仍然可能失准。在实战环境下,生成式AI极有可能带来目标识别失效、打击精度不足、作战方案失败等重大风险。
未经军事场景专项训练的生成式AI,容易输出看似正确却毫无依据的决策建议。而指挥员在决策环境下往往处于高压状态,更易被其“逻辑严密的错误”内容误导。
而且,生成式AI的“黑箱效应”让决策者难以追溯其错误根源,这可能进一步加大决策风险。此外,生成式AI多依赖演训数据训练,而演练本身与真实战场在对抗性、复杂性方面存在难以逾越的鸿沟。这导致生成式AI在面对未知场景时,更易产生“莫名其妙的幻觉”。
人机协同大有可为
生成式AI与人的协同合作,能够实现“优势互补、权责清晰”的目标,应当成为生成式AI辅助军事决策的发展方向。
对于常规性低风险场景,生成式AI可辅助进行决策信息的生成与整编。对于比较复杂的决策场景,可利用生成式AI生成多套方案并反复推演,由指挥员参考有关方案建议进行最终决策。如北约“雅典娜”系统与指挥员的协同就属于此种类型。在“刺猬-25”军演中,它5分钟生成10套作战方案,供人类指挥员评估并选择,极大提升了决策效率。这也应该是未来生成式AI辅助军事决策重要的方式。
总而言之,生成式AI辅助军事决策,有巨大潜力,也是发展趋势,受到各国军方的高度重视。随着生成式AI在数据、模型架构、推理机制及验证体系等维度的优化,未来其必将在军事决策辅助领域发挥更大价值。
然而,如何突破“黑箱效应”“幻觉问题”等技术瓶颈,提升生成式AI的可靠性和安全性,并完善数据安全管理制度和伦理规范,明确生成式AI军事应用的边界和责任,也是必须考量的重要方面。
相关人物