登录注册
解放军报聚焦:生成式AI如何影响未来战争
戈壁淘金
只买龙头的老司机
2023-04-18 09:17:34

近段时间,人工智能程序ChatGPT因其“博学多识”“有问必答”走红网络。以ChatGPT为代表的生成式AI有着强大的内容生成能力和直逼人类的“聪明”程度,将其应用于军事领域,势必会对未来战争产生影响。

明显提升战场感知力。未来战争中,各类新型快速杀伤武器将进一步加快战场节奏,要求不断提升战场态势感知能力,进而支撑起适应战场需求的快速决策。在充满“迷雾”的战场空间里,面对海量多源、复杂异构且快速增长的战场态势数据,人类感知速度和处理能力显得有些“迟缓”。近年来推出的视觉大模型架构,通过无监督预训练和人类反馈的强化学习范式,已在图像分类、目标检测、语义分割、姿态估计、图像编辑以及遥感图像解译等多个领域取得突破,可以显著提升战场感知力。嵌入视觉大模型的智能武器,可以通过视觉系统精准辨识和区分打击目标的主次、真伪,能从海量多模态数据中快速提取、生成高价值情报,减轻作战人员的认知负荷,形成对态势全面、及时、准确的判断。利用生成式AI的感知优势实现对要害节点的精准定位,或许将是未来发起作战行动的前提。

大幅度推进人机交互。人机交互可以让机器“听”懂人类语言、“看”懂人类动作与表情、“理解”人的情绪和意图,并把计算过程和结果用人容易理解的方式呈现出来。语言大模型不仅能够在情感分析、语音识别、信息抽取等文本理解场景中表现出色,而且同样适用于图片描述生成、书稿生成、对话生成等战场信息系统可视化生成场景。如果再将其嵌入一体化联合作战系统并持续迭代进化,可以用于想定编写、作战方案生成、演习结果讲评等较为复杂的工作,在未来战争中或将重塑指挥决策流程。将ChatGPT类生成式AI应用深度嵌入指挥信息系统中,可以让智能装备“听懂”指令,通过指挥员与战场信息系统人机对话,准确理解分析指挥员作战需求,并在此基础上生成行动参考方案,为在未来战争中快速、合理配置作战力量提供全新手段。

助推指挥决策自主化。信息化智能化战争,参战力量多元、作战样式多样、战场形势多变,指挥员有效指挥战争面临智能不足的“瓶颈”,借助决策大模型智能辅助系统,“人-机”混合决策模式或将成为一种新的选择。虽然从目前的技术水平来看,ChatGPT类生成式AI应用仍无法进行机器控制、群体协作、动态调度等操作。但其强大的并行处理能力,能够同时处理上千个任务,适用于融合控制有人/无人平台,生成控制算法、优化群体行为,可全面支撑“蜂群”“鱼群”“狼群”作战多智能体。基于决策大模型的指挥控制系统,可以充分发挥人脑和人工智能两者的优长,实现从智能预测到智能决策、从控制单智能体到多智能体的跨越。未来战场上,将生成式AI嵌入到无人作战平台中,可创新军事行动新范式,大幅提高作战效能。

催生后勤保障新模式。从科技发展维度来看,军事力量对抗日益向物理域、信息域和认知域全维度拓展,作战空间向极高、极远和极深全方位延伸,相应的后勤保障任务也变得更加多元复杂。未来战场上,将多任务通用大模型综合集成到无人作战平台和各类保障系统中,人、装、物泛在互联,各类作战、保障实体将有机融为一体。后勤保障系统通过对在储物资数量、时间、保养情况等大数据深度学习分析,实现人与物资、物资与装备、物资与部队、物资与地区的智能匹配,并自动预测物资需求、匹配最佳运载工具,制定最优运输方案、及时解决战场物流供应链路中出现的问题。特别是面临复杂地形、沾染区、火力控制区等人员难以到达的极限战斗保障,在特殊任务训练样本大量预训练基础上,生成式AI能够实现需求感知、资源调配和行动控制上的变革,自主分配任务、自主规划路径、自主导航定位,将保障物资以“点对点”的方式直达精确配送给保障对象,实现智能保障。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
观想科技
S
华如科技
S
景嘉微
工分
6.39
转发
收藏
投诉
复制链接
分享到微信
有用 7
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(5)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-04-18 09:18
    这个题材可挺大,采购量惊人
    0
    0
    打赏
    回复
    投诉
    于2023-04-18 09:19:43更新
    查看1条回复
  • 只看TA
    2023-04-18 15:54
    感谢分享
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-04-18 13:56
    谢谢
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-04-18 12:18
    感谢分享
    0
    0
    打赏
    回复
    投诉
  • 1
前往