文章      动态     相关文章     最新文章     手机版动态     相关动态     |   首页|会员中心|保存桌面|手机浏览

pnr836

http://fabua.ksxb.net/compnr836/

相关列表
文章列表
  • 暂无文章
推荐文章
联系方式
  • 联系人:王先生
  • 电话:13581417102
DeepSeek等 AI,真能提高军队的战斗力吗?
发布时间:2025-03-26        浏览次数:0        返回列表
图片


为什么会有这个想法?

实际上是近来学习,听了太多智能战争和AI崛起的说法。但我发现大多数的官媒也好、来讲课的专家也罢。对于人工智能如何辅助和提高军事指挥这个问题的解答,也还是都太过笼统了。

           

而下面的内容,也算是我最近学习之余的一点心得体会。

有没有道理,兄弟们权且一听。反正这文章上面是没人看的。

           

图片


首先很多人所不知道的是。

在最近几年,广受自媒体关注的如GPT或者等AI,其实实质它属于“大语言模型”

           

什么叫大语言模型呢?

大语言模型就像个吃了几辈子书的超级话痨。你问它怎么追女生,它就立刻掏出肚子里10086本言情小说的套路。你让它写辞职信,它能马上模仿3000份职场吐槽贴的阴阳怪气。

           

但其实。。。。它压根不懂啥叫辞职,而只是根据你输入的文字,像玩成语接龙一样,来猜下一个最合理的字。

 

图片

          

也就是说,尽管大家在日常使用比如询问这些AI软件时,会感觉它们无所不知,甚至今天的很多自媒体博主和程序员用它们来写作、写代码、编辑应用程序等等。    

           

但根本上来说,它们仍是一个语言文字的处理程序。

举例来说,假设我写下这么一段话:黑白颜色相间的、深受人们欢迎和喜欢的、圆乎乎的

           

对于不同的人来说,可能会想到是熊猫,又或是奥利奥饼干。

而你直接喂给AI,那十有八九,它会出来后者。

       

图片

    

也就是说,无论是GPT还是deepseek,它们是不具备真正意义上的“自主思考能力的”



           

而军事行动中,以OODA循环理论为核心的决策系统。

人,或者说指挥员从收集分析情报、拟定作战计划、下定作战决心到最终付诸执行。

        

图片

   

这里面不仅存在于对信息的收集与处理,同时也存在是对未知风险决策和可能导致风险承担的勇气。这二者合在一起,就形成了人类军事指挥员所独有的“将道”

           

所以,一般来说,尽管杰出的军事指挥强调“有算计的冒险”。然而实际上,即使同一个人来打类似情况的第二场战役,他所做的决策也未必都会是一成不变的。    

           

也从这个意义上来说,人脑的神经元结构,要远比目前的“大语言模型”复杂得多。

       

图片

    

事实上,目前军界普遍认为的“智脑”,更多类似于之前击败李世石的AlphaGo,或者跟RTS游戏《星际争霸2》所用的alphastar等系统相似。


虽然严格来说,它们也还差的很远。。。。。。。。。

 

图片

       

而要解释这点,我们就需要再从两款古老的RTS游戏《帝国时代2》以及《星际争霸1》来说起。

           

对于80、90后的男生来说,相信这两款游戏应该都不陌生。而即便我们排除后来,专门用于编辑AI对战的悍马2000系统(或者说脚本)。

           

不知道有没有小伙伴,曾思考过这么一个问题?

即我们在游戏中,那些与我们对战的“电脑”,它们究竟是否存在“智慧”呢??

           

答案是否定的。

实际上即便后来酷炫的悍马2000,又或者星际争霸2传闻采用的alphastar。


本质上,它们都是通过预设了一套固定的脚本,来实现的似乎精妙非凡的战术动作。    

      

图片

     

也就是说,比如我们在大量《星际争霸1》的AI互搏中会发现。通过玩家编程后的两队“电脑”,在某些时候似乎真的像真人指挥官一样。


能根据对手的情况评估和调整己方生产部队的顺序,以及当小狗在遭遇敌方坦克时,会选择向四周分散,来规避坦克炮的范围杀伤。

           

然而这些看似高大上的“指挥能力”,实际上仍是一套程序员通过提前预设脚本,所编辑好的程序。


比如说,对于我们普通的电脑玩家来说,我们对于屏幕中单位距离的感知,来源于肉眼的直接观察。

           

而在游戏中,则这其实是一套数字代码游戏。

比如说,我们假设坦克架炮后的射击距离是 6 个像素的话,则对于编辑小狗遇到坦克分散时的办法,就是将 6 个像素作为一个固定的参考变量。


由此,也就使得屏幕上的小狗在遇到敌方坦克架炮时,会好似像真实士兵一般的“自动分散开来”

 

图片

          

反过来说,我们在几乎所有电子策略游戏中,所遇到的各种电脑的“策略”。

其实都源于游戏中的电脑,根据玩家阵营的各项数值变化,在达到固定阈值时所进行的特定脚本性行为。

而并非是说,“最高难度的电脑”就真能像玩家间的对抗一样,是通过“中央大脑”在直接收集与处理玩家间的信息后,所进行的“自主决策与自主应对”。    

        

或者我们简单来说,对于一个早上没吃早餐的人来说。他早餐选择包子还是馒头,虽然存在规律,但这个规律并非能100%确定。


而游戏中电脑的反应,则依托于你是否提前给它预设了相关脚本。

           

也正因为此,比如老游戏《星际争霸1》或者《帝国时代2》里面,当玩家们发展到一定程度时,你会发现AI的策略开始变得乏善可陈,甚至于“低能”就是这个原因了。

图片


而且,其实。。。。人类选手也是存在这个套路的。

比如,玩星际或者魔兽这些RTS游戏比较久的朋友都知道,这些游戏是存在一定的发展套路的。


好比星际争霸1中,第8个农民去修兵营,第9个农民修房子,二者几乎可以同时完工。


从这点来说,rts 中玩家跟电脑的对战,电脑从一开始就在“作弊”,它的策略不过是提前根据你的各项数值所编辑好的脚本。


而普通玩家和职业选手的区别则在于,在你眼中,兵就是兵。而职业选手看来,一切都是数据。。。。。。。

           

但当然了,对于我们普通玩家来说,大家仍会惊艳于比如悍马2000刚刚出来时,那些纯Ai的对战,给人十分智能和爽快的对战感受。

           

不过这点又继续引出另一个问题,那既然游戏能通过预设脚本达到这种效果,在军事上是否行得通呢?

           

首先,一般而言,要实现比如《星际争霸1》中“AI自主战斗”通常你需要编辑大量脚本。


好比,你需要先建立一个“情报探测系统”,这个系统是用来监控对面的一切数值变化(比如铀矿、水晶矿的采集数、场上当前各兵种的数量、各兵营和工厂的数量等等).    

           

同时,还要建立一个“中央反应系统”,该系统根据上述情报探测系统的阈值变化,来生成己方不同的数值调整。


而就像小狗遇到坦克,一定距离会采取“自主分散”的脚本一样。你想打得好,必须对每一个数值和变量都提前预设好脚本。

           

在这种相互叠加的关系上,程序员需要把握哪些是最关键的同时,还要保证脚本的繁琐不至于引起整个系统的崩溃。

从这个意义上来说,单是地理上的空间数据就够各国的建模团队累死几条命的。更别说这些数据,本身也一直在变。

         

图片

  

而换到军事上,也就意味着初代的脚本编辑系统,需要吸收海量的数据,并对每个数据、每种可能的情况都提前编辑好预设脚本。否则作战单位就不会进行相应的反应。

           

但仅用屁股也能想明白,这个工程量的巨大。与此同时,游戏中敌方的数据实质上是天然对己方开放的,只不过普通玩家不知道罢了。

  

图片

         

现实的战争里,战争迷雾往往更贯穿整个战争中。

在这种情况下,你又如何能保证数据的准确性和时效性呢??

               

当然了,说到这,有朋友也可能会说。

你这什么悍马2000都是老黄历了,现在人星际争霸2都用了会根据玩家情况自主学习的Alphastar。

更勿论说军界了。

           

当然,我承认《星际争霸2》所采用的系统或者说脚本,是要远超过我那个时代的悍马2000的。


但包括今天它所采用的“自主学习能力”,实质上仍是对玩家数据的二次复制与模仿。

       

图片

    

也就是说,击败李世石的AlphaGo,其真正的成功源于早期通过提前喂了AI大量棋谱,而使得AI能比较准确预测人类选手的路数。


可围棋路数虽然已然超过一般人想象,但相比战争这个变量来说,它的数值仍还是有限的、可控的。


图片

 


         

比如,就俄乌战争来说,2022年战争之初,确实只有很少的人会相信,小泽会在基辅之战时选择留下来。

           

也从这个意义上来说,想要能精准把握战争的每一个环节,并形成AI的自主决策与战斗。


那这些海量的数据,必然意味着它的“中央决策系统”是非常庞大的、非常耗电的、非常依赖于光电等传输系统的。

           

但反过来,这其实又注定这个目标的固定和脆弱性。    

就好比马奇诺要塞,当德军不是直接往上撞的时候,其巨大的花费反而掣肘了后续法军的行动和应对。

           

也正是因为此,其实现在各国普遍的共识,均是成立网状或者说是泡泡状的各种子细胞。这些细胞在平常是独立的个体,但在战时又可通过互相链接,来共享情报和资源。

           

而这点和传统上,很多人所设想不同的是。

并非是将军们直接指挥每一个单兵,而是各个最小的“子单元”在必要时,通过互相打通媒介,来完成一个联合。但就算是这种程度的互联互通,却也是包括美军在内,仍在步履蹒跚往前爬的。

           

再一个问题是,是否让AI来进行最终的决策,存在一个巨大的悖论。从理论上来说,人工智能的信息收集、处理和反应速度,是远超人类N次方的。

 

图片

          

但除了上面所讲的巨型运算意味着,巨大设备和巨大消耗外,人工智能决策还不得不面对大量伦理问题。

           

比如以色列铁穹防空系统,在2021年巴以冲突中宣称90%的拦截率,而实际统计显示其有效拦截率仅在60-70%区间浮动。


当AI系统需要为每个拦截决策承担0.5%的误判概率时,这意味着每200次防空警报就可能造成1次平民误伤。


而这种概率在计算机眼中是可控误差,在真实战场却会酿成不可逆的人道灾难。    

           

同样的,俄罗斯在乌克兰战场投入的MRk无人战车,用面部识别技术锁定目标时,却屡屡将教堂尖顶误判为狙击点。


美军测试中的AI飞行员虽然能做出每秒400次态势判断,但当遭遇强电磁干扰时,其决策树就会像被拔掉网线的玩家般手足无措。

           

图片


而沙特购买的寂静猎手激光防空系统,在也门战场误击民航机的情况,同样也再次突出了一个严重的问题。

AI的智能可能永远无法理解,为什么有些目标即便符合所有打击参数,也必须放过。

           

就这点而言,事实上目前的人工智能决策系统,大致是呈现两种发展方向。


一种是类似于马斯克所言的智脑,即通过植入芯片来强化个体人类的各项脑力活动,用通俗的说类似《光环》下的士官长和科塔娜的组合。

     

图片

      

再一个,则是我上面说的。在子单元比如现金的合成营或者连战斗队中,强化各基层指挥部和部队,以达到信火一体,优化战斗决策系统和其他子系统的效率。

           

但前者的问题是,这种超级战士放在单兵领域,边际成本过于巨大。而放核心指挥员身上。。。。假设情报收集系统没有跟上,那一样白搭。


换句话说,决策系统必须和信息收集系统同步进行。不然信息过载,大脑直接宕机。大脑发达,而信息闭塞,又跟不上需求。


单就这点来说。这和个人成长也是同一个道理。


另外说起来,像游戏《光环》里大家是过于把目光聚焦在运气好到没边的士官长身上了,其实若以小说星盟和人类的战争来论,人类是败多胜少,几乎就要灭族了的。

           

而后者虽然看起来最为稳当和最为实际,然而现阶段的水平仍然存在瓶颈。


比如我们从指挥链的角度来说,要保证每个子单位能在战时像泡泡一样,散能独立作战,合则快速交融,其通讯接口和信息过载或者说超频是第一个要解决的点。

           

再一个问题是,究竟应该怎样看这些子单位呢?

从系统的角度上来说,任何作战单位大体都可简分为“情报侦察系统+火力兵员系统+中央指挥决策系统+战斗勤务供应系统”几大板块。

          

图片


 

于师旅一级高级战术单位来说,不可能因为前线某个班的汇报,而直接以军师级的支援火力进行打击。

同理,在经过营这级单位转手后,则事实上营-旅之间,仍会存在通讯信道单一的问题(不单一,门多不安全,太单一又会降低效率)。

           

也因此,类似deepseek等大语言模型的出现,固然对于人们和AI的交互协作更为促进。


比如它降低了在基础单元模块的编程和使用。但要使得其在“神经元网络的决策系统”中起到更为关键的进步,仍还需要人们相当长的时间和努力。

               

而再智能的算法,也最终解不开战场上沾血的绷带。

           

引用资料:  

1. 美国国防部《人工智能在军事领域应用白皮书》  

2. 以色列国防军《铁穹系统作战效能评估报告》 

3. 英国皇家联合军种研究院《自主武器系统伦理研究》