• <big id="ha2xu"></big>

      <td id="ha2xu"><strong id="ha2xu"></strong></td>

        当前位置 : 首页 > 文章中心 > 博文精选

        慎谈智能化指挥“自主决策”

        作者:顾静超 刘 奎 发布时间:2019-03-26 13:33:12 来源:解放军报 字体:   |    |  

          既往战争经验,是我们创新下一场战争打法的起点与参考,而不是复制模仿的“模板”。

          在智能化作战研究成果中,有一种观点认为,未来智能化技术发展到高级阶段,将会出现“人在回路外”的智能化指挥“自主决策”,即由智能化系统自主侦察、自主决策、自主打击、自主评估。该观点存在诸多风险,应该审慎?#21019;?/p>

          算法逻辑被利用欺骗的风险。智能化技术,本质还是建立在海量数据、高速计算系统与特定算法基础上的数据统计分析与挖掘上。2018年,?#24403;?#23572;经济学?#34987;?#24471;者?#26032;?#26031;·萨金特在世界科技创新论坛尖锐指出,“人工智能其实就是统计学,只不过用了一个很华丽的辞藻”。在可预见的未来智能化作战活动中,计算机数据挖掘分析能力急速提高,但仍需遵循一定的算法逻辑,一旦对手分析出这些背后的算法逻辑,就能采取针对性的措施,实现隐藏或欺骗的目的,致使系统做出错误判断。比如,现代图像识别技术的基本原理是检测图像的像素或像素组合所形成的模式,与原?#24515;?#24335;进行比对进而识别,在不改变物体宏观形状的情况下,只要对?#35745;?#30340;微观像素做一定修?#27169;?#23601;可以欺骗图像识别系?#22330;?017年,麻省理工学院的学生就通过修改?#35745;?#20687;素欺骗?#26031;?#27468;的图像识别系统,误把一只小狗识别成两名滑雪爱好者。研究表明,戴着特殊设计的、能让人产生错觉的眼镜会让人脸识别系统误以为某些人是明星;在句子中加入特定的词语或?#21019;?#19968;个单词,可以完全干扰用于文本分析的自?#25381;?#35328;理解系?#22330;?#30001;此可见,一旦对手分析出智能化系统所依赖的算法逻辑后,即可实施欺骗或伪装,导致系统产生误?#23567;?/p>

          缺乏创造性思维能力的风险。自1956年提出人工智能后,人工智能技术长时间停滞不前,直到 “阿尔法狗”击败人类围棋选手后,才打破这一僵局,引发了以深度学习技术为代表的新一轮人工智能技术研究热潮。但是,目前人工智能技术?#28304;?#20110;“弱智能”阶段,仍然是在既有规则框架下的学习,无法应对千差万别的作战环?#22330;?#21363;便是“阿尔法狗”的深?#20173;?#24378;学习技术,虽然实现了利用深度学习得到神经元网络,能够对经验?#26412;?#36827;行捕捉和表达,但其前提是遵循围棋固定的行棋、胜负规则。与围棋相比,战争要复杂得多。“战胜不复,而应形于无穷”,人类永远不可能重复上一场战争。既往战争经验,是我们创新下一场战争打法的起点与参考,而不是复制模仿的“模板”。法军沉?#26434;?#19968;战“堑壕+机枪”的阵地防御经验,在德军的闪击战前不堪一击。基于既定规则、经验、知识学习的智能化作战系统,无法应对不可预知的未来进行自主创新,一旦对手的作战样式跳出既往窠臼,系统就不知道“向谁学、学什么”,无法及时做出?#26434;?#30340;决策判断,失败的风险大为增加。

          违背战争?#36182;?#20262;理的风险。现代战争,敌对双方的交战行动受到一定国?#21490;?#24459;法规限制,参战军人都是有血有肉的人,行为也自觉接受人类社会基本的?#36182;伦?#21017;?#38469;?#19981;是冷冰冰的“杀戮机器”。这些基本的?#36182;?#20262;理观念,是人类社会文明进步的体现。但是,智能化作战系统缺乏人类情感,自然很难受到?#36182;?#20262;理的?#38469;?#23427;学习成长的主要来源就是既往作战行动的经验或教训,若?#25381;?#20154;工干预控制,计算机并不能分辨哪些经验教训可以遵循,哪些无法遵循。比如,美军在阿富汗的 “红翼行动”,失败的重要原因之一就是海豹队员的潜伏踪迹被3名牧羊人发现,并被后者报告给塔利班。若不加人工?#38469;?#26234;能化系统将从这一战例中学习到“不能放过交战地区的平民”的教训,并可能在后续的作战行动中,不?#26234;?#32418;皂白地攻击交战地区无?#35745;?#27665;,必定会对作战行动抹上阴影,陷入舆论和?#36182;?#22256;?#22330;?/p>

          忽视主观能动性作用的风险。智能化指挥,本质在“算”,仅是对人类认知过程与规律的模仿,无法考虑人的情感与意识因素对战争的影响,无法计算实战中军心、?#31185;?#23545;军队战斗力造成的影响。即便在作战行动建模过程中考虑到人的因素,通过加权因子进行修正,仍无法科学、?#26082;?#22320;计算人在作战行动中的作用与地位。据说,美军通过兵棋推演,认为可在一天内拿下上甘岭高地,可实?#24335;?#26524;与推演结果大相径庭。按照人工智能的决策分析,我军很多战例都将会是失败的结局。同样,在也门战场,拥有最先进武器装备的沙特联军不?#26032;?#21518;的胡塞武装,背后最重要的原因之一就是联军战斗人员的战斗意志、战斗素养比较薄弱,并不能充分发挥武器的战斗效能。不同的战场、不同战斗样式有各自特点,人的主观能动性发挥程度各不相同,但都能对战?#26041;?#26524;造成重要影响,一味地依赖系统来决策,将犯下机械决定论的错误。

          应?#23186;玻?#26234;能化技术发展到高级阶段后,作战系统的态势感知、判断决策、指挥控制等能力将?#23545;?#39640;于人的生理能力,智能化指挥的“自主决策”,在特定作战样式、特定作战场景中,具备实现的可能?#26434;?#20351;用价值。但就普遍性而言,应当慎重做出结论,深入研究其背后的制胜机理,方能真正发挥智能化指挥的加速器、?#23545;?#22120;作用。

        打印文章

        网友评论

        共有条评论(查看

        最新文章

        热点文章

        王者荣耀
      1. <big id="ha2xu"></big>

          <td id="ha2xu"><strong id="ha2xu"></strong></td>

          1. <big id="ha2xu"></big>

              <td id="ha2xu"><strong id="ha2xu"></strong></td>