張曉海,操新文,耿松濤,張妍莉
(1.國防大學 聯(lián)合作戰(zhàn)學院, 石家莊 050084; 2.中國人民解放軍95894部隊, 北京 102211)
隨著科學技術的發(fā)展和軍事理論的不斷創(chuàng)新,我軍輔助決策系統(tǒng)經過多年建設,取得了長足進步。在數(shù)據采集、傳輸、存儲、處理等方面有了不少成果,基本滿足了實際應用的需求。然而,現(xiàn)有的決策支持系統(tǒng)在情報處理、態(tài)勢認知、文書生成和方案評估等方面距離智能化要求還有很大的距離,與未來智能化戰(zhàn)爭的發(fā)展趨勢不相適應。近年來,以深度神經網絡為代表的新一代人工智能技術迅猛發(fā)展,在經濟、醫(yī)療、交通、工業(yè)等眾多領域均取得了令人矚目的成果。特別是AlphaGo[1]的出現(xiàn),使人工智能再一次成為焦點話題,其所采用的深度學習技術和人工智能方法,有力促進了社會多個領域的智能化建設,必將對軍事輔助決策智能化發(fā)展產生重大啟示意義。
研究深度學習,要追溯到20世紀40年代初。McCulloch和Pitts受到人類神經系統(tǒng)的啟發(fā),提出了人工神經元的雛形。它由大量的節(jié)點(神經元)相互聯(lián)接構成,每個節(jié)點代表一種特定的輸出函數(shù)(激勵函數(shù)),節(jié)點之間的連接代表通過該連接信號的加權值(權重),網絡的輸出取決于網絡的連接方式、權重和激勵函數(shù),如圖1所示。
然而,人們很快發(fā)現(xiàn)這種單層感知機模型始終無法解決簡單的異或問題,且當時的算力也無法支撐龐大的計算量,神經網絡進入了第一個低潮期。1986年,反向傳播算法(BP)[2]因成功解決異或問題,引發(fā)了神經網絡的第二次熱潮。但在20世紀90年代初期,BP算法被指出存在梯度消失、局部最優(yōu)和過擬合等問題,神經網絡的熱潮逐漸趨于冷淡。而此時,統(tǒng)計學習方法快速發(fā)展,支持向量機(SVM)在線性分類問題上表現(xiàn)突出,AdaBoost、隨機森林能夠很好地抑制過擬合問題,Kernel SVM成功解決了非線性分類問題,這些成果使神經網絡更加陷入了無人問津的境地。直至2006年,Hinton等[3]提出了梯度消失問題的解決方案,拉開了深度學習的帷幕,深度學習進入了快速發(fā)展期。2012年,Hinton課題組構建的AlexNet,首次使用ReLU激活函數(shù),解決了梯度消失問題,并添加Dropout層以減小過擬合,最終在ImageNet圖像識別比賽中一舉奪冠,在分類性能上碾壓了基于統(tǒng)計模型的參賽系統(tǒng)。此后,卷積神經網絡、循環(huán)神經網絡、進化神經網絡等模型不斷涌現(xiàn),逐步打開了人工智能新世界的大門。它們不僅在模式識別、信息檢索、自然語言處理等多個人工智能領域都取得了重大突破,還可以對復雜模式進行分類,在決策問題中產生巨大影響。因此,人工智能再一次成為了信息科技的研究熱點。
深度學習(Deep Learning)[4]屬于人工智能領域中的子領域,圖2表示了人工智能及其子領域的相互關系。
深度學習是一種含有1個輸入層、1個輸出層和數(shù)個隱藏層的深層神經網絡,每層有若干個神經元,神經元之間有連接權重,這種深層結構可利用大規(guī)模標簽樣本逐層學習,自動生成特征量,從而解決非線性問題的求解。深度學習模型具有很好的靈活性和可擴展性,因而受到廣大研究者們的熱切關注。傳統(tǒng)人工神經網絡與深度學習模型的區(qū)別,如圖3所示。
提到深度學習,不得不提聞名全球的圍棋智能程序AlphaGo。AlphaGo就是以深度學習為主體,結合強化學習和蒙特卡洛樹搜索方法,在輸入3 000萬局棋譜進行深度學習后,利用強化學習技術進行自我對弈,從而達到甚至超越了人類圍棋水平。多年前,IBM公司研發(fā)的國際象棋程序“深藍”也曾擊敗人類頂尖棋手。然而“深藍”使用的是窮舉法,這種窮盡走子的策略在極度復雜的圍棋中就不適用了。但AlphaGo使用的深層神經網絡,承載了數(shù)百萬計的參數(shù),通過深度學習就能學習到甚至超出人類已有的圍棋知識。AlphaGo的成功告訴我們,深度學習具有高效的特征提取和知識表達能力,這讓我們看到了深度學習等新一代的人工智能技術用于軍事輔助決策智能化的可能性。
從人工智能的誕生至今,每一個新的模型或算法在解決有關問題的同時,也都帶來了其他的問題,深度學習也不例外。雖然它具備了更加強大的特征提取和知識表達能力,但并不能盲目樂觀。李世石在戰(zhàn)勝AlphaGo的比賽中,第78步走出了“神之一手”。讓人們沒有想到的是,AlphaGo在進行了比平時多出一倍的深度搜索后,直接崩潰了,連續(xù)犯了近十步棋的低級錯誤,最終輸?shù)袅说谒木直荣?。從這個角度看,AlphaGo在面對未知時,依然表現(xiàn)出了脆弱的一面??梢?,深度學習有著自身的局限性,同樣面臨著諸多瓶頸問題:
1) 對數(shù)據和算力的依賴
一方面,支持向量機(SVM)等淺層結構模型可以在數(shù)據量一定的情況下有很好的表現(xiàn),而深度神經網絡則需要輸入大規(guī)模的數(shù)據樣本才能展現(xiàn)出自身優(yōu)勢。因此,無監(jiān)督訓練、小樣本特征提取、模型優(yōu)化和分布式訓練等領域非常值得研究。另一方面,深度學習技術對算力需求很高,現(xiàn)有的CPU芯片技術用于深度學習時,模型的學習效率會受到一定程度的制約。深度學習之所以能夠取得突破,其中一個重要原因就是使用GPU進行深度學習,因為GPU在模型訓練時較CPU具有更高的效率。所以,在算法不斷優(yōu)化的同時,研制能快速訓練大規(guī)模深度神經網絡的處理器同樣重要,這需要對智能芯片的設計原理、體系結構、指令集和編程語言等實施進一步的發(fā)展創(chuàng)新。
2) 解釋智能體的“黑匣子”
AlphaGo在李世石走出“神之一手”時,原本還有取勝的機會,但AlphaGo卻突然崩潰,從職業(yè)頂尖水平驟降到業(yè)余水平,走出了讓人啼笑皆非的幾步棋。AlphaGo對于這步棋究竟是如何理解的,可以說包含數(shù)百萬個參數(shù)的深層神經網絡就如同封閉的黑匣子,無從知道在機器學習過程中,到底學到了哪些特征,對于知識又是如何理解的,這使得我們很難找到它犯錯的真正原因。因此,在未來的研究中,打開“黑匣子”,理解神經網絡的深層功能,不僅有助于了解深度學習的決策機制,對構建更為強大的人工智能系統(tǒng)也至關重要。
3) 深度學習理論基礎的研究
很多研究者希望將深度學習作為一種通用模型,應用到所有領域,但人們很快便發(fā)現(xiàn)深度模型在某些方面的能力具有局限性。近年來,深度學習有了更好的數(shù)學支持,模型的理論研究取得了階段性的成果。然而,目前的研究發(fā)展依然呈現(xiàn)出兩極化的分布,大部分人更偏向于工程化,而進行理論研究的只占小部分。相比于深度學習平臺的快速發(fā)展,更需要從神經網絡結構和參數(shù)調整機制上進行創(chuàng)新,以突破深度學習的理論瓶頸。
未來戰(zhàn)爭中的智能化輔助決策系統(tǒng),應能準確理解指揮員的真實意圖,快速準確地找到合適的決策資源,給出合理建議,處理決策問題,從而減輕指揮員的決策負擔。高度智能化的軍事輔助決策系統(tǒng)的出現(xiàn),將徹底顛覆人們對軍隊指揮的傳統(tǒng)認知。
國外開展軍事智能輔助決策相關研究比較早,以美軍DARPA機構開展的“深綠”[5]項目為代表,其目的是預測戰(zhàn)場態(tài)勢,幫助指揮員進行情況判斷,并提供決策方案。該項目于2007年7月啟動,但實際上到2014年仍未完全結束,主要困難在于戰(zhàn)場態(tài)勢的理解、仿真推演的高復雜度、用于決策數(shù)據的不同要求、決策粒度的區(qū)分等等。如果說“深綠”的失敗是由于當時的數(shù)據處理能力不足,從而導致傳統(tǒng)人工智能方法在解決態(tài)勢認知問題時存在瓶頸,那么AlphaGo的成功,則證明了以深度學習為代表的新一代人工智能技術,在面對大數(shù)據和復雜的戰(zhàn)場環(huán)境時,或許可以實現(xiàn)突破。
國內較為成熟的主要以專家系統(tǒng)、多智能體系統(tǒng)(MAS)等為主。如空中軍事打擊智能決策支持系統(tǒng)[6]可利用多智能體技術,輔助生成空中軍事打擊行動決策方案,并進行仿真和評估;軍事科學院研發(fā)的《進攻一號》[7]軍事專家支持系統(tǒng),建立了4 000多條規(guī)則和一個定性與定量相結合的高效推理機制,能夠自動生成作戰(zhàn)決心的參考方案,輔助指揮員定下決心。上述研究取得了一定成果,但更多依靠傳統(tǒng)人工智能技術,具有局限性。2017年9月,“賽諸葛”全國兵棋推演大賽中,中科院自動化所研發(fā)的AI系統(tǒng)“CASIA-先知V1.0”首次戰(zhàn)勝了人類選手,展示出深度學習等人工智能技術在對抗博弈領域的強大能力。但目前基于深度學習的輔助決策系統(tǒng)還處于起步探索階段,距離實際應用還有很長的路要走。
綜上所述,分析輔助決策系統(tǒng)的難點,主要有以下幾個方面。
1) 戰(zhàn)場態(tài)勢理解
在作戰(zhàn)指揮中,決策的目的是定下決心和制定行動計劃,其前提是分析判斷敵我情況,找出關鍵問題,即對戰(zhàn)場態(tài)勢充分掌握。因此,研究發(fā)展智能化的輔助決策系統(tǒng),首要解決的就是戰(zhàn)場態(tài)勢認知問題。首先,從獲取知識的角度看,真實戰(zhàn)場信息的獲取異常困難,無法得到完備的信息,甚至部分情報可能是虛假的,從不完備信息中提取出可用于輔助決策的戰(zhàn)場情況信息,是態(tài)勢理解的一大難點;其次,從指揮層次的角度看,系統(tǒng)通過量化手段進行態(tài)勢理解,但隨著指揮層次的提升,部分態(tài)勢信息將無法進行量化,只能采用定量和定性相結合的方式去描述,這使得機器理解認知的過程更加困難;第三,從指揮粒度的角度看,陸軍的指揮決策相較于海軍和空軍更加困難,這是由于人比飛機和艦艇更為自由,且數(shù)量更加龐大,指揮粒度的選擇極易對態(tài)勢判斷產生影響。
2) 作戰(zhàn)意圖預測
AlphaGo的成功啟示我們,利用深度強化學習,也許可以實現(xiàn)模擬環(huán)境下自我對抗演練,但前提是要對雙方每一步作戰(zhàn)意圖進行準確的預測。戰(zhàn)爭是一個復雜系統(tǒng),影響決策的因素多,戰(zhàn)場情況瞬息萬變。在作戰(zhàn)行動的推演中,預測敵方下一步行動或下一階段的作戰(zhàn)意圖極其困難。首先,戰(zhàn)爭沒有固化的規(guī)則可言,作戰(zhàn)雙方在決策過程中不會按照一致的規(guī)則出招;其次,推演過程是雙方通過對多個目標的實時控制實現(xiàn)的,預測未來情況的時序深度如果把握不好,將導致組合爆炸或預測失真,無形中增加了作戰(zhàn)意圖預測的難度;再次,在較高的指揮層次下,作戰(zhàn)意圖并不是簡單的局部作戰(zhàn)行動的整合,這與指揮員的戰(zhàn)法和指揮藝術息息相關,尤其對于戰(zhàn)略級的作戰(zhàn)意圖,甚至還摻雜了政治、外交等更加難以量化的諸多因素。
3) 訓練樣本獲取
深度學習是基于數(shù)據的,模型需要大量樣本進行訓練,而現(xiàn)實戰(zhàn)爭面臨最大的問題就是訓練樣本匱乏。算上演習的數(shù)據儲備,距離實際應用還有很大差距,即使演習和模擬仿真會隨時間推移積累更多的數(shù)據,但為這些數(shù)據添加標簽同樣費時費力。同時,目前更多依靠現(xiàn)有的兵棋推演系統(tǒng)來生成訓練樣本,但兵棋系統(tǒng)在客觀反映戰(zhàn)爭復雜系統(tǒng)中影響作戰(zhàn)的諸多因素方面還需要更加完善。因此,使用這些樣本進行訓練很大程度上更像是紙上談兵,模型最終訓練得到的很可能是人造的規(guī)律,在實際作戰(zhàn)中是否有利用價值還需要打一個問號。另外,人的因素很難進行量化,比如一支身經百戰(zhàn)、戰(zhàn)斗經驗豐富的部(分)隊,能夠完成看似不可能完成的任務,戰(zhàn)爭史上,以少勝多、以弱勝強的戰(zhàn)例數(shù)不勝數(shù),這在模擬數(shù)據中又應如何描述和反映?
4) 指揮層次影響
輔助決策系統(tǒng)通常是基于模型構建的,輔助決策的能力主要表現(xiàn)為定量分析。構建智能化的輔助決策系統(tǒng),指揮層次對于方法模型的選擇至關重要。在聯(lián)合作戰(zhàn)中,一體化的指揮決策層級在戰(zhàn)役級以上,而指揮層次越高,信息的量化就越復雜,決策面臨的困難也越大。尤其上升到戰(zhàn)略層次時,指揮藝術將比指揮技術更為重要。因此,為避免決策分支的指數(shù)爆炸或失真,在面向不同的指揮層次構建輔助決策系統(tǒng)時,對于輸入應當選擇何種粒度最為合適?適用于不同粒度的模型應當如何選擇?決策的周期又應當如何決定?
5) 智能算法運用
從人工智能的發(fā)展來看,每一種模型既有長處又有短處,不同的智能算法都有其自身的特點和應用范圍,將多種人工智能方法進行有機結合,是智能系統(tǒng)取得成功的關鍵因素。因此,面對輔助決策中的不同任務進行建模,哪一類神經網絡更適用,哪一種激勵函數(shù)最合理,哪一種方法抑制過擬合最有效等等,都是需要面對的問題。再比如,對于很多難以通過定量手段解決的問題,如何將定性與定量方法進行結合?對于標簽樣本匱乏的現(xiàn)狀,有監(jiān)督學習和無監(jiān)督學習應如何有機結合?對于一些局部的特定問題,基于規(guī)則和基于統(tǒng)計的模型依然表現(xiàn)更為出色,深度學習又該如何與之結合?這些問題都將對軍事輔助決策智能化發(fā)展帶來諸多挑戰(zhàn)。
結合深度學習和輔助決策的瓶頸問題以及難點挑戰(zhàn),對于軍事輔助決策的智能化發(fā)展,可以從以下幾個方面進行探索。
1) 戰(zhàn)場信息處理
未來戰(zhàn)爭是由信息主導的,但制約正確決策的并非是信息本身,而是從海量數(shù)據中提取重要信息的能力,這些重要的信息才是進行作戰(zhàn)意圖預測、戰(zhàn)爭發(fā)展趨勢分析、作戰(zhàn)行動決策的基礎,只有進行過整理、解釋、選擇后生成的知識層面的戰(zhàn)場信息才能有效用于態(tài)勢理解,即對作戰(zhàn)雙方的基本情況信息(包括作戰(zhàn)能力、企圖、手段、步驟等)的標準化處理。一方面,應著重關注戰(zhàn)場信息大數(shù)據挖掘的研究,如戰(zhàn)場態(tài)勢的感知判斷,信息內部因果關系的理解,戰(zhàn)場知識的搜索、判斷、歸類和度量,對不同格式數(shù)據(圖像、視頻、語音和文本等)的自動分析等;另一方面,從知識表示的角度出發(fā),基于深度學習的態(tài)勢理解解決了特征選取的難題,因此,可以通過構建符合戰(zhàn)場態(tài)勢特性的深層神經網絡,利用已有演習的真實數(shù)據進行逐層訓練,從而加強對戰(zhàn)場態(tài)勢的抽象理解。另外,應當對專家知識等已有的研究成果加以高效利用,比如可以組織經驗豐富的軍事專家為生成的樣本集添加標簽,以提高戰(zhàn)場信息處理能力。
2) 訓練樣本積累
從目前深度學習的研究現(xiàn)狀來看,訓練樣本依然是智能輔助決策系統(tǒng)研究的重要基礎,因此,必須注重訓練樣本積累,以滿足深度學習的需要。第一,由于我軍長時間處于和平狀態(tài),缺乏現(xiàn)代戰(zhàn)爭的作戰(zhàn)經驗和相關數(shù)據,因此,訓練樣本只能從歷史演習數(shù)據中獲取,規(guī)模非常有限。為解決訓練樣本積累問題,一種可行的途徑是通過兵棋模擬對抗進行數(shù)據的積累,同時利用專家知識對失真樣本數(shù)據進行修復,以提高樣本質量;另外,可以使用生成對抗網絡(GAN)自動生成大量對抗樣本,從而滿足研究需要。第二,對樣本集的信息維度應進行合理控制,雖然高緯度數(shù)據樣本能使戰(zhàn)場態(tài)勢信息更完備,但過高的維度將嚴重影響到算法效率;反之,樣本信息維度選擇過低,又難以有效描述戰(zhàn)場信息,這就需要根據作戰(zhàn)層次對指揮粒度的要求來具體分析,并決定取舍。第三,研究更好的特征編碼和標準化處理方法,統(tǒng)一規(guī)范數(shù)據格式、信息流程、數(shù)據庫結構等,以實現(xiàn)對訓練樣本的統(tǒng)一管理和有效利用。
3) 智能技術運用
現(xiàn)階段,深度學習的能力還達不到通用智能的要求。在智能技術應用過程中,不能單純依靠深度神經網絡一個模型。近期的研究也表明,在一些特定任務中,現(xiàn)有的深層神經網絡模型在解決認知和決策等問題上還有很長的路要走,融合多種人工智能技術手段將更加有效。比如類似支持向量機(SVM)等傳統(tǒng)淺層模型,可以在小規(guī)模樣本條件下達到比較好的效果;基于規(guī)則的方法,可以對戰(zhàn)場知識進行有效歸納,在現(xiàn)有條件下可發(fā)揮很大的作用;融合記憶機制、時間序列等策略的深度學習模型架構,比如長短時記憶網絡(LSTM)可以實現(xiàn)時序特征的記憶,對于具有時空特性問題具有很大的研究價值;基于棧式自編碼器(SAE)的深度學習模型,采用無監(jiān)督預訓練和有監(jiān)督訓練相結合的方式,也是研究意圖識別的一種有效方法。因此,融合運用各種智能技術,充分發(fā)揮各類模型的自身優(yōu)勢,對解決戰(zhàn)場態(tài)勢理解和指揮決策的特定問題具有重要的方法論意義。
4) 人機交互能力
在人機交互過程中,應當盡可能達到輸入數(shù)據格式化、生成數(shù)據可視化,極大降低指揮員的計算機技術門檻,提高智能輔助決策系統(tǒng)在戰(zhàn)場態(tài)勢的應用、顯示和實時性需求,這就需要自然語言處理和圖像識別等技術在特定任務中達到實際應用的要求。一是在戰(zhàn)場態(tài)勢融合過程中,通過自然語言處理、語音識別、圖像識別等方法手段,可實現(xiàn)對情報信息進行整合,形成態(tài)勢圖,并能夠實時更新態(tài)勢信息,以滿足戰(zhàn)場動態(tài)變化要求;二是合理運用圖像識別技術,對標圖進行自動識別,結合情報信息,對敵我雙方的編成部署、武器效能、火力覆蓋范圍等進行自動計算,輔助分析敵我力量對比,保障指揮員正確定下戰(zhàn)斗決心;三是生成作戰(zhàn)方案應同時滿足計算機和指揮員的雙重需求,格式化的方案數(shù)據可直接輸入系統(tǒng)進行評估,非格式化的方案以自然語言方式生成,便于指揮員的審閱和修訂。
在軍事輔助決策系統(tǒng)中,戰(zhàn)場目標識別、作戰(zhàn)意圖預測、作戰(zhàn)方案生成、模擬對抗博弈、人機交互等模塊,均可以利用深度學習及相關人工智能方法來解決智能化問題。本文針對深度學習技術的應用,僅對戰(zhàn)場目標識別、作戰(zhàn)意圖預測和模擬對抗博弈3個主要問題的基本模型進行了初步探索。
1) 戰(zhàn)場目標識別
目標識別技術被應用在戰(zhàn)場偵察、敵我識別、精確制導等多個方面,在智能化指揮信息系統(tǒng)中,自動、準確、快速地識別戰(zhàn)場目標,是理解戰(zhàn)場態(tài)勢的基礎。在復雜戰(zhàn)場環(huán)境下,戰(zhàn)場目標識別不僅僅是目標分類,對目標的定位同樣重要。以圖像識別為例,可以采用R-CNN[8]模型完成識別任務,先確定約1 000~2 000個物體候選框,然后將所有候選區(qū)域輸入卷積神經網絡(CNN)提取特征向量,接著采用支持向量機(SVM)判別器對各個候選框中的物體進行分類,最后,對于屬于某一特征的候選框,訓練一個回歸器進一步調整其位置,回歸目標參數(shù)x和y分別為選框中心橫、縱坐標,w為選框寬,h為選框長度,具體模型如圖4所示。
2) 作戰(zhàn)意圖識別
對作戰(zhàn)意圖進行識別預測,可從戰(zhàn)場態(tài)勢和戰(zhàn)場情報信息中抽取與意圖相關的信息,再對特征信息進行綜合分析,并結合相關的作戰(zhàn)規(guī)則,得出目標的作戰(zhàn)意圖。作戰(zhàn)意圖識別是在不完全信息條件下的復雜戰(zhàn)場態(tài)勢認知問題,且標簽數(shù)據樣本規(guī)模也受到限制,模型訓練難度較大。一般采用無監(jiān)督訓練和有監(jiān)督訓練相結合的方式構建模型,以達到優(yōu)勢互補,如圖5所示。原始數(shù)據由真實演習數(shù)據和兵棋系統(tǒng)生成的模擬數(shù)據構成,經過歸一化、特征編碼等預處理過程,生成標準化的訓練樣本,用于無監(jiān)督學習;利用指揮員和軍事領域專家的經驗知識,對標準樣本集進行手工標注,得到帶標簽的數(shù)據樣本,用于有監(jiān)督學習。通過無監(jiān)督預訓練,可以生成更好的初始化權重分布,再經過有監(jiān)督學習進行參數(shù)的調優(yōu),可以達到比較好的效果。
3) 模擬對抗博弈
AlphaGo棋藝精湛,除了3 000萬局人類棋譜的輸入,還有3 000萬局的自我博弈。受AlphaGo的啟示,將深度神經網絡與強化學習結合,利用仿真推演平臺對戰(zhàn)場數(shù)據與作戰(zhàn)輔助決策進行綜合處理分析,讓決策模型依托兵棋模擬系統(tǒng)進行自我博弈的強化學習,從而不斷提高作戰(zhàn)輔助決策的效能。訓練模型如圖6所示,對當前狀態(tài)進行特征提取,將特征融合至狀態(tài)St-1。經過深度學習網絡,完成當前狀態(tài)的評估,得到行動at的回報Rt,通過Rt對深度網絡進行獎懲。對于整個作戰(zhàn)過程,系統(tǒng)需要對每一個節(jié)點進行計算評估,以發(fā)現(xiàn)最優(yōu)行為序列。需要注意的是,從DeepMind挑戰(zhàn)星際爭霸2的經驗來看,機器采用從零學習的策略是不可取的。復雜戰(zhàn)場環(huán)境中的決策更是如此,對模型初始階段的訓練應當依托人類經驗進行訓練。在模型能夠自行處理部分簡單任務后,再進行自我模擬對抗的強化學習將更加有效。
指揮決策不單單是一種技術,更是一門藝術,正確的決策,不能只依賴定量方法,還要從難以進行定量分析的政治、戰(zhàn)略角度進行定性分析。深度學習的出現(xiàn),改變了人工智能領域的發(fā)展路線,使人們看到了智能化指揮決策的可能性和發(fā)展機遇,但與此同時,也要看到深度學習的局限性和軍事輔助決策智能化發(fā)展的困難和挑戰(zhàn)?,F(xiàn)階段的人工智能技術,即使是深度學習也還無法實現(xiàn)創(chuàng)造性思維,強人工智能依然遙遠,計算機還無法獨立生成一個有思想有價值的作戰(zhàn)方案。在未來很長的一段時期,機器還只能以輔助角色出現(xiàn),最終的決策權依然掌握在人類手中。