李曉黎
(1.新加坡資訊通信研究院,新加坡 138632;2.南洋理工大學,新加坡 639798)
人工智能是由計算機實現(xiàn)的智能,它能夠執(zhí)行通常需要高度人類智能才能完成的任務。近年來,由于計算機的高速運算能力和大規(guī)模存儲空間、大數(shù)據(jù)的積累、最新人工智能算法的提出,人工智能在計算機視覺、語音識別、自然語言處理、生物信息學、推薦系統(tǒng)、戰(zhàn)略游戲、智能感知等諸多領域取得了長足進展。在一些智能需求高度復雜的領域中取得的驕人成績甚至大大超過人類智能,比如來自DeepMind的AlphaGo[1]已經(jīng)可以輕松戰(zhàn)勝人類圍棋的世界冠軍。
此外,人工智能在提高人類的生產(chǎn)力和效率方面開始發(fā)揮越來越重要的作用,例如幫助醫(yī)生完成費時費力的需要高度專業(yè)知識的醫(yī)療圖像診斷任務,通過建立個性化推薦引擎幫助電商和新聞網(wǎng)站和應用在合適的時間和地點推薦合適的產(chǎn)品和服務,大規(guī)模的智能制造中生產(chǎn)設備預測維護以及根據(jù)客戶的需求進行個性化的生產(chǎn),智能交通和自動駕駛汽車提高交通效率,以及促進人類通過機器翻譯和聊天機器人等工具進行有效的交流和互動等。
近年來,由于各種傳感器技術的成熟和廣泛使用,我們可以利用傳感器收集機器設備的歷史和實時大數(shù)據(jù),并利用人工智能技術來建立預測模型,進行故障診斷和預測[2]。因此,機器設備剩余使用壽命預測等具有廣泛的應用領域。
機器設備剩余使用壽命(Remaining Useful Life ,簡稱RUL)預測的研究非常重要[3-5],它不但對于提高機器設備和工業(yè)系統(tǒng)的可靠性起關鍵作用,而且由于很多機器設備非常昂貴,這項研究還可以最大程度地提高它們的使用壽命、使用效率、降低它們的維護成本等。同時,從技術的角度上講,如何從大量的傳感器數(shù)據(jù)中學習好的特征表示?如何提高預測模型的準確率?如何建立可以應用于設備端的小而準確的模型?這些仍然是具有挑戰(zhàn)性的課題。所以,這項研究不僅具有重要的理論價值,而且具有實際的應用價值。它的應用領域橫跨生產(chǎn)企業(yè)、航天航空、電子、半導體、醫(yī)療衛(wèi)生、工業(yè)制造、石油天然氣勘探等行業(yè)。
為了預測機器設備的剩余使用壽命,近年來已有許多方法被提出。主要的方法可以分為兩大類,即基于物理模型的方法和基于數(shù)據(jù)驅動的方法?;谖锢砟P偷姆椒ㄐ枰锢砝碚搧砝斫獠⒛M機器設備的行為及隨著機器壽命的衰老其性能下降的詳細過程[6-7],但由于工業(yè)系統(tǒng)種類繁多且變得越來越復雜,顯式的物理建模變得極其困難。與之相比,數(shù)據(jù)驅動的方法旨在直接從機器設備產(chǎn)生的數(shù)據(jù)中學習,而不依賴于未知系統(tǒng)的物理模型[8-9]。此外,由于傳感器的大量使用并由此產(chǎn)生大量的數(shù)據(jù),而人工智能技術特別是深度學習技術可以從大量數(shù)據(jù)中進行學習和預測,所以,基于數(shù)據(jù)驅動的方法有望成為對于復雜的工業(yè)系統(tǒng)非常有前途的剩余使用壽命預測的關鍵技術。
在數(shù)據(jù)驅動方法中,傳統(tǒng)的人工智能通常通過標準的機器學習算法來進行機器設備的剩余使用壽命預測[8,10],其主要過程分為兩步:一是執(zhí)行特征工程,這通常是根據(jù)領域知識和專家經(jīng)驗來手動的從傳感器數(shù)據(jù)中提取代表性的特征。二是利用已有的機器學習算法對用第一個步驟來表示的訓練數(shù)據(jù)進行回歸分析,也就是用模型來建立傳感器數(shù)據(jù)的特征表示和已知機器設備的剩余使用壽命之間的關系,從而達到預測的目的。
圖1為原始傳感器獲得的時序數(shù)據(jù)信號隨時間變化的一個示例,其中x軸是時間軸,y軸表示傳感器在相應時間點的數(shù)值。針對不同的應用,傳感器可以采集來自于震動、溫度、聲音、電流等信號[11-12]。為了執(zhí)行特征工程,通??梢詫鞲衅鲾?shù)據(jù)進行時域分析和頻域分析[13],其中,時域分析是衡量信號特征的重要指標,可以分析信號的各種特性和性能。比如給定N個時間點,可以提取時域的各種特征,包括平均值、峰值、均方值、均方根、峰度、和標準差等。它們的定義如下:
圖1 傳感器時序數(shù)據(jù)Fig.1 Time-series sensor signal changes over time
峰值(Peak value,PV)表示信號值的最大落差(也即最大值和最小值的不同):
另一方面,可以使用頻域分析方法,它顯示有多少信號存在于與頻率范圍相關的給定頻帶內(nèi),其主要過程如圖2所示。對于傳感器原始信號一般要先進行歸一化:
圖2 頻域分析方法示意圖Fig.2 Diagram of frequency domain analysis
然后將傳感器信號切割成段(頻帶),在每一段上計算的頻帶的強度頻譜,并將其用作特征集。具體來說,可以使用轉換函數(shù)把信號從時域轉為頻域,轉換函數(shù)常使用傅立葉變換,它將時間轉換為各種頻率的正弦波的積分,每個正弦波代表一個頻率分量,如利用快速傅立葉變換(FFT)將歸一化的數(shù)據(jù)從時域變換到頻域。最后,計算各個頻帶上的強度頻譜,將輸入信號在各個頻帶上變換成離散的帶強度的特征。
一般而言,從傳感器信號中可以抽取時域特征和頻域特征,并可以將它們連接在一起成為聯(lián)合特征表示。時域和頻域的不同是:當分析使用信號的時間單位,例如秒或其倍數(shù)之一(分鐘或小時)作為度量單位時,則它處于時域中;當分析涉及像赫茲這樣的頻率單位時,它就在頻域中。
執(zhí)行完第一個步驟特征工程,在第二個步驟將使用機器學習算法(例如支持向量機[14]、決策樹、隨機森林、神經(jīng)網(wǎng)絡等),根據(jù)訓練集對第一步提取的特征來執(zhí)行回歸分析,以便進行機器設備的剩余使用壽命的預測。然而針對不同的應用領域,第一個步驟需要基于領域知識和專家經(jīng)驗選擇并提取不同的特征,也即特征工程不一定具備通用性。此外,這個第一步驟的特征提取和第二步的基于機器學習的預測通常是割裂的或獨立的,不能進行聯(lián)合優(yōu)化,這也影響了傳統(tǒng)人工智能算法的性能表現(xiàn)。
最近,深度學習在許多具有挑戰(zhàn)性的領域,如圖像分析、語音識別、自然語言處理,推薦系統(tǒng)、生物信息學、網(wǎng)絡分析、剩余使用壽命預測[4,15-22]等領域取得長足進展。深度學習的最大優(yōu)點是能夠自動從數(shù)據(jù)中學習具有代表性的特征而無需人工干預,并可以同時執(zhí)行和聯(lián)合優(yōu)化特征學習和機器學習兩個步驟,以獲得良好性能。
深度學習也可用于機器設備剩余使用壽命預測。根據(jù)機器設備的具體特點,許多如震動、溫度、聲音、電流傳感器等,可以連接到相關機器設備上采集數(shù)據(jù)。因此可以聯(lián)合優(yōu)化從傳感器原始數(shù)據(jù)中自動學習好的特征表示和根據(jù)訓練數(shù)據(jù)中真實的機器設備剩余使用壽命執(zhí)行回歸分析這兩個步驟。最受歡迎的深度學習算法之一是卷積神經(jīng)網(wǎng)絡(CNN),它在圖像處理方面的性能得到了顯著提高,在傳感器數(shù)據(jù)上也取得很好的效果[23]。由于CNN網(wǎng)絡的獨特結構,對于特征學習非常有效,并且可以并行訓練,它也已經(jīng)被用于機器設備剩余使用壽命預測并表現(xiàn)出比傳統(tǒng)的機器學習算法出色的結果[4,24]。
為了進一步提高機器設備剩余使用壽命預測的準確性,可以考慮傳感器時間序列數(shù)據(jù)的特點,也即不同時間點之間的數(shù)據(jù)具有時間依賴性。同時,循環(huán)神經(jīng)網(wǎng)絡(RNN)節(jié)點沿序列連接,旨在建模時間序列中的時間依賴性。因此一個RNN網(wǎng)絡模型自然適用于機器設備剩余使用壽命預測。然而傳統(tǒng)的RNN經(jīng)常會遇到梯度消失或在網(wǎng)絡訓練期間梯度爆炸的問題,這大大降低了其在建模時間依賴性方面的性能。為了解決這個問題,Hochreiter和Schmidhuber提出了一個新的架構,命名為長短期記憶網(wǎng)絡(LSTM)[25],它由單元,輸入門,輸出門和忘記門組成。該單元記住任意時間間隔內(nèi)的值,并且三個門控制進出單元的信息流[26]。門可以允許或阻止信息沿序列傳遞,可以捕獲長期時間依賴。由于LSMT網(wǎng)絡專為分析具有時間序列的數(shù)據(jù)而設計,在分析時間序列數(shù)據(jù)上取得了巨大的成功,例如占用率估計、視頻分析和自然語言處理[22,27]等。最近,它在RUL預測上也取得了不錯的成績,特別是最近的研究表明LSTM在用于機器設備剩余使用壽命預測的問題上是優(yōu)于CNN的[3]。但是,由于獨特設計的結構,LSTM的計算復雜度遠遠高于CNN。
雖然LSTM可以利用深度學習從時間序列中自動學習特征表示,并已經(jīng)在機器設備剩余使用壽命的預測任務上取得了良好的表現(xiàn)[28-29],但是標準的LSTM網(wǎng)絡僅使用在整個時間序列的最后時間點學習的特征進行回歸分析或分類,這樣做比較浪費在整個時間序列上的學習成果,這是因為如果能學習到其他時間點的特征應該會對最終的預測有一定的貢獻。此外,還有一些基于人類的領域知識獲取的特征可能提供對這個預測任務額外有用的信息。因此如何將這些基于人的智能構建的特征和基于深度學習LSTM網(wǎng)絡自動學習特征進行結合是一個重要的問題。
研究人員提出了一種新的基于注意力機制的深度學習方法進行機器設備剩余使用壽命的預測[3],主要思想是當LSTM網(wǎng)絡從傳感器信號中自動學習序列數(shù)據(jù)的特征時,用注意力機制在考慮各個時間點重要性的情況下綜合學習特征。它會同時學習兩個重要性:特征的重要性(哪一維更重要)和時間點的重要性,以將更大的權重分配給更重要的時間點及特征。也就是說,這個特征表示會是所有時間點所學重要特征的綜合,而重要的時間點在特征表示上會發(fā)揮更大的作用。此外,除了以上用深度學習到的特征,還需要一個特征融合框架來結合自動學習的特征和手工的特征,以提高系統(tǒng)的總體預測性能。圖3顯示了特征融合框架來結合自動學習的特征和手工的特征。
手工特征:從基于傳感器原始信號中,可以提取一些基于專家知識的手工定制特征,例如線性回歸的均值和趨勢系數(shù)。其中,均值表示傳感器數(shù)據(jù)的大小,趨勢系數(shù)表示傳感器數(shù)據(jù)的性能退化。這兩個簡單的手工定制的特征已被證明對機器設備剩余使用壽命的預測有用[8]。為了充分利用所有可用信息,這里需要一個特征融合框架來結合深度學習的特征和手工特征以提高系統(tǒng)預測的性能。
特征融合框架:在圖3中,根據(jù)原始傳感器信號的輸入,LSTM網(wǎng)絡對不同的時間點(1,2,…,s)用于自動學習特征表示。學習到各個時間點的序列特征被視為注意力機制模型(黃色)的輸入,其輸出(注意力的權重)表示了多維特征重要性和時間點的重要性。然后,將學習到的各個時間點序列特征根據(jù)注意力模型生成的權重進行加權融合。之后,通過兩個全連接層(藍色)以獲得更多抽象特征,同時,從原始傳感器信號中獲得的手工制作的特征,輸入全連接層以獲得更多抽象特征。為了充分利用這兩種特征,可以將它們合并起來形成一個完整的特征表示。最后,我們可以利用回歸分析進行機器設備剩余使用壽命的預測。
由于這個預測問題是一個典型的回歸分析問題,所提出方法的損失函數(shù)被設定為均方誤差(MSE)損失。給定預測的剩余使用壽命和真實的剩余使用壽命,MSE損失可用訓練數(shù)據(jù)進行計算并反向傳播到為每一層(例如LSTM層、注意力層和全連接層)。然后,Adam優(yōu)化方法被用來優(yōu)化模型在各層的參數(shù)。注意到圖3這個框架是一個端到端的可訓練架構,這意味著所有模型參數(shù)都可以聯(lián)合訓練。同時考慮深度學習模型中的過擬合問題,可以使用正則化技術。Dropout是解決這個問題的最流行的技術,在訓練階段,Dropout會隨機地部分屏蔽隱藏神經(jīng)元的輸出,以便這些神經(jīng)元不會影響前向傳播模型的訓練。但在測試階段,Dropout會被關閉,所有隱藏神經(jīng)元將會輸出結果。
用圖3的框架訓練的模型在兩個真實飛機發(fā)動機性能退化的C-MAPSS數(shù)據(jù)集上進行了實驗,實驗結果表明,這個新的模型優(yōu)于現(xiàn)有的技術[3]。
圖3 特征融合框架來結合自動學習的特征和手工的特征Fig.3 Feature fusion framework to integrate automatically learned features and manually designed features
在許多實際場景中,機器設備剩余使用壽命的預測模型需要部署在邊緣設備上,以支持實時決策,降低數(shù)據(jù)通信成本,并保留數(shù)據(jù)的隱私。然而由于這些機器設備具有有限的計算資源和內(nèi)存,因此,工業(yè)界普遍更喜歡可以實現(xiàn)準確預測和快速推理的小模型。但當前的深度學習算法太復雜,導致超大的模型,并且其推理過程也需要大量計算,因此,這些模型不可以應用到計算資源有限的設備端。
為了解決這些問題,模型壓縮技術已經(jīng)提出,通過壓縮深度神經(jīng)網(wǎng)絡來應用到邊緣設備中。例如,參數(shù)量化方法[30-31]使用更少的比特來壓縮原始網(wǎng)絡來表示權重,可以實現(xiàn)顯著的加速但也會導致精度損失[32]。另一種常見的用于模型壓縮方法是權重剪枝[33],其目的是去除深度神經(jīng)網(wǎng)絡中不必要的參數(shù)。雖然權重剪枝能夠減少模型存儲大小,但它不能提高訓練效率或推理時間。其他方法,如矩陣分解[34-35]雖然也可以減少模型大小,但它們只解決了存儲復雜深度模型的問題,并且有類似權重剪枝方法的缺點。相對來說,知識蒸餾方法不僅在減少模型存儲方面顯示出希望,而且可以提高模型的推理效率[36-37],所以蒸餾后的模型特別適合應用到設備端。
前面提到LSTM對傳感器時序數(shù)據(jù)有較為強大的建模能力,用它來預測機器設備剩余使用壽命達到較好的效果。然而,由于基于LSTM方法的模型很大、計算復雜性高,所以它不能部署到那些具有有限計算能力和存儲空間的邊緣設備上。因此,如何提出一個新的方法,從大型的模型中學習小而相對準確的模型變的異常重要,它是我們是否可以將模型應用到邊緣設備的關鍵問題。
為了解決這個問題,研究人員提出了新的知識蒸餾框架,用于把知識從復雜的基于LSTM的預測模型壓縮到小規(guī)模的CNN模型以便可以應用到設備端。它包括兩個部分,特征蒸餾和知識蒸餾,如圖4所示。
圖4 知識蒸餾框架Fig.4 Aknowledge distillation frame
圖4左邊是特征蒸餾部分,借鑒了生成對抗 網(wǎng) 絡(Generative Adversarial Network,簡 稱GAN)的思想,通過讓兩個神經(jīng)網(wǎng)絡相互博弈的方式進行學習。在這個設計的特征蒸餾方法中,兩個神經(jīng)網(wǎng)絡分別是生成網(wǎng)絡(G)和判別網(wǎng)絡(D)。在圖4中,基于CNN的特征抽取器被認為是生成網(wǎng)絡G,它表示學生用來從輸入數(shù)據(jù)中自動提取特征的模塊。與此同時,基于LSTM的特征抽取器是老師用來從輸入數(shù)據(jù)中自動提取特征的模塊。最后,判別網(wǎng)絡D作為一個兩類分類網(wǎng)絡,旨在識別抽取的特征是來自教師(圖4上面部分)還是學生(圖4下面部分)。在這里,判別網(wǎng)絡D和生成網(wǎng)絡G在玩一個兩人極小極大的博弈游戲,其中D旨在最大化正確分類抽取的特征分別來自老師和學生的概率,同時G旨在最小化D能夠預測特征來自學生的概率。交替重復上面的生成網(wǎng)絡和判別網(wǎng)絡的訓練過程,即迭代地最小化和最大化。最終,可以最大化基于CNN和基于LSTM的特征抽取器的相似度,學生能夠生成和老師相似的特征,從而改進學生的基于簡單CNN特征抽取器的性能。也就是說,老師(使用復雜網(wǎng)絡)教給學生(使用簡單網(wǎng)絡)如何從數(shù)據(jù)中獲得好的特征表示。
圖4右邊是知識蒸餾部分,接著處理機器設備剩余使用壽命預測的回歸任務。通過利用老師的預測來獲取知識蒸餾,因為老師的預測是從復雜網(wǎng)絡來的,比較準確,所以老師的預測結果被稱為軟標簽,而將軟損失定義為學生的預測和教師的預測之間的差異。此外,還有硬損失,它被定義為學生的預測和真實結果(標簽)之間的差異。知識蒸餾的總損失函數(shù)定義為軟損失和硬損失的加權組合。最后經(jīng)過最小化知識蒸餾的總損失函數(shù),可以學到小又比較準確的學生CNN網(wǎng)絡中的回歸器,并用于設備端剩余使用壽命的預測。在預測階段,我們用圖4的下半部分(學生網(wǎng)絡)做預測,也即從設備端獲得傳感器信號,然后通過CNN的特征抽取器G抽取特征(它可以獲得和復雜LSTM網(wǎng)絡相似的特征表示),然后用學生的回歸器進行預測(它可以獲得與老師回歸器相似的預測以及最小化訓練集中的錯誤,以取得準確的預測結果)。
使用圖4的模型在簡單和復雜數(shù)據(jù)集來驗證所提出模型的有效性。結果表明,所提出的新模型顯著優(yōu)于現(xiàn)有的方法。與復雜的大型LSTM老師網(wǎng)絡相比,最終獲得的基于CNN的學生模型網(wǎng)絡具有以下三個特點:(1)網(wǎng)絡權重減少12.8倍;(2)總浮點運算數(shù)減少了46.2倍;(3)它的性能達到了與大型的LSTM模型相當?shù)男阅埽?]。
現(xiàn)有的機器設備剩余使用壽命預測的工作通常有兩個假設:1)收集的訓練數(shù)據(jù)和測試數(shù)據(jù)來自相同的操作條件(相同的數(shù)據(jù)分布或領域);2)有豐富的訓練數(shù)據(jù)(大量真實的剩余使用壽命的例子)可用于訓練預測任務。但是在實際應用中,這兩個假設通常是不成立的。主要的原因如下:一是訓練數(shù)據(jù)的收集是昂貴的。對于一些復雜的關鍵機器,運行至失敗或生命周期可能付出高昂代價和導致災難性后果。此外,機器設備的性能下降過程可能會延續(xù)數(shù)年,這也會限制訓練數(shù)據(jù)的收集。二是利用現(xiàn)有的訓練數(shù)據(jù)集建立的模型可能只有在特定的工作條件下產(chǎn)生正確的預測。然而,當工作條件發(fā)生變化后,之前訓練的模型往往因為在不同工作條件下數(shù)據(jù)分布的不同,無法取得良好的效果。所以,在具有有限訓練數(shù)據(jù)和不同工作條件(數(shù)據(jù)分布)下預測剩余使用壽命是具有挑戰(zhàn)性的任務。
一般而言,我們可能會有其他領域(源領域)的訓練數(shù)據(jù),如何用它們來建立跨領域的預測模型,以便當前沒有訓練數(shù)據(jù)的當前領域(目標領域)取得良好的預測效果是這個問題的關鍵。領域自適應是一種將知識從訓練數(shù)據(jù)豐富的源領域轉移到一個不同但相關的缺乏訓練數(shù)據(jù)的目標領域的方法[38]。但是,大多數(shù)現(xiàn)有的領域自適應方法是為與圖像分析相關的任務而設計的。
最近研究人員提出了一種無監(jiān)督的對抗性領域自適應方法[39-40],它可以高效地從擁有訓練數(shù)據(jù)的源領域將知識轉移到一個新的沒有訓練數(shù)據(jù)的目標領域。這個方法具有三個主要步驟。第一步是從源領域中進行監(jiān)督學習,從訓練數(shù)據(jù)中通過源領域編碼器來抽取特征和建立預測模型。第二步是訓練目標領域的特征編碼器以產(chǎn)生與源領域相似的特征。通常目標領域特征編碼器先采用源領域編碼器的權重進行初始化。然后使用生成對抗網(wǎng)絡來減輕源領域和目標領域的不同分布。它基于兩個玩家進行跨領域的對抗性游戲(這里目標領域特征編碼器是生成器),以找出一個領域不變的特征表示,使得領域鑒別器網(wǎng)絡不能區(qū)分生成器產(chǎn)生的特征是來自源領域和還是目標領域。最后一步是使用源領域預測模型(在第一步建立的模型)和第二步建立的目標編碼器來對目標領域進行預測。因此,由于源領域和目標領域產(chǎn)生特征的高度相似性,預測器(回歸分析)在源領域上訓練的網(wǎng)絡可以很好地推廣到目標領域中,從而在目標領域產(chǎn)生準確的預測效果。在預測航空發(fā)動機12個跨領域場景的剩余使用壽命預測任務上,實驗結果表明新提出的方法明顯優(yōu)于現(xiàn)有的方法。
近年來,由于計算機硬件和機器學習算法不斷進步,人工智能的研究取得長足進展。特別是隨著物聯(lián)網(wǎng)的高速發(fā)展,大量不同類型的傳感器可以從機器設備上方便地收集大量的歷史和實時數(shù)據(jù)。另一方面,人工智能可以從大數(shù)據(jù)中學習,從而對機器設備的健康狀況進行自動診斷,以及在對其未來健康發(fā)展趨勢進行預測中發(fā)揮重要的作用。
本文主要集中探討了人工智能在機器設備剩余使用壽命預測中的應用。這項研究不但具有重要的理論價值,而且具有廣泛的實際應用。本文在介紹了一些經(jīng)典的方法基礎上,討論了三個新的重要研究方向。一是如何利用一個特征融合框架來更好地從傳感器時序數(shù)據(jù)中自動學習好的特征表示,并融合人的智能以進一步提升預測的準確率。二是如何通過知識蒸餾方法從大的深度學習網(wǎng)絡中學習,并把知識通過生成對抗網(wǎng)絡傳遞給小而準的網(wǎng)絡模型,以便在計算資源有限的設備端使用,并支持實時決策,降低數(shù)據(jù)通信成本,同時保留數(shù)據(jù)的隱私。三是如何利用源領域的訓練數(shù)據(jù)來建立跨領域的預測模型,以便在沒有訓練數(shù)據(jù)的目標領域取得良好的預測效果。其重要性在于很多情況下我們面臨在當前的目標領域沒有訓練數(shù)據(jù)的問題,而且源領域雖然有訓練數(shù)據(jù)但和目標領域有數(shù)據(jù)分布不同的問題,所以要用新的領域自適應的方法來把源領域和目標領域進行更好的匹配和對齊,以此提高預測的精度。
盡管這幾個新的研究方向取得了一定的進展,但是為了提高應用效果還需要很多的努力。很多情況下機器設備剩余使用壽命預測需要我們獲得大的訓練數(shù)據(jù),例如從機器設備全新的狀況下的數(shù)據(jù)一直到其生命周期結束的數(shù)據(jù),而在一些真實世界的應用中,我們不一定有這樣的數(shù)據(jù)。同時我們可能會有很多相同或相似機器設備的數(shù)據(jù),但不一定會有標簽(真實的剩余使用壽命),如何利用好這些無標簽的數(shù)據(jù)是進一步研究的關鍵。這里只依賴少量訓練數(shù)據(jù)和大量無標注數(shù)據(jù)新的半監(jiān)督學習和無監(jiān)督學習的方法就變得異常重要。