余鷹,王樂為,吳新念,伍國華,張遠(yuǎn)健
(1. 華東交通大學(xué) 軟件學(xué)院,江西 南昌 330013; 2. 中南大學(xué) 交通運(yùn)輸工程學(xué)院,湖南 長沙 410000; 3. 同濟(jì)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系,上海 201804)
不同于傳統(tǒng)的單標(biāo)記學(xué)習(xí)問題,多標(biāo)記學(xué)習(xí)考慮一個(gè)對(duì)象對(duì)應(yīng)多個(gè)類別標(biāo)記的情況。例如:一個(gè)基因可能同時(shí)具有多種功能,如新陳代謝、轉(zhuǎn)錄以及蛋白質(zhì)合成;一首樂曲可能傳達(dá)了多種信息,如鋼琴、古典音樂和莫扎特等;一幅圖像可能同時(shí)屬于多個(gè)類別,如motor、person與car等。早期,多標(biāo)記學(xué)習(xí)的研究主要集中于文本分類中遇到的多義性問題。經(jīng)過近十年的發(fā)展,多標(biāo)記學(xué)習(xí)已成為當(dāng)前國際機(jī)器學(xué)習(xí)領(lǐng)域研究的熱點(diǎn)問題之一,逐漸在情感分類[1]、圖像視頻語義標(biāo)注[2]、生物信息學(xué)[3]和個(gè)性化推薦[4]等實(shí)際應(yīng)用中扮演重要的角色。隨著相關(guān)應(yīng)用的發(fā)展及需求的不斷提升,多標(biāo)記學(xué)習(xí)技術(shù)的大規(guī)模應(yīng)用仍然要應(yīng)對(duì)很多的問題和挑戰(zhàn)。當(dāng)前在多標(biāo)記學(xué)習(xí)領(lǐng)域,特征表達(dá)大多采用人工設(shè)計(jì)的方式,如SIFT、HOG等,這些特征在特定類型對(duì)象中能夠達(dá)到較好的識(shí)別效果,但這些算法提取的只是一些低層次(low-level)特征,抽象程度不高,包含的可區(qū)分性信息不足,對(duì)于分類來說無法提供更多有價(jià)值的語義信息,影響分類的精度。目前,如何讓多標(biāo)記系統(tǒng)學(xué)會(huì)辨別底層數(shù)據(jù)中隱含的區(qū)分性因素,自動(dòng)學(xué)習(xí)更抽象和有效的特征已成為制約多標(biāo)記學(xué)習(xí)研究進(jìn)一步深入的瓶頸。
近年來,深度學(xué)習(xí)在圖像分類和目標(biāo)檢測等領(lǐng)域取得了突破性進(jìn)展,成為目前最有效的特征自動(dòng)學(xué)習(xí)方法。文獻(xiàn)[5]將傳統(tǒng)人工設(shè)計(jì)的特征與深度神經(jīng)網(wǎng)絡(luò)自學(xué)習(xí)的特征進(jìn)行了比較,發(fā)現(xiàn)后者更有助于提升圖像自動(dòng)標(biāo)注算法的性能。深度學(xué)習(xí)模型具有強(qiáng)大的表征和建模能力,通過監(jiān)督或非監(jiān)督的方式,逐層自動(dòng)地學(xué)習(xí)目標(biāo)的特征表示,將原始數(shù)據(jù)經(jīng)過一系列非線性變換,生成高層次的抽象表示,避免了手工設(shè)計(jì)特征的煩瑣低效。本文針對(duì)多標(biāo)記學(xué)習(xí)中存在的特征抽象層次不高的問題,利用包含多個(gè)隱含層的深度卷積神經(jīng)網(wǎng)絡(luò)直接從原始輸入中學(xué)習(xí)并構(gòu)建多層的分級(jí)特征,形成更加抽象的高層表示,實(shí)現(xiàn)以最少和最有效的特征來表達(dá)原始信息。同時(shí),針對(duì)卷積神經(jīng)網(wǎng)絡(luò)預(yù)測精度高但運(yùn)算速度慢的特點(diǎn),利用遷移學(xué)習(xí)和雙通道神經(jīng)元方法,縮減網(wǎng)絡(luò)的參數(shù)量,提高訓(xùn)練速度,在一定程度上彌補(bǔ)了卷積神經(jīng)網(wǎng)絡(luò)計(jì)算量大、速度較慢的缺陷。
為了便于敘述,在分析之前先給出多標(biāo)記問題的形式化定義。令 X ={x1,x2,···,xm} 代表實(shí)例空間, L ={l1,l2,···,lq} 代表所有標(biāo)記的集合,Y ={y1,y2,···,ym} 代 表標(biāo)記空間, T = {(xi,yi)|1 ≤ i ≤ m } 代表訓(xùn)練集。多標(biāo)記分類的任務(wù)就是用訓(xùn)練集T對(duì)模型進(jìn)行訓(xùn)練,使模型學(xué)得函數(shù)f:X→Y,其中xi∈X表示一個(gè)實(shí)例,yi∈Y表示實(shí)例xi所含有的類別標(biāo)記,且yi為標(biāo)記集合L的一個(gè)子集。訓(xùn)練完成后,將未分類的數(shù)據(jù)輸入模型,得到與實(shí)際標(biāo)記最大程度接近的分類結(jié)果。
目前,多標(biāo)記分類算法根據(jù)解決問題方式的不同,可歸為問題轉(zhuǎn)換型和算法適應(yīng)型兩類[6]。問題轉(zhuǎn)換型是將多標(biāo)記分類問題轉(zhuǎn)化為多個(gè)單標(biāo)記分類問題,如算法BR(binary relevance)[7]、LP(label powerset)[8]等,然后利用單標(biāo)記分類方法進(jìn)行處理。算法適應(yīng)型則是改進(jìn)已有的單標(biāo)記分類算法,使其適應(yīng)于多標(biāo)記分類問題,如算法BSVM(biased support vector machine)[9]、ML-KNN(multi-label k-nearest neighbor)[10]等。隨著深度學(xué)習(xí)的興起,已有一些學(xué)者開始基于深度學(xué)習(xí)研究多標(biāo)記分類問題,Zhang[11]由傳統(tǒng)徑向基函數(shù)RBF(radial basis function)推導(dǎo)出了一種基于神經(jīng)網(wǎng)絡(luò)的多標(biāo)記學(xué)習(xí)算法ML-RBF。Wang等[12]將卷積神經(jīng)網(wǎng)絡(luò)CNN(convolutional neural network)和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(recurrent neuron network)相結(jié)合,提出了一種多標(biāo)記學(xué)習(xí)的復(fù)合型框架,用于解決多標(biāo)記圖像分類問題,但這些算法的精度和時(shí)間復(fù)雜度都有待進(jìn)一步提升。
卷積神經(jīng)網(wǎng)絡(luò)CNN是一種深度神經(jīng)網(wǎng)絡(luò)模型,主要由卷積層、池化層和全連接層構(gòu)成,如圖1所示。卷積層負(fù)責(zé)圖像特征提取,池化層用于降維及實(shí)現(xiàn)不變形,而全連接層則起到分類器的作用。卷積層和池化層一般作為組合多次成對(duì)出現(xiàn),也可以根據(jù)實(shí)際情況靈活使用,如AlexNet[13]和VGG[14]。
圖 1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig. 1 Convolutional neural network structure
相比于傳統(tǒng)的特征提取方法,卷積神經(jīng)網(wǎng)絡(luò)不需要事先人工設(shè)定特征,而是通過網(wǎng)絡(luò)模型從大量數(shù)據(jù)中自動(dòng)學(xué)習(xí)特征表示。通過多層非線性映射,逐層提取信息,最底層從像素級(jí)原始數(shù)據(jù)學(xué)習(xí)濾波器,刻畫局部邊緣和紋理特征;中層濾波器對(duì)各種邊緣濾波器進(jìn)行組合后,描述不同類型的局部特征;最高層描述整體全局特征。
遷移學(xué)習(xí)(transfer learning)的基本思想是將從一個(gè)環(huán)境中學(xué)到的知識(shí)用于新環(huán)境中的學(xué)習(xí)任務(wù)。
目前,遷移學(xué)習(xí)已被廣泛應(yīng)用于各個(gè)領(lǐng)域,例如,在文檔分類方面,Dai等[15]提出聯(lián)合聚類的方法,通過不同領(lǐng)域共享相同的詞特征進(jìn)行知識(shí)遷移;在智能規(guī)劃中,Zhuo等[16]提出一種新的遷移學(xué)習(xí)框架TRAMP,通過建立源領(lǐng)域與目標(biāo)領(lǐng)域之間的結(jié)構(gòu)映射來遷移知識(shí),獲取人工智能規(guī)劃中的動(dòng)作模型。
由于圖像傳遞信息的底層機(jī)制相通,因此可以利用遷移學(xué)習(xí),將在源域上訓(xùn)練好的網(wǎng)絡(luò)模型,通過共享網(wǎng)絡(luò)參數(shù),使之在目標(biāo)域上也具有一定的特征提取能力。本文采用在ImageNet[17]數(shù)據(jù)集上訓(xùn)練好的Inception V3[18]模型進(jìn)行圖像特征提取。該模型引入了“Factorization into small convolutions”的思想,將一個(gè)較大的二維卷積核拆分成兩個(gè)較小的一維卷積核,例如將 3 × 3 的卷積 核 分 解 成 1 × 3 和 3 × 1 兩 個(gè) 卷 積 核。這 種 非 對(duì)稱的拆分方式減少了網(wǎng)絡(luò)參數(shù)量,降低了過擬合風(fēng)險(xiǎn),可以保證對(duì)ImageNet之外的數(shù)據(jù)集具有很好的泛化性能。
為了進(jìn)一步減少全連接層參數(shù)數(shù)量,本文對(duì)Inception V3模型的全連接層進(jìn)行改進(jìn),引入雙通道神經(jīng)元,優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),并結(jié)合遷移學(xué)習(xí)提出了多標(biāo)記分類模型ML_DCCNN。最后,將全連接層的輸出送入SoftMax分類器,從而得到各標(biāo)記的預(yù)測概率,然后根據(jù)各標(biāo)記的概率計(jì)算多標(biāo)記分類損失函數(shù)。
在反向傳播時(shí),保留Inception V3模型的特征提取層,即固定特征提取層的權(quán)重和偏置參數(shù),并用神經(jīng)元個(gè)數(shù)為20的全連接層替換原有全連接層,設(shè)置該層的初始權(quán)重和偏置為0,學(xué)習(xí)率設(shè)置為0.001,batchsize設(shè)置為100。然后,使用隨機(jī)梯度下降算法,用PASCAL Visual Object Classes Challenge(VOC)數(shù)據(jù)集[19]對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào),使其適應(yīng)于新數(shù)據(jù)集,算法的具體流程如圖2所示。
圖 2 基于改進(jìn)CNN的多標(biāo)記分類算法框架Fig. 2 Multi-label classification algorithm framework based on improved convolution neural network
在卷積神經(jīng)網(wǎng)絡(luò)中,卷積、池化和激活函數(shù)等操作將原始數(shù)據(jù)映射到隱層特征空間,全連接層則將學(xué)到的分布式特征表示映射到標(biāo)記空間,即全連接層在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中起到了“分類器”的作用。但全連接層上往往包含大量參數(shù),對(duì)整個(gè)網(wǎng)絡(luò)的速度有一定影響。雖然FCN[20]全卷積模型取消了全連接層,避免了全連接層的副作用,但是在Zhang等[21]的研究中,全連接層能夠在模型表示能力遷移過程中充當(dāng)“防火墻”的作用,保證模型表示能力的遷移。因此為了能夠在保留全連接層的基礎(chǔ)上,減少網(wǎng)絡(luò)參數(shù),本文提出了雙通道神經(jīng)元的概念。
2.2.1 基本結(jié)構(gòu)
本文將全連接層中只能接受一種標(biāo)記特征信息的神經(jīng)元稱為普通神經(jīng)元,如圖3(a)所示,全連接層中最后一層的神經(jīng)元個(gè)數(shù)和具體分類問題的標(biāo)記總數(shù)相等,如某數(shù)據(jù)集上共有 n 種標(biāo)記,則最后一層全連接層上的神經(jīng)元個(gè)數(shù)為 n。
本文將可以接受兩種標(biāo)記特征信息的神經(jīng)元稱為雙通道神經(jīng)元。一個(gè)雙通道神經(jīng)元相當(dāng)于兩個(gè)普通神經(jīng)元的合并,它改進(jìn)了全連接層,有效地減少了該層的參數(shù)。在接受到特征信息后,為了能將合并的標(biāo)記區(qū)分,使用雙通道的神經(jīng)元,需在其后再連接兩個(gè)神經(jīng)元,分別表示對(duì)應(yīng)的標(biāo)記,并規(guī)定所連接的兩個(gè)神經(jīng)元上的權(quán)重分別為1和-1,如圖 3 (b)所示。
圖 3 全連接層Fig. 3 Fully connected layer
在圖3(a)中,假設(shè)分類標(biāo)記數(shù)為 n,全連層輸入為 m,則權(quán)重參數(shù)有 m ×n 個(gè) ,偏置參數(shù)有 n 個(gè),總 參 數(shù) 有 m × n+n 個(gè)。ception V3 模型的輸入 m 為 2 048,輸出標(biāo)記 n 為20,所以在 m 遠(yuǎn) 大于 n 前提下,使用雙通道神經(jīng)元最多可縮減一半?yún)?shù),如公式(1)所示:
式中: m ?n; n =2d+e。
在圖3(b)中,假設(shè)全連接層有 d 個(gè)雙通道神經(jīng)元和e個(gè)不使用雙通道的神經(jīng)元。在同樣假設(shè)條件下,該層權(quán)重參數(shù)為 m × (d+e)+2d 個(gè),偏置參數(shù)為d+e個(gè),總參數(shù)為 ( m +1)×(d+e)+2d 個(gè)。一般情況下,輸入值 m 遠(yuǎn)大于輸出值 n,例如In-
2.2.2 核心思想
打包和解包是雙通道神經(jīng)元的核心思想。打包主要表現(xiàn)在將兩種標(biāo)記合二為一在一個(gè)神經(jīng)元上,即最后一層全連接層上的每個(gè)神經(jīng)元可以表示兩種標(biāo)記,接受兩種標(biāo)記的特征信息。例如:將飛機(jī)和自行車這兩種標(biāo)簽打包在一起,由一個(gè)神經(jīng)元負(fù)責(zé)輸出,則該神經(jīng)元上的權(quán)重只對(duì)飛機(jī)和自行車的特征信息敏感。但僅用一個(gè)神經(jīng)元輸出,存在無法判別輸出是飛機(jī)還是自行車的情況,因此需要解包思想,主要表現(xiàn)在一個(gè)神經(jīng)元又“分裂”出兩個(gè)神經(jīng)元,具體如圖4所示。
圖 4 打包與解包示意Fig. 4 Package and unpack diagram
圖4左邊為普通全連接層的神經(jīng)元,每個(gè)神經(jīng)元僅對(duì)一種標(biāo)記特征信息敏感,如上方神經(jīng)元僅對(duì)飛機(jī)特征信息敏感,下方神經(jīng)元僅對(duì)自行車特征信息敏感。圖4右邊使用了雙通道神經(jīng)元,每個(gè)神經(jīng)元對(duì)兩種類別的特征信息敏感,例如同時(shí)對(duì)飛機(jī)和自行車的特征信息敏感,在提取出飛機(jī)和自行車的特征后,再分裂出兩個(gè)神經(jīng)元分別代表對(duì)應(yīng)的標(biāo)記,其中權(quán)重為1的代表飛機(jī),權(quán)重為-1的代表自行車。
設(shè) D ={(xi,yi)|i=1,2,···,n} 代 表具有 n 個(gè)樣本的訓(xùn)練集,其中 xi=[xi1xi2···xid] 是 第 i 個(gè) 樣本的d維特征向量, yi=[yi1yi2···yiq] 是 第 i 個(gè)樣本的標(biāo)記向量,其維度 q 與數(shù)據(jù)集標(biāo)記總數(shù)相等, yij=1 表示xi含有標(biāo)簽 lj, yij=0 則表示不含有。
SoftMax分類器不僅可以用于處理單標(biāo)記分類問題,也可以用于處理多標(biāo)記分類問題。本文將最后一層全連接層的輸出送入SoftMax分類器中,得出圖片含有各標(biāo)記的概率,例如圖片xi含有標(biāo)記 lj的概率:
式中:fj(xi)表示圖片xi對(duì)應(yīng)標(biāo)記 lj的 激活值,q表示數(shù)據(jù)集的標(biāo)記總數(shù)。經(jīng)過SoftMax分類器輸出各標(biāo)記概率后,定義交叉熵?fù)p失函數(shù):
由式(3)和式(4)可以推導(dǎo)出:
式中:n 表示一個(gè)Batch上的圖片數(shù)量;c+表示圖片xi上正標(biāo)記的總個(gè)數(shù)。
本文實(shí)驗(yàn)在處理器為i5-3210M的Windows PC機(jī)上完成,基于TensorFlow 1.2.1實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò),采用了PASCAL VOC2007和PASCAL VOC2012兩個(gè)多標(biāo)記數(shù)據(jù)集,二者均含有20個(gè)類別標(biāo)記。PASCAL VOC2007數(shù)據(jù)集共有9 963張圖片,其中訓(xùn)練驗(yàn)證集有5 011張,測試集有4 952張,PASCAL VOC2012共有33 260張圖片,其中訓(xùn)練驗(yàn)證集有17 125張,測試集有16 135張。
為了驗(yàn)證雙通道神經(jīng)元的可用性,本文對(duì)普通全連接層結(jié)構(gòu)和采用雙通道神經(jīng)元的全連層結(jié)構(gòu)的分類效果進(jìn)行了比較,其中雙通道神經(jīng)元的標(biāo)簽兩兩合并方式如表1所示。表2顯示了PASCAL VOC數(shù)據(jù)集中的一個(gè)多標(biāo)記圖像(如圖5)分別使用普通全連接層和包含10個(gè)雙通道神經(jīng)元的全連層在訓(xùn)練2 000步時(shí),softmax分類器的輸出值,其中,F(xiàn)C表示普通全連接層,DC(Dual_Channel)表示雙通道神經(jīng)元全連接層,GT表示ground_truth。DC所用 d 值為10,即10個(gè)雙通道神經(jīng)元結(jié)構(gòu)。表3為訓(xùn)練了5 000次的普通全連接層FC和使用10個(gè)雙通道神經(jīng)元的全連接層DC在100張圖片上每個(gè)標(biāo)記sof tmax的平均輸出值,其中NUM表示在100張圖片上每個(gè)標(biāo)記出現(xiàn)的總數(shù),出現(xiàn)次數(shù)最多的標(biāo)記分別為person和car,可以看出兩種全連接層在這兩個(gè)標(biāo)記上所對(duì)應(yīng)的softmax也最大,且很接近。由表2和表3可知,在使用10個(gè)雙通道神經(jīng)元時(shí),全連接層參數(shù)縮減了近一半,但網(wǎng)絡(luò)仍能準(zhǔn)確識(shí)別出多標(biāo)記圖片中的物體類別,且sof tmax分類器的輸出值與普通全連接層相近,在一定程度上證明了雙通道神經(jīng)元的可用性。
圖 5 多標(biāo)記圖像Fig. 5 Multi-label image
表 1 標(biāo)簽合并方式Table 1 Label merging mode
表 2 使用兩種全連接層的分類結(jié)果比較Table 2 Result comparison of two fully connected layers
表 3 兩種全連接層的平均分類效果比較Table 3 Average effect comparison of two fully connected layers
為了說明雙通道神經(jīng)元個(gè)數(shù)對(duì)分類效果的影響,在PASCAL VOC2007數(shù)據(jù)集上對(duì)比了雙通道神經(jīng)元個(gè)數(shù) d 分別取不同值時(shí)的模型分類效果,如表4所示。由表3可見,隨著 d 值增大,平均準(zhǔn)確率(mean average precision, mAP)值在降低,每個(gè)標(biāo)記所得最高AP值出現(xiàn)在非雙通道神經(jīng)元的輸出中,即雙通道神經(jīng)元在減少參數(shù)的同時(shí)犧牲一定的準(zhǔn)確率,變化趨勢如圖6所示。圖6中,λ表示雙通道神經(jīng)元所占的比例, λ = d/n。由圖可見,隨著 λ 增大,mAP逐漸降低,當(dāng) λ = 0.5 時(shí),mAP取最小值;實(shí)線表示全連接層上的參數(shù)縮減比例 β , 隨著 λ 增 加, β 逐 步上升,當(dāng) λ = 0.5 時(shí),β達(dá)到最大值0.5。
為了驗(yàn)證ML_DCCNN模型的分類效果,本文分別在Pascal VOC2007和Pascal VOC2012數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),比較了ML_DCCNN、普通全連接層模型CNN-SoftMax、傳統(tǒng)的多標(biāo)記分類算法INRIA[22]、FV[23]和 G S-MKL[24],以及基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)記分類模型PRE-1000C[25]和HCP-1000[26],評(píng)價(jià)指標(biāo)使用 A ccuracy Precision(AP),雙通道神經(jīng)元個(gè)數(shù) d 取10,實(shí)驗(yàn)結(jié)果如表5和表6所示。由表可見,相對(duì)于傳統(tǒng)算法的多標(biāo)記分類算法,深度神經(jīng)網(wǎng)絡(luò)在圖像特征提取和分類效果上有著明顯優(yōu)勢,其中PRE-1000C和HCP-1000基于AlexNet卷積神經(jīng)網(wǎng)絡(luò),相比于本文遷移學(xué)習(xí)所使用的Inception V3模型所得mAP值較低。
表 4 d取不同值時(shí)AP在PASCAL VOC2007數(shù)據(jù)集上的變化Table 4 Comp ar ison of AP of algor ithm on PASCAL VOC2007 data set
圖 6 雙通道神經(jīng)元比例λ 對(duì)平均準(zhǔn)確率mAP和參數(shù)縮減比例 β 的影響Fig. 6 Effect of dual-channel neuron ratio λon the mAP and ratio β of parameter reduction
表 5 不同分類算法AP在PASCAL VOC2007 上的比較Table 5 Comparison of AP of different classification algorithms on PASCAL VOC2007 data set
表 6 不同分類算法AP在PASCAL VOC2012數(shù)據(jù)集上的比較Table 6 Comparison of AP of different classification algorithms on PASCAL VOC20012 data set
總之,通過實(shí)驗(yàn)可以證明使用雙通道神經(jīng)元能夠?qū)θB接層參數(shù)進(jìn)行一定比例的縮減,而由于全連接層參數(shù)往往是遷移學(xué)習(xí)過程中所需要訓(xùn)練的全部參數(shù),因此全連接層參數(shù)的縮減在一定程度上意味著整個(gè)網(wǎng)絡(luò)模型的參數(shù)縮減。雖然雙通道神經(jīng)元在特征提取方面存在一定準(zhǔn)確率損失,但整體性能依然在可接受范圍之內(nèi),雙通道神經(jīng)元提供了不同程度的參數(shù)縮減與性能表現(xiàn)的可選擇性,某種程度上增加了網(wǎng)絡(luò)模型的靈活性。
本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)記分類方法,設(shè)定了針對(duì)多標(biāo)記分類的損失函數(shù),并在PASCAL VOC2007和PASCAL VOC2012兩個(gè)多標(biāo)記數(shù)據(jù)集上進(jìn)行了驗(yàn)證。總體而言,與以往的方法相比,本文提出的使用遷移學(xué)習(xí)和雙通道神經(jīng)元多標(biāo)記分類方法,可以在保證一定準(zhǔn)確率的前提下減少網(wǎng)絡(luò)參數(shù),節(jié)省計(jì)算資源。在當(dāng)下注重準(zhǔn)確率和計(jì)算量平衡的背景下,有著較好的適應(yīng)性和應(yīng)用前景。但限于數(shù)據(jù)、機(jī)器性能等因素,本文沒有進(jìn)行更多的實(shí)驗(yàn)來證明標(biāo)記相關(guān)性約束條件下分類算法的性能。因此將來的工作從以下方面開展:利用深度學(xué)習(xí)模型構(gòu)建標(biāo)記之間的依賴關(guān)系以及在標(biāo)記依賴關(guān)系約束下進(jìn)行多標(biāo)記卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。