吳 迪,劉秀磊,侯凌燕,劉旭紅,李紅臣
(1.北京信息科技大學(xué) 計算機學(xué)院,北京 100101;2.國家安全生產(chǎn)監(jiān)督管理總局通信信息中心,北京 100013)
花卉圖像背景的復(fù)雜性和花卉自身多樣性等因素導(dǎo)致花卉圖像分類成為圖像分類學(xué)科一大問題。其中,如何把花卉輪廓從花卉圖像中提取出來是去除背景對花卉分類影響的關(guān)鍵。近年來,許多研究者對花卉圖像分割和花卉圖像分類展開了研究。楊耀等[1]提出了一種基于標(biāo)記提取的GrowCut自動分割算法,該方法在分割之前使用閾值分割預(yù)處理,這樣可能會因閾值限定而導(dǎo)致分割效果不佳;謝曉東等[2]提出了一種基于顯著性檢測和Grabcut的花卉圖像分割方法,該方法過程繁瑣,對每張圖片進行分割的工作量較大;Mabrouk等[3]提出了一種基于顏色特征提取的花卉圖像分割方法,在Lab顏色空間上使用最大類間方差(OTSU算法)對花朵圖像的前景和背景進行劃分,但由于OTSU算法對目標(biāo)大小和噪聲非常敏感,分割效果不理想,影響了圖像分類的準(zhǔn)確性。背景先驗顯著性檢測由Yang等[4]提出,該算法考慮將四邊作為先驗背景,根據(jù)基于圖論的流行排序算法,通過與標(biāo)記的節(jié)點的相似性計算顯著性。該算法可以有效地輔助提取花卉圖像主題區(qū)域,不需要預(yù)先對圖像進行標(biāo)注,也不需要對每類圖像分別進行訓(xùn)練。因此本文將基于背景先驗的顯著性檢測算法用于花卉分割中,提出一種改進的先驗背景顯著性檢測花卉分割方法,將OTSU方法用于最后的分割中。
傳統(tǒng)的方法需要為每個花類建立一個分類器,并獲取大量的花卉圖片來訓(xùn)練這些分類器。文獻[5-6]通過提取花卉圖片的Lab顏色特征、SIFT特征或紋理等特征進行花卉圖像的分類;文獻[7]使用多特征融合方法對花卉圖像進行分類;文獻[8-9]采用的是先對圖像進行分割再進行分類的方法。由于需大量人工標(biāo)注信息、特征信息不足,傳統(tǒng)花卉分類方法分類能力有限。在Oxford flowers-102數(shù)據(jù)集上,傳統(tǒng)花卉分類方法準(zhǔn)確率均低于81%。
近些年,深度學(xué)習(xí)方法因其在學(xué)習(xí)圖像高層次特征上的優(yōu)勢,被廣泛應(yīng)用到圖像分類任務(wù)中。文獻[10]使用泛化性較好的支持向量機(support vector machine,SVM)算法,替代卷積神經(jīng)網(wǎng)絡(luò)中的Softmax層來訓(xùn)練特征,得到最終的花卉圖像分類器;文獻[11]利用LeNet技術(shù)在花卉圖像識別中的應(yīng)用提高了花卉識別的準(zhǔn)確性;文獻[12]針對花卉圖像構(gòu)造了一個全新的深度卷積識別模型,在ImageNet數(shù)據(jù)庫上做的實驗表明該模型對于花卉圖像的識別效果明顯;文獻[13]對Alex Net深度卷積神經(jīng)網(wǎng)絡(luò)進行改進,該方法能夠更好地實現(xiàn)非剛性物體的識別,并能解決花卉圖像類間不平衡的問題。
但以上方法不能針對花卉圖像更加底層的特征建立相應(yīng)的網(wǎng)絡(luò)用于分類。本文利用遷移學(xué)習(xí)的思想,采用深度卷積神經(jīng)網(wǎng)絡(luò)的方法,將在大規(guī)模數(shù)據(jù)庫上預(yù)訓(xùn)練的網(wǎng)絡(luò)用于花卉圖像的分類,并改進其中的架構(gòu),使之更加適用于花卉圖像的分類任務(wù)。
日常拍攝的花卉圖像均包含雜亂背景,即使是同類花卉圖片,所處的環(huán)境也不盡相同,這些復(fù)雜背景會對花卉圖像的自動分類造成一定程度上的干擾。為有效進行花卉圖像自動分類,本文先將花卉的主題區(qū)域從復(fù)雜背景中提取出來,然后將分割后的圖片放入網(wǎng)絡(luò)中進行訓(xùn)練。
本文通過改進文獻[14]的圖片分割方法對花卉圖片進行分割。花卉圖像分割的主要思想是:首先,將花卉圖像進行超像素分割,再分別根據(jù)4個邊界超像素塊的顯著性對其余超像素塊的顯著性進行查詢;接著對4個查詢結(jié)果進行合并,得到最終的顯著圖;最后對顯著圖進行自適應(yīng)二值化,得到最終的分割結(jié)果。
為采用區(qū)域間對比的方式來計算一個區(qū)域的顯著度,本文根據(jù)文獻[14]提出的簡單線性迭代聚類(simple linear iterative cluster, SLIC)方法將圖像分成K個均勻區(qū)域(即超像素),一般取K=200。該算法的主要思想是根據(jù)像素點間的顏色和距離相似性進行聚類。具體步驟如下:
2)調(diào)整聚類中心。為避免聚類中心在輪廓邊界上有較大的梯度,影響后續(xù)的聚類效果,在每個聚類中心周圍3×3區(qū)域內(nèi)重新調(diào)整聚類中心。利用式(1)計算周圍3×3區(qū)域內(nèi)9個像素點的梯度值,將聚類中心移到該區(qū)域內(nèi)梯度最小的地方。
dx=(l(x-1)+l(x+1))2+(a(x-1)-
a(x+1))2+(b(x-1)-b(x+1))2
dy=(l(y-1)+l(y+1))2+(a(y-1)-
a(y+1))2+(b(y-1)-b(y+1))2
(1)
式中:l(·)、a(·)和b(·)分別表示在該處對應(yīng)的LAB值;Δ為在(x,y)處的梯度值。
3)分配類標(biāo)簽。在每個聚類中心周圍2S×2S領(lǐng)域為每個像素點分配類標(biāo)簽,即該像素點屬于哪個聚類中心。將最近聚類中心點的超像素編號賦給該像素點,并將聚類中心的位置調(diào)整為整個超像素的重心。不斷迭代該過程,直到每個聚類中心點不再發(fā)生變化。像素點和聚類中心點距離度量為:
(2)
4)合并超像素。經(jīng)過上述迭代優(yōu)化后,會出現(xiàn)超像素塊尺寸過小,多連通,單超像素被切割成多個超像素等情況。這些情況可通過重分配超像素解決。主要思路:按照“Z”型走向,將不連續(xù)的超像素和尺寸過小的超像素重新合并給最近的超像素。
超像素分割過程如圖1所示??煽闯?,經(jīng)過超像素分割的花卉圖像被分為大小均勻的超像素塊,每個超像素內(nèi)的像素點在LAB顏色空間內(nèi)都是相近的。
圖1 超像素分割流程
文獻[15]指出,背景區(qū)域通常出現(xiàn)在圖像的邊緣,而顯著目標(biāo)通常在遠離目標(biāo)的圖像中心附近?;谶@種先驗知識,本文選取處于圖像邊緣的超像素塊作為背景區(qū)域,通過與背景區(qū)域在顏色空間的對比計算出其他區(qū)域的顯著度。以下為計算圖像背景先驗顯著性的過程:
1)計算流形排序。由于本文假定圖像邊緣處的超像素塊為背景區(qū)域,因此需要計算背景超像素塊與其他超像素快的相對顯著性。流形排序算法根據(jù)給定節(jié)點與其余節(jié)點的相關(guān)性對其余節(jié)點進行排序,該算法目的是得到一個排序函數(shù)來計算未標(biāo)記節(jié)點與給定節(jié)點的相關(guān)性。
文獻[16]提出一個采用數(shù)據(jù)內(nèi)在流形結(jié)構(gòu)的排序方法。該函數(shù)定義為:對于數(shù)據(jù)向量X=[x1,x2,…,xn]T,分配給每一個點xi一個排序值,函數(shù)的輸出為f=[f1,f2,…,fn]T。標(biāo)記向量y=[y1,y2,…,yn]T,其中yi=1表示xi是一個給定的查詢節(jié)點,yi=0表示不是。在數(shù)據(jù)集上定義一個圖G=(V,E),其中V為數(shù)據(jù)的節(jié)點集合,E為圖的邊集合,可以由一個相似性矩陣W=[wij]n×n加權(quán)得到。節(jié)點的最佳排序計算問題可以看成是一個最優(yōu)化問題:
(3)
為方便計算,將式(3)進行非規(guī)范化拉普拉斯變換,進一步寫成:
f*=(D-αW)-1y
(4)
2)計算顯著性。根據(jù)式(4),將輸入圖像用圖結(jié)構(gòu)表示。通過使用超像素分割方法生成許若干超像素塊,每一塊超像素對應(yīng)圖中一個節(jié)點Vi(1≤i≤|V|),并指定邊緣處的超像素節(jié)點為查詢節(jié)點。圖結(jié)構(gòu)使用正則圖表示,即每個節(jié)點不僅與其相鄰節(jié)點相連,也與其相鄰節(jié)點的相鄰節(jié)點相連的圖。其邊的權(quán)值為
(5)
(6)
同理,利用下、左、右3個邊界作為查詢,可以得到另外3個顯著圖Sb、Sl和Sr,最后將4個顯著圖相乘,形成最終的顯著圖:
Sbq(i)=St(i)×Sb(i)×Sl(i)×Sr(i)
(7)
將顯著圖歸一化到[0,255]范圍以便查看形成顯著圖的過程,如圖2所示??煽闯觯瑢?yīng)某條邊的顯著圖均不能將花卉輪廓很好地表示出來,但合成后的顯著圖可明顯看出其中的花卉輪廓。
圖2 形成顯著圖流程
通過圖像顯著性的方法,可得到圖像合成的顯著圖。將其進行二值化處理,將二值化的圖作為掩碼提取出原圖的花卉區(qū)域。以下為將顯著圖中花卉圖像部分分割出來的過程。
1)OTSU二值化。經(jīng)過計算圖像顯著性后,得到合成的顯著圖,該圖背景和前景之間的類間方差很大,本文采用文獻[17]中提出的最大類間方差法(OTSU)對圖像進行自適應(yīng)二值化。OTSU是一種基于全局的二值化算法,它根據(jù)圖像的特性,將圖像分為前景和背景兩部分。
記t為前景與背景之間的分割閾值,前景像素點所占比例為w0(t),平均灰度為u0(t);背景像素點所占比例為w1(t),平均灰度為u1(t),整張圖像平均灰度為u,前景和背景圖像的方差為g,易知w0(t)+w1(t)=1。則有:
u=w0(t)u0(t)+w1(t)u1(t)
(8)
g(t)=w0(t)×(u0(t)-u)2+w1(t)×(u1(t)-u)2
(9)
聯(lián)立上兩式可得:
(10)
前景和背景差異最大時,可認(rèn)為類間方差g最大,此時灰度級閾值T為最優(yōu)閾值:
(11)
遍歷顯著圖中的每個像素點的灰度值,當(dāng)該灰度值大于閾值T時,將該位置的灰度值設(shè)為255(白色,前景),否則灰度值設(shè)為0(黑色,背景),說明該位置是背景。得到二值化圖。
2)提取花卉區(qū)域。將二值化圖作為掩碼,提取出原圖的花卉區(qū)域,得到原始花卉分割圖。提取花卉分割圖的最小外接矩形,得到最小外接矩形分割圖。在原圖中取外接矩形位置裁剪的圖像,得到ROI區(qū)域分割圖。分割流程如圖3所示。
圖3 花卉分割流程
花卉圖像分類的問題之一是花卉圖像的訓(xùn)練數(shù)據(jù)量很小,若直接采用卷積神經(jīng)網(wǎng)絡(luò)參數(shù)初始化,并采取從頭訓(xùn)練的方法,當(dāng)前的訓(xùn)練數(shù)據(jù)量是不夠的。采用遷移學(xué)習(xí)[18]的方法,選用已經(jīng)訓(xùn)練好權(quán)重的卷積神經(jīng)網(wǎng)絡(luò),用自己的數(shù)據(jù)集進行有監(jiān)督的參數(shù)訓(xùn)練。
本文借鑒遷移學(xué)習(xí)的思想,將在大規(guī)模數(shù)據(jù)集ImageNet上訓(xùn)練的InceptionV3網(wǎng)絡(luò)結(jié)構(gòu)用作預(yù)訓(xùn)練網(wǎng)絡(luò)的初始化權(quán)重。修改網(wǎng)絡(luò)的頂層使其適于花卉分類的實驗。對網(wǎng)絡(luò)進行遷移訓(xùn)練和微調(diào)訓(xùn)練,提升模型的分類效果。
本文利用在大規(guī)模數(shù)據(jù)集上訓(xùn)練的InceptionV3網(wǎng)絡(luò)[19]作為花卉分類網(wǎng)絡(luò),該網(wǎng)絡(luò)在InceptionV2的基礎(chǔ)上改進了3種Inception模塊[19]。
第一種Inception模塊中,每個5×5的卷積被2個3×3的卷積所替代,如圖4所示。
圖4 第一種Inception模塊結(jié)構(gòu)
第二種Inception結(jié)構(gòu)中,將n×n卷積分解成n×1和1×n兩層卷積的形式。對于17×17的網(wǎng)絡(luò),最終選擇n=7,如圖5所示。
圖5 第二種Inception模塊結(jié)構(gòu)
第三種Inception結(jié)構(gòu)中,拓展卷積核組的輸出。將3×3的卷積層拆分成1×3和3×1兩種卷積層,這種架構(gòu)用在粗網(wǎng)絡(luò)(Coarsest Grid)中促進高尺寸圖像的表示,如圖6所示。
圖6 第三種Inception模塊結(jié)構(gòu)
本花卉分類實驗需要將102類花卉進行分類。為使該網(wǎng)絡(luò)適用于花卉分類,本文對該網(wǎng)絡(luò)進行改進,刪除網(wǎng)絡(luò)的最后一層全連接層,為擴大神經(jīng)網(wǎng)絡(luò)輸入?yún)^(qū)域,加入一層全局平均池化層。加入一層全連接層(1024個節(jié)點),為了防止網(wǎng)絡(luò)過擬合,加入了Dropout處理,一般將概率設(shè)置為0.5。由于分類的需要,最后添加一層全連接層(102個節(jié)點),激活函數(shù)采用Softmax,輸出節(jié)點為102類。遷移后網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。
表1 遷移后的網(wǎng)絡(luò)結(jié)構(gòu)(315層)
從表1可看出,網(wǎng)絡(luò)輸入為229×229×3,對應(yīng)輸入圖片的尺寸。網(wǎng)絡(luò)的輸出為1×1×102,對應(yīng)每類花的概率值。
文獻[20]指出,在數(shù)據(jù)集小,且數(shù)據(jù)與預(yù)訓(xùn)練時用的數(shù)據(jù)相似性不高的情況下,遷移訓(xùn)練后進行微調(diào)(Fine Tune, FT)訓(xùn)練很有必要。
本網(wǎng)絡(luò)模型的訓(xùn)練過程包括2個步驟,網(wǎng)絡(luò)遷移過程、網(wǎng)絡(luò)微調(diào)過程。算法表示如下:
1)將基礎(chǔ)InceptionV3網(wǎng)絡(luò)在大規(guī)模數(shù)據(jù)集Dg上進行訓(xùn)練,得到網(wǎng)絡(luò)Ng。
2)改進網(wǎng)絡(luò)結(jié)構(gòu),使其適用于花卉識別的數(shù)據(jù)集,得到網(wǎng)絡(luò)Nf。
3)將網(wǎng)絡(luò)進行進行遷移訓(xùn)練,得到訓(xùn)練后的網(wǎng)絡(luò)Nf-tl。
4)微調(diào)網(wǎng)絡(luò)到目標(biāo)花類數(shù)據(jù)集Ds。微調(diào)訓(xùn)練后,得到網(wǎng)絡(luò)Nf-ft。
5)將最終得到的網(wǎng)絡(luò)Nf-ft用于花卉圖像的分類預(yù)測。
網(wǎng)絡(luò)訓(xùn)練過程詳細說明如下:
1)網(wǎng)絡(luò)遷移訓(xùn)練過程。保持原始InceptionV3部分的網(wǎng)絡(luò)權(quán)重不變,訓(xùn)練最后4層的網(wǎng)絡(luò)參數(shù)。由于訓(xùn)練參數(shù)較少,選擇較為平穩(wěn)的優(yōu)化器RMSprop。訓(xùn)練過程中,梯度下降時,每個批次包含32個樣本,迭代輪數(shù)設(shè)為30輪。
2)網(wǎng)絡(luò)微調(diào)訓(xùn)練過程。固定網(wǎng)絡(luò)中前兩個初始快的參數(shù),使其在訓(xùn)練中值保持不變,重新訓(xùn)練其余層的參數(shù)。由于訓(xùn)練參數(shù)較多,選擇收斂速度較快的優(yōu)化器SGD,其中的學(xué)習(xí)率設(shè)為0.001,動量參數(shù)設(shè)為0.9,損失函數(shù)使用交叉熵損失函數(shù)。迭代輪數(shù)設(shè)為30輪,在梯度下降時,每個批次包含樣本數(shù)和迭代輪數(shù)同遷移訓(xùn)練過程。
本實驗采用的軟硬件實驗環(huán)境如表2所示。
表2 實驗軟硬件環(huán)境
在Linux系統(tǒng)下,花卉圖像分割過程采用C++語言實現(xiàn),框架使用OpenCV視覺處理庫?;ɑ軋D像分類過程采用基于TensorFlow的Keras深度學(xué)習(xí)框架,對花卉圖片進行訓(xùn)練和測試。
1)數(shù)據(jù)集。本實驗選用Oxford flower-102公開數(shù)據(jù)集,該數(shù)據(jù)集是由牛津大學(xué)視覺幾何組創(chuàng)建的花卉圖像數(shù)據(jù)庫。它包含8189張圖片,包含102種花卉圖像,每一種圖像都在40~258張圖片之間。該數(shù)據(jù)庫同時也涉及到圖像識別領(lǐng)域中諸多難點,如照明變化、視覺變化、背景復(fù)雜、花卉種類繁多、形態(tài)多以及顏色變化復(fù)雜,加上一些不同的花具有高度相似。該數(shù)據(jù)集對花卉圖像的分類研究具有重要意義。
2)數(shù)據(jù)集增強。數(shù)據(jù)集增強方法可大大增加訓(xùn)練數(shù)據(jù)集的樣本量,提高網(wǎng)絡(luò)模型的泛化能力。實質(zhì)上,數(shù)據(jù)增強方法是通過仿射變換等數(shù)據(jù)轉(zhuǎn)換方法來人為增加數(shù)據(jù)集的樣本量的過程。
本數(shù)據(jù)庫只有8189張花類圖片,對于102類花卉分類任務(wù)來說,平均每類只有80張圖片用于花卉種類,每類花卉圖片數(shù)據(jù)量依然很小,所以要進行數(shù)據(jù)集增強,才能完全滿足訓(xùn)練網(wǎng)絡(luò)的需求。以下為3種數(shù)據(jù)集增強方法:
a)考慮到不同的拍攝方向,為保證圖像識別過程中傾斜和旋轉(zhuǎn)不變性,圖像在不同角度進行傾斜,并且進行水平和垂直圖像旋轉(zhuǎn)以增加樣本數(shù)量。
b)考慮到復(fù)雜背景下,花卉圖片的某一部分也是該花卉種類,對圖片進行80%大小的隨機裁剪和80%~120%的隨機縮放,以增加樣本數(shù)量。
c)考慮到雨、霧、雪天氣和一些光照變化,不同季節(jié)不同拍照時間獲取的圖像亮度、飽和度和色調(diào)均有不同的變化,適當(dāng)增加高斯噪聲來增加樣本數(shù)量。
利用以上3種數(shù)據(jù)集增強方法,通過訓(xùn)練數(shù)據(jù)集生成器從原數(shù)據(jù)中不斷地生成訓(xùn)練數(shù)據(jù),直到數(shù)據(jù)量達到目標(biāo)迭代輪數(shù)所需的數(shù)據(jù)量為止。增強后的數(shù)據(jù),在訓(xùn)練過程中可以有效地減少網(wǎng)絡(luò)過擬合,增加卷積網(wǎng)絡(luò)識別花卉圖像的能力。
本數(shù)據(jù)庫具有8189張圖片,將其中7169張圖片用作訓(xùn)練集,1020張圖片用作測試集。用數(shù)據(jù)增強技術(shù)將該數(shù)據(jù)集拓展到原來的30倍,有效避免網(wǎng)絡(luò)的過擬合現(xiàn)象。
3)數(shù)據(jù)預(yù)處理。進行圖像數(shù)據(jù)增強后,接著對圖像進行預(yù)處理??紤]到102類花卉圖片分辨率不均等,將所有圖片縮放到299×299像素,以完成網(wǎng)絡(luò)統(tǒng)一化輸入的要求??紤]到圖片像素是從0~255,輸入計算量較復(fù)雜,將圖片像素點從0~255壓縮到-1~1,以簡化網(wǎng)絡(luò)的輸入。
在Oxford flower-102數(shù)據(jù)集上,我們利用本文的花卉圖像分類算法進行了實驗。將未經(jīng)分割的圖像數(shù)據(jù)(original)、原始花卉分割圖像數(shù)據(jù)(saliency)、最小外接矩形分割圖像數(shù)據(jù)(minRect)、感興趣區(qū)域分割圖像數(shù)據(jù)(roi)分別加入卷積神經(jīng)網(wǎng)絡(luò)中進行訓(xùn)練,前30輪為遷移訓(xùn)練過程,后30輪為微調(diào)訓(xùn)練過程,不同分類算法訓(xùn)練結(jié)果如圖7所示。
圖7 不同分類算法訓(xùn)練結(jié)果實驗
不同分類算法的最終分類準(zhǔn)確率如表3所示。
表3 不同分類算法對102類花卉分類準(zhǔn)確率 %
從圖8和表3可看出:
1)前30輪訓(xùn)練過程準(zhǔn)確率震蕩幅度較大,這是因為RMSProp優(yōu)化器需要先行搜索初始學(xué)習(xí)率,然后對其逐數(shù)量級下降,故準(zhǔn)確率有所震蕩。
2)原始花卉分割圖的分類結(jié)果比未分割的原圖分類準(zhǔn)確率低0.12%。這是因為原始花卉分割圖雖然去除了花卉圖像的背景的影響,但其周圍充斥著黑色背景,位于黑色背景的像素點在網(wǎng)絡(luò)中不能被很好地分出來,進而影響分類效果。
同理,具有較少黑色背景的minRect分割圖(最小外接矩形)沒有ROI分割圖(感興趣區(qū)域)的分類效果好??傮w分類準(zhǔn)確率minRect分割圖比原圖分類準(zhǔn)確率高0.93%,ROI分割圖比原圖分類準(zhǔn)確率高2.85%,驗證了基于先驗背景顯著性的花卉分割方法對于花卉圖像分類的有效性。
圖8 分割后效果圖
針對花卉圖像分類,目前主要采用傳統(tǒng)方法和基于深度學(xué)習(xí)的方法,且已經(jīng)取得不少成果。文獻[8-9]采用的是傳統(tǒng)花卉圖像分類的方法。文獻[8-10]采用的是先對圖像進行分割再進行分類的方法。文獻[2]采用先將圖片進行分割,再進行多特征融合的方法。文獻[21]采用的是基于深度學(xué)習(xí)的花卉圖像分類方法,改進了AlexNet網(wǎng)絡(luò)進行花卉圖像分類。本文方法通過背景先驗顯著性的方法確定花卉區(qū)域,利用訓(xùn)練好的網(wǎng)絡(luò)模型對花卉圖像進行分類。各種具體的分類準(zhǔn)確率對比如圖9所示。
圖9 Oxford flower-102數(shù)據(jù)庫實驗結(jié)果對比
從圖9中看出,本文方法的分類準(zhǔn)確率明顯高于其他方法。主要有以下幾點原因:
①花卉圖像背景復(fù)雜性在一定程度上給花卉分類帶來了一些影響,基于背景先驗顯著性的花卉圖像分割方法能夠?qū)⒒ɑ苤鲄^(qū)域從復(fù)雜背景中提取出來,在一定程度上減少了這些影響。
②花卉圖像具有類內(nèi)多樣性和類間相似性,基于遷移學(xué)習(xí)的預(yù)訓(xùn)練網(wǎng)絡(luò)InceptionV3架構(gòu)對于花類圖片的特點具有很好的分類魯棒性,并且提高網(wǎng)絡(luò)提取特征信息的能力,減少過擬合和梯度彌散現(xiàn)象。
為更直觀地觀察本文提出的花卉圖像分類算法的分類效果,將第1~102類即標(biāo)簽0~101的每類的花卉分類準(zhǔn)確率顯示如圖10所示。網(wǎng)絡(luò)對于每類花都有一個預(yù)測的平均概率值,每類花測試平均概率如圖11所示。
圖10 Oxford flower-102數(shù)據(jù)庫每類花卉準(zhǔn)確率
圖11 Oxford flower-102數(shù)據(jù)庫每類花卉平均概率
從圖10和圖11中可以看出:
1)分類標(biāo)簽為2的花卉(風(fēng)鈴草)無論分類準(zhǔn)確率還是平均概率都較低。這是因為風(fēng)鈴草具有3種不同顏色,而測試集中覆蓋了這3種顏色。這對于網(wǎng)絡(luò)提取顏色特征有很大程度的干擾。
圖12 不同顏色的風(fēng)鈴草
2)分類標(biāo)簽為80(赤素馨)、26(穗冠花)、36(斗篷花)的花卉分類準(zhǔn)確率均達到了100%,而平均概率均超過了99%,為分類準(zhǔn)確率最高的3類花卉。分析知,分類準(zhǔn)確率比較高的花卉大多在顏色或形態(tài)上與其他花卉有明顯差異,如圖13所示。
圖13 分類準(zhǔn)確率最高的3類花卉
花卉圖像中花卉所處環(huán)境復(fù)雜性以及花卉類內(nèi)多樣性和類間相似性的特點使得花卉分類準(zhǔn)確率不理想。針對花卉所處環(huán)境復(fù)雜性,本文提出了一種基于背景先驗顯著性的花卉分割方法,將花卉主體區(qū)域提取出來;針對傳統(tǒng)網(wǎng)絡(luò)進行花卉圖片分類任務(wù)時出現(xiàn)的提取圖片特征信息不全面等缺點,本文利用遷移學(xué)習(xí)的思想,采用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的InceptionV3網(wǎng)絡(luò)架構(gòu)。實驗表明,該模型比未進行分割花卉圖片的網(wǎng)絡(luò)模型分類效果更好,且比傳統(tǒng)方法和其他深度神經(jīng)網(wǎng)絡(luò)架構(gòu)的分類效果好,分類準(zhǔn)確率達到93.38%,驗證了本文方法對于花卉圖片分類任務(wù)的準(zhǔn)確率和進行花卉識別的可行性。
本文方法還可拓展到類似領(lǐng)域進行分類。在植物學(xué)分類上具有普適性,但要借鑒植物學(xué)專家知識庫做一些深入研究。同時也可作為動物種類研究的借鑒。