姜慧明,秦貴和,鄒密,孫銘會(huì)
(1.吉林大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,130012,長(zhǎng)春;2.吉林大學(xué)公共計(jì)算機(jī)教學(xué)與研究中心,130012,長(zhǎng)春)
識(shí)別細(xì)胞的細(xì)胞核是大多數(shù)病理分析及研制新藥的起點(diǎn),因?yàn)樽R(shí)別細(xì)胞核可以幫助研究人員識(shí)別測(cè)量樣品中的每個(gè)細(xì)胞,從而使研究人員針對(duì)被治療的細(xì)胞的各種反應(yīng)做后續(xù)的深入研究。如在癌癥的診斷過程中,醫(yī)生通常會(huì)通過觀察患者病理切片中的病變組織標(biāo)志物來判斷疾病的級(jí)別。然而人工分析的方法耗時(shí)且?guī)в兄饔^性,所以有必要利用計(jì)算機(jī)輔助診斷方法來為醫(yī)者提供高效、準(zhǔn)確的輔助分析結(jié)果,從而幫助醫(yī)生分析實(shí)驗(yàn)中潛在的生物學(xué)過程,加快疾病研究和新藥物的上市周期。
在病理細(xì)胞圖像的分割任務(wù)中,經(jīng)常會(huì)遇到細(xì)胞切片圖像制作不理想問題。因?yàn)樵陲@微鏡下的細(xì)胞分布通常是隨機(jī)的,且人為或自然因素很容易導(dǎo)致切片中出現(xiàn)重疊或粘連的細(xì)胞。此外,細(xì)胞切片具有多樣性,例如單細(xì)胞的形狀和大小通常有差異,細(xì)胞群中細(xì)胞彼此距離過近易造成擠壓形變等,這些復(fù)雜因素會(huì)對(duì)細(xì)胞或細(xì)胞核的分割過程造成影響,影響分割精度。
為了處理細(xì)胞或細(xì)胞核分割任務(wù)中上述問題,國(guó)內(nèi)外研究學(xué)者們已經(jīng)探索出許多分割方法,例如基于閾值的分割方法[1],區(qū)域生長(zhǎng)法[2],邊緣檢測(cè)法[3],水平集法[4],基于組合中值濾波器和數(shù)學(xué)形態(tài)學(xué)操作方法[5]、基于聚類和分水嶺算法的分割方法[6]等,這些方法在具體的應(yīng)用中時(shí)常受到各種條件約束。例如,基于閾值的分割方法因?yàn)楹鲆暳讼袼氐目臻g位置關(guān)系且細(xì)胞不總具備與背景的顯著色差,所以對(duì)噪聲十分敏感;區(qū)域生長(zhǎng)法由于難以針對(duì)不同環(huán)境下的圖像制定統(tǒng)一的區(qū)域劃分標(biāo)準(zhǔn),通常需要人工的介入,操作過程復(fù)雜并耗費(fèi)了大量的時(shí)間成本;基于邊緣檢測(cè)的分割方法能夠快速檢測(cè)出目標(biāo)邊緣,但是僅使用人工設(shè)計(jì)的各類算子,在處理光照、背景干擾等問題時(shí)通常魯棒性較差,無(wú)法對(duì)復(fù)雜圖像做出準(zhǔn)確分割[7];基于拓?fù)淅碚摰姆炙畮X分割方法應(yīng)用非常廣泛,其對(duì)于邊界模糊的圖像能得到完整連續(xù)封閉的邊緣,但是它的缺點(diǎn)是容易對(duì)圖像進(jìn)行過分割[8],通常需要進(jìn)一步處理。
近年來,深度神經(jīng)網(wǎng)絡(luò)算法的崛起為細(xì)胞及細(xì)胞核分割帶來了新的可能。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是其中一種前饋神經(jīng)網(wǎng)絡(luò),其包含多個(gè)卷積層,每個(gè)卷積層包含若干個(gè)卷積核,基于卷積核(感受野)設(shè)定的稀疏連接方式對(duì)應(yīng)著明確的神經(jīng)科學(xué)原理[9]。近年來隨著研究人員對(duì)網(wǎng)絡(luò)結(jié)構(gòu)深入研究以及利用GPU進(jìn)行數(shù)值加速計(jì)算等技術(shù)的進(jìn)步,卷積神經(jīng)網(wǎng)絡(luò)得到了飛速的發(fā)展,并被廣泛應(yīng)用于圖像、自然語(yǔ)言處理及語(yǔ)音識(shí)別等領(lǐng)域[10]。
基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分割方法,如FCN[11]、U-Net[12]、SegNet[13]等,在精度上相比傳統(tǒng)算法取得了很大提高。與傳統(tǒng)算法相比,卷積神經(jīng)網(wǎng)絡(luò)算法能夠通過多重非線性變換對(duì)數(shù)據(jù)進(jìn)行更高層次的抽象,而不需要針對(duì)特定場(chǎng)景進(jìn)行人工特征設(shè)計(jì)。此外,在圖像分割過程中,卷積神經(jīng)網(wǎng)絡(luò)通過局部連接、權(quán)值共享等技巧增強(qiáng)了特征提取的魯棒性,從而越來越多地應(yīng)用于醫(yī)學(xué)圖像分析的各個(gè)領(lǐng)域,例如細(xì)胞計(jì)數(shù)[14-17]、細(xì)胞分割[18]、細(xì)胞檢測(cè)[19-20]等。
本文關(guān)注結(jié)構(gòu)簡(jiǎn)潔、性能突出的U-Net模型,并通過實(shí)驗(yàn)分析,針對(duì)經(jīng)典U-Net模型存在的問題提出3點(diǎn)改進(jìn):包括編碼器的梯度融合、解碼器的密集連接以及改進(jìn)的交叉熵?fù)p失。改進(jìn)的U-Net模型增強(qiáng)了特征復(fù)用,緩解了梯度消失問題,并對(duì)小目標(biāo)的識(shí)別有了較大的改善。
FCN是一種端到端的全卷積神經(jīng)網(wǎng)絡(luò)模型,與圖像分類的網(wǎng)絡(luò)結(jié)構(gòu)相比,FCN在下采樣至特征圖面積最小時(shí)沒有采用全連接或全局池化等方法生成特征向量,而是采用轉(zhuǎn)置卷積的方法對(duì)特征圖上采樣至與輸入樣本相同的分辨率。FCN可以接受任意尺寸的輸入,輸入樣本的每一個(gè)像素點(diǎn)的標(biāo)簽構(gòu)成了整張圖的標(biāo)簽,網(wǎng)絡(luò)在訓(xùn)練時(shí)通過逐個(gè)像素計(jì)算損失值并將誤差通過鏈?zhǔn)椒▌t反向傳播,實(shí)現(xiàn)對(duì)輸入樣本像素級(jí)空間信息的預(yù)測(cè)。
雖然FCN是一種簡(jiǎn)單有效的目標(biāo)分割方法,但是仍然存在一些問題。例如使用FCN會(huì)經(jīng)過多次上下采樣,一些圖像細(xì)節(jié)丟失,導(dǎo)致得到的結(jié)果不夠精細(xì),最后預(yù)測(cè)結(jié)果平滑且模糊,無(wú)法還原細(xì)節(jié)。后續(xù)許多面向圖像分割的模型進(jìn)一步對(duì)FCN這種端對(duì)端的思想進(jìn)行了擴(kuò)展,這其中有代表性的包括SegNet、U-Net等。
文獻(xiàn)[12]提出的一種改進(jìn)的全卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)U-Net模型,最初應(yīng)用于醫(yī)學(xué)圖像的語(yǔ)義分割,其結(jié)構(gòu)如圖1所示,網(wǎng)絡(luò)由左側(cè)的編碼器和右側(cè)的解碼器組成。編碼器是典型的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),采用交替布置的卷積層和最大池化層。在解碼器一側(cè)通過一系列的轉(zhuǎn)置卷積層將特征圖的分辯率上采樣至與輸入分辨率相同,與FCN不同的是,U-Net模型采用了一種高維特征與低維特征對(duì)應(yīng)級(jí)聯(lián)的思想,解碼器每次上采樣的同時(shí)將編碼器一側(cè)對(duì)應(yīng)的特征圖通過矩陣級(jí)聯(lián)的方法拼接至解碼器一側(cè)。在還原影像的位置信息的過程中,U-Net模型的每個(gè)隱層都包含較多的特征維度,這種方式利于模型獲取更加多樣化的特征。U-Net的“U形”網(wǎng)絡(luò)結(jié)構(gòu)讓裁剪和拼接的過程更加簡(jiǎn)潔合理,淺層特征圖與深層特征圖的拼接以及系列化的卷積、反卷積和池化等操作,使模型從局部信息和全局信息中組合得到更加精確的分割結(jié)果。
圖1 U型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
文獻(xiàn)[13]提出一種新穎的類U-Net模型SegNet,其同樣包含一個(gè)編碼器和一個(gè)解碼器,并在解碼器最后實(shí)現(xiàn)像素級(jí)的分類層。編碼器的網(wǎng)絡(luò)結(jié)構(gòu)在拓?fù)渖吓cVGG16模型中前13層卷積層相同。解碼器則是將編碼后的特征圖的分辨率映射到原圖大小。與U-Net不同的是,解碼器在上采樣過程中使用在編碼器對(duì)應(yīng)特征圖位置保存的最大池化索引來執(zhí)行非線性上采樣,這種方法消除了解碼器一端對(duì)上采樣學(xué)習(xí)的必要性。此外,上采樣后的特征圖是稀疏的,其與卷積核做卷積運(yùn)算之后能夠產(chǎn)生密集的特征圖。綜上,SegNet提高了邊界刻畫能力并減少端到端的訓(xùn)練參數(shù),其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 SegNet結(jié)構(gòu)模型
U-Net在編碼和解碼的過程中進(jìn)行接連的上下采樣操作會(huì)損失有價(jià)值的細(xì)節(jié)信息,造成模型對(duì)距離較近的細(xì)胞的相鄰邊界識(shí)別效果較差,容易把兩個(gè)細(xì)胞“合并”。且U-Net對(duì)背景中的不清晰的目標(biāo),例如小目標(biāo)和模糊目標(biāo)的識(shí)別能力較差。
針對(duì)以上問題,本文提出一種改進(jìn)的U型卷積神經(jīng)網(wǎng)絡(luò)DU-Net模型,該模型在U-Net輸入端計(jì)算輸入樣本梯度特征得到梯度塊,隨后將梯度塊多尺度融入編碼器,同時(shí)對(duì)U-Net解碼器使用密集連接方式將淺層特征連至深層以增加特征復(fù)用,提升模型性能。此外,DU-Net在卷積層和轉(zhuǎn)置卷積層后全部加入批歸一化和ReLU激活以緩解梯度消失問題。最后,為提升模型對(duì)模糊目標(biāo)及小目標(biāo)的識(shí)別能力,本文提出一種改進(jìn)的交叉熵?fù)p失函數(shù),該損失函數(shù)使得模型參數(shù)得到了較好的優(yōu)化。
如果卷積神經(jīng)網(wǎng)絡(luò)包含靠近輸入層和輸出層之間的較短連接,則卷積網(wǎng)絡(luò)可以更深、更準(zhǔn)確、更有效。密集卷積神經(jīng)網(wǎng)絡(luò)(DenseNet)以前饋的方式將每一層互連。具有K層的傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)具有K個(gè)連接,即每層與其后續(xù)層之間進(jìn)行連接。而密集連接網(wǎng)絡(luò)則具有K(K+1)/2個(gè)連接。對(duì)于每層而言,所有前方特征圖都用作輸入,其自身的特征圖用作所有后續(xù)層的輸入。密集卷積神經(jīng)網(wǎng)絡(luò)具有的優(yōu)點(diǎn)是可以緩解消失梯度問題,而且能夠加強(qiáng)特征傳播,鼓勵(lì)特征復(fù)用等[21]。
本文借鑒其模型結(jié)構(gòu)設(shè)計(jì)思想,在U-Net解碼器一側(cè)將淺層特征通過組合卷積上采樣的方法與深層特征密集連接,與DenseNet的不同之處在于,DU-Net密集連接的每條路徑兩端特征圖的面積相差較大,通過不同數(shù)量的步長(zhǎng)為2的3×3轉(zhuǎn)置卷積層將淺層特征進(jìn)行上采樣,以適應(yīng)不同的深層特征圖大小,結(jié)構(gòu)如圖3所示,圖中卷積上采樣的具體方式為3×3轉(zhuǎn)置卷積后加1×1和3×3的組合卷積。
圖3 改進(jìn)的密集連接方法
經(jīng)典U-Net模型對(duì)距離較近細(xì)胞的相鄰邊界識(shí)別能力較差,對(duì)于靠近相鄰邊界之間的背景點(diǎn),模型容易將其同樣視為目標(biāo)點(diǎn)。
為緩解上述問題,本文提出一種梯度融合的方法。首先讀取原始RGB三通道樣本并利用灰度變換方法將其轉(zhuǎn)換為灰度圖,考慮到灰度圖中可能有噪聲,使用中值濾波對(duì)灰度圖去噪,公式如下
g(x,y)=med{f(x-m,y-n),(m,n)∈W}
(1)
式中:med{}為取中間值操作;f(x,y)、g(x,y)分別為原始圖像和處理后圖像;W為二維濾波窗口。隨后對(duì)去噪后的灰度圖像做梯度計(jì)算,梯度可通過對(duì)輸入圖像做卷積操作近似得到,本文使用Sobel邊緣檢測(cè)算子實(shí)現(xiàn),Sobel算子在水平和垂直方向的模板為
(2)
由此可計(jì)算出水平和垂直方向的梯度近似值
Gx={F(x-1,y+1)+2F(x,y+1)+
F(x+1,y+1)}-{F(x-1,y-1)+
2F(x,y-1)+F(x+1,y-1)}
(3)
Gy={F(x-1,y-1)+2F(x-1,y)+
F(x-1,y+1)}-{F(x+1,y-1)+
2F(x+1,y)+F(x+1,y+1)}
(4)
式中:F為原始圖像;Gx、Gy分別是原始圖像F在每個(gè)像素點(diǎn)處的水平和垂直梯度近似值。另外,由于在圖像處理問題中,平方運(yùn)算以及根號(hào)運(yùn)算相對(duì)耗時(shí),所以使用絕對(duì)值之和,即L1距離計(jì)算梯度
Gs=|Gx|+|Gy|
(5)
此時(shí)已獲取圖像的原始梯度圖,梯度圖中細(xì)胞邊緣信息已經(jīng)較為明顯,將其通過Gamma校正的方法進(jìn)行圖像亮度和對(duì)比度的重塑
(6)
式中:i、j為行列索引;Vij表示輸入樣本像素值;Uij表示輸出樣本像素值(γ取0.5)。梯度計(jì)算與Gamma校正的效果如圖4所示。
圖4 梯度計(jì)算與Gamma校正的效果
將原始梯度圖與Gamma校正后的梯度圖合稱為梯度塊,在信息融合過程中將梯度塊拼接至輸入樣本作為網(wǎng)絡(luò)的輸入層,并使用步長(zhǎng)為2的3×3卷積層將梯度塊下采樣至不同尺度融合至U-Net編碼器。梯度融合過程如圖5所示。
基于深度學(xué)習(xí)的圖像分割任務(wù)中,較常用的損失函數(shù)是像素級(jí)的交叉熵?fù)p失
(7)
式中:i為類別標(biāo)識(shí);pi為預(yù)測(cè)值;gi為真實(shí)標(biāo)簽。
交叉熵?fù)p失平等地評(píng)估每一個(gè)像素點(diǎn)的類預(yù)測(cè)結(jié)果,對(duì)所有像素點(diǎn)的損失求均值,因此使用該損失函數(shù)的訓(xùn)練過程很可能被最常見的類主導(dǎo),從而導(dǎo)致模型處理圖像中存在的類不平衡問題的效果欠佳。
圖5 梯度融合過程
圖6 DU-Net模型網(wǎng)絡(luò)結(jié)構(gòu)
此外,圖像分割任務(wù)的另一種常見的評(píng)價(jià)指標(biāo)是Dice系數(shù),其物理含義為兩個(gè)樣本之間的重疊程度的度量。度量范圍從0到1,Dice系數(shù)為1表示完全重疊,Dice系數(shù)表達(dá)式為
(8)
式中:G為真實(shí)目標(biāo)區(qū)域;P為預(yù)測(cè)目標(biāo)區(qū)域。Dice系數(shù)可擴(kuò)展到軟二元分割[22-23]。其中,每個(gè)像素的預(yù)測(cè)值都可以被定義為標(biāo)簽空間{0,1}上的隨機(jī)變量,并且分割預(yù)測(cè)圖可以表示為標(biāo)簽概率圖。軟Dice系數(shù)可表示為
(9)
與軟Dice系數(shù)對(duì)應(yīng)的Dice損失可表示為
(10)
式中:Dice損失在涉及到類不平衡問題時(shí)通常會(huì)表現(xiàn)出比較好的效果,但是由于采用Dice損失的模型在相近的學(xué)習(xí)率下反向傳播的梯度會(huì)產(chǎn)生大幅振蕩,所以訓(xùn)練過程不如采用交叉熵?fù)p失穩(wěn)定。
本文結(jié)合交叉熵?fù)p失和Dice損失的特點(diǎn),提出一種改進(jìn)的交叉熵?fù)p失
(11)
式中:β為損失權(quán)重系數(shù);s為平滑參數(shù),取值為1。
DU-Net模型在Dice損失中使用了拉普拉斯平滑方法,防止模型過擬合,加快訓(xùn)練的收斂速度。改進(jìn)的損失函數(shù)旨在使小目標(biāo)及模糊目標(biāo)在訓(xùn)練過程中通過鏈?zhǔn)椒▌t實(shí)現(xiàn)梯度的穩(wěn)定、高效回傳。
此外,為了進(jìn)一步緩解梯度消失的問題,DU-Net模型針對(duì)網(wǎng)絡(luò)中的卷積及轉(zhuǎn)置卷積層,全部采用批歸一化+ReLU激活處理。DU-Net模型整體結(jié)構(gòu)如圖6所示。
本文采用的深度學(xué)習(xí)框架為TensorFlow 1.6。實(shí)驗(yàn)過程使用GPU加速,GPU配置為單塊GeForce GTX 1080TI,CUDA采用9.0版本。
關(guān)于細(xì)胞或細(xì)胞核識(shí)別問題,目前有一些公有數(shù)據(jù)集,如在計(jì)算生物學(xué)中心(CBIO)平臺(tái)上發(fā)布的細(xì)胞核檢測(cè)數(shù)據(jù)集、2018數(shù)據(jù)科學(xué)碗發(fā)布的細(xì)胞核分割數(shù)據(jù)集等。其中,數(shù)據(jù)科學(xué)碗發(fā)布的細(xì)胞圖像是在多種實(shí)驗(yàn)條件下獲得的,樣本數(shù)量大,多樣性強(qiáng),檢測(cè)難度相對(duì)較高。使用其公布于Kaggle平臺(tái)的全部訓(xùn)練集,包含670張圖片、約29 500個(gè)細(xì)胞核,并將670張圖片按4∶1的比例劃分為訓(xùn)練集和驗(yàn)證集。
為了使訓(xùn)練樣本覆蓋更多的目標(biāo)特征,避免訓(xùn)練樣本不足造成過擬合,提高算法的泛化能力,本文對(duì)訓(xùn)練集樣本進(jìn)行了數(shù)據(jù)增強(qiáng),增強(qiáng)方法包括對(duì)樣本做0°至45°的隨機(jī)旋轉(zhuǎn)、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、仿射變換、亮度和對(duì)比度的隨機(jī)變換。以上方法隨機(jī)加到訓(xùn)練集的每一張圖片上,使訓(xùn)練集擴(kuò)充為原來的2倍。
DU-Net在訓(xùn)練過程中未使用預(yù)訓(xùn)練模型,卷積核使用0-1隨機(jī)正態(tài)分布方法初始化。模型初始學(xué)習(xí)率為0.000 1,優(yōu)化器采用Adam,一批次輸入樣本數(shù)為16,訓(xùn)練輪次為150輪,訓(xùn)練過程使用學(xué)習(xí)率衰減方法,第1~120輪使用初始學(xué)習(xí)率,第120~140輪學(xué)習(xí)率微調(diào)為初始的1/10,第140~150輪學(xué)習(xí)率再次微調(diào)為初始的1/100。
為了探究改進(jìn)損失函數(shù)的權(quán)重系數(shù)β的最優(yōu)取值區(qū)間以及不同權(quán)值系數(shù)下?lián)p失函數(shù)對(duì)模型的性能影響,本文使用5個(gè)模型進(jìn)行了5組對(duì)比實(shí)驗(yàn),β分別設(shè)置為0、0.25、0.5、0.75和1。評(píng)價(jià)指標(biāo)同時(shí)使用Dice系數(shù)和Jaccard系數(shù)。Jaccard系數(shù)的計(jì)算公式如下
(12)
表1和表2分別對(duì)應(yīng)5種模型以Dice系數(shù)和Jaccard系數(shù)為評(píng)價(jià)指標(biāo)下的精度。通過兩種評(píng)價(jià)指標(biāo)隨權(quán)重系數(shù)的變化趨勢(shì)能夠看出,當(dāng)權(quán)重系數(shù)β取值在0.75~1的區(qū)間內(nèi)模型表現(xiàn)最佳,同時(shí)說明在訓(xùn)練過程中,改進(jìn)的交叉熵?fù)p失的后項(xiàng),即Dice損失項(xiàng),對(duì)模型結(jié)果的影響更為突出。
由表1可得,在以Dice系數(shù)為評(píng)價(jià)標(biāo)準(zhǔn)的情況下,5種模型使用改進(jìn)的交叉熵?fù)p失的最優(yōu)Dice系數(shù)值相比使用經(jīng)典交叉熵?fù)p失分別提升1.5%至6.4%。DU-Net模型使用改進(jìn)的交叉熵?fù)p失的最優(yōu)Dice系數(shù)值相比使用經(jīng)典交叉熵?fù)p失的FCN-8s、U-Net和SegNet模型分別提升11.9%,5.4%和2.3%。
由表2可得,在以Jaccard系數(shù)為評(píng)價(jià)指標(biāo)的情況下,5種模型使用改進(jìn)的交叉熵?fù)p失的最優(yōu)Jaccard系數(shù)值相比使用經(jīng)典交叉熵?fù)p失分別提升1.4%~5.5%。DU-Net模型使用改進(jìn)交叉熵?fù)p失的最優(yōu)Jaccard系數(shù)值相比使用經(jīng)典交叉熵?fù)p失的FCN-8s、U-Net和SegNet模型分別提升7.8%、3.0%和3.3%。圖7給出了5種模型最優(yōu)預(yù)測(cè)結(jié)果的對(duì)比。
表1 不同權(quán)重系數(shù)下5種模型的Dice系數(shù)測(cè)試結(jié)果
表2 不同權(quán)重系數(shù)下5種模型的Jaccard系數(shù)測(cè)試結(jié)果
實(shí)驗(yàn)證明,經(jīng)典U-Net模型會(huì)對(duì)某些小目標(biāo)或不清晰目標(biāo)識(shí)別困難甚至無(wú)法識(shí)別,而DU-Net模型對(duì)小目標(biāo)及不清晰目標(biāo)則具備更強(qiáng)的識(shí)別能力。其原因是DU-Net模型在模型訓(xùn)練的過程中使用改進(jìn)的交叉熵?fù)p失函數(shù),從而能夠在梯度反向傳播過程中使不清晰目標(biāo)及小目標(biāo)對(duì)應(yīng)的梯度穩(wěn)定、高效地回傳。
以表1為例分析可以得出,經(jīng)典U-Net模型的Dice系數(shù)達(dá)到0.928,DU-Net模型的Dice系數(shù)達(dá)到0.959,所以與經(jīng)典U-Net模型相比,DU-Net模型除了損失函數(shù)的改進(jìn)帶來的提升之外,梯度融合和改進(jìn)的密集連接方法也帶來了性能上的提升。
圖7 5種模型最優(yōu)預(yù)測(cè)結(jié)果的對(duì)比
實(shí)驗(yàn)證明,U-Net模型在編解碼過程中,連續(xù)上下采樣的過程會(huì)損失有價(jià)值的細(xì)節(jié)信息,造成模型對(duì)距離較近的細(xì)胞的相鄰邊界識(shí)別效果較差,即容易把兩個(gè)細(xì)胞合并。梯度融合方法通過梯度計(jì)算以及多尺度卷積采樣的方法,將細(xì)胞核的邊緣特征與編碼器提取的特征融合,增強(qiáng)了細(xì)胞的邊緣信息,提高了模型對(duì)相鄰細(xì)胞邊界的識(shí)別能力。例如在圖7第4行,樣本4下半部分的兩個(gè)細(xì)胞由于距離較近且與背景顏色接近,導(dǎo)致經(jīng)典U-Net模型對(duì)兩細(xì)胞的邊界識(shí)別效果較差,而DU-Net模型的識(shí)別效果明顯更優(yōu),接近真實(shí)標(biāo)簽。
另外,通過進(jìn)一步實(shí)驗(yàn)證明,改進(jìn)的密集連接方法增加了特征復(fù)用,緩解了梯度消失問題,對(duì)模型有一個(gè)百分點(diǎn)左右的提升。當(dāng)權(quán)重系數(shù)為0.75時(shí),使用改進(jìn)的密集連接方法的DU-Net模型的Dice系數(shù)達(dá)到0.959,未使用密集連接方法的DU-Net模型的Dice系數(shù)則為0.947。
本文提出一種改進(jìn)的U型卷積神經(jīng)網(wǎng)絡(luò)模型DU-Net模型,并將其應(yīng)用于實(shí)際醫(yī)學(xué)影像分析中的細(xì)胞核分割問題。經(jīng)典U-Net模型在連續(xù)的上下采樣過程中會(huì)產(chǎn)生有價(jià)值細(xì)節(jié)信息的丟失,且對(duì)背景中的不清晰目標(biāo)點(diǎn)識(shí)別能力較差。改進(jìn)的U型卷積神經(jīng)網(wǎng)絡(luò)在模型編碼器一側(cè)多尺度融合梯度塊,在解碼器一側(cè)將特征密集連接,從而獲取了更豐富的特征信息。此外,批歸一化和ReLU激活結(jié)構(gòu)的使用以及改進(jìn)的交叉熵?fù)p失函數(shù)進(jìn)一步優(yōu)化了神經(jīng)網(wǎng)絡(luò)權(quán)重的分布,提升了模型的性能。實(shí)驗(yàn)證明,DU-Net模型在Dice系數(shù)和Jaccard系數(shù)兩種評(píng)價(jià)指標(biāo)上分別達(dá)到95.9%和91.0%,優(yōu)于U-Net和SegNet模型,顯著優(yōu)于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型FCN。然而,模型目前對(duì)于背景干擾嚴(yán)重的細(xì)胞切片圖像的分割效果欠佳,所以后續(xù)工作會(huì)以此為研究的重點(diǎn)。