畢立新 李福進(jìn)
華北理工大學(xué)電氣工程學(xué)院 河北唐山 063000
在引入深度學(xué)習(xí)技術(shù)之前,人們已經(jīng)提出了解決圖像分割問題的傳統(tǒng)方法,如閾值分割、聚類方法和基于直方圖的方法。如今,深度學(xué)習(xí)代表了一種前沿技術(shù),已經(jīng)被存在了幾十年的神經(jīng)網(wǎng)絡(luò)研究團(tuán)體所證實(shí)[1]。深度學(xué)習(xí)通過訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)模型來解決圖像分割問題。其主要優(yōu)點(diǎn)是能夠根據(jù)訓(xùn)練數(shù)據(jù)集自動學(xué)習(xí)最佳特征。這就避免了手動選擇特定任務(wù)的特征的耗時(shí)過程。在視網(wǎng)膜血管的分割中,由于傳統(tǒng)的方法在分割過程中忽略了微小血管,因此分割是一個(gè)非常困難的任務(wù),而利用深度學(xué)習(xí)方法自動檢測視網(wǎng)膜血管具有更好的性能。精心設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以探測到專家通常都很難分析的微小的血管并將其分割[2]。CNN模型是為了克服這個(gè)問題而提出的。將其應(yīng)用到眼底視網(wǎng)膜血管分割中,提高血管分割的準(zhǔn)確率。本文針對視網(wǎng)膜分割的主要問題,提出了一種新穎的基于深度學(xué)習(xí)的視網(wǎng)膜血管分割方法。
為了捕獲足夠大的接收場并獲取語義上下文信息,在標(biāo)準(zhǔn)CNN體系結(jié)構(gòu)中逐漸對特征圖網(wǎng)格進(jìn)行下采樣。通過這種方式,粗略的下采樣后的特征圖可以在全局尺度內(nèi)映射特征之間的位置和關(guān)系。但是,要減小形狀變化較大的小物體的假陽性預(yù)測仍然很困難。為了提高準(zhǔn)確性,當(dāng)前的分割框架依賴于其他先前的對象定位模型,以將任務(wù)簡化為單獨(dú)的定位和后續(xù)的分割步驟。因此,通過在標(biāo)準(zhǔn)CNN模型中集成注意機(jī)制可以實(shí)現(xiàn)相同的目標(biāo)。不需要訓(xùn)練多個(gè)模型和大量額外的模型參數(shù)。與多階段CNN的模型相比,注意力門限機(jī)制(AG)逐漸抑制了無關(guān)背景區(qū)域中的特征響應(yīng),而無需在網(wǎng)絡(luò)之間裁剪感興趣的區(qū)域[3]。
UNet網(wǎng)絡(luò)模型中使用AG以突出通過跳過連接傳遞的顯著特征。在級聯(lián)操作之前執(zhí)行的僅合并相關(guān)的激活。另外,AG在向前傳播以及向后傳播過程中過濾神經(jīng)元的激活。來自背景區(qū)域的特征在向后傳遞過程中會降低權(quán)重。這使得較淺層的模型參數(shù)主要基于與給定任務(wù)相關(guān)的空間區(qū)域進(jìn)行更新。在多維AG的情況下,對應(yīng)于每個(gè)網(wǎng)格尺度的向量。在每個(gè)子AG中,提取并融合補(bǔ)充信息以得到跳過連接的輸出。為了減少可訓(xùn)練參數(shù)的數(shù)量和AG的計(jì)算復(fù)雜性,執(zhí)行線性變換時(shí)無需任何空間支持,并且將輸入特征圖下采樣到門控信號的分辨率。相應(yīng)的線性變換將特征圖解耦,并將其映射到較低維空間以進(jìn)行門控操作。在門控操作中不使用低級特征圖,即第一個(gè)跳過連接,因?yàn)樗鼈儾淮砀呔S空間中的輸入數(shù)據(jù)。在每個(gè)圖像尺度上使用深度監(jiān)督來實(shí)現(xiàn)中間特征圖的語義判別。這有助于確保不同級別的注意力單元具有影響大范圍圖像前景內(nèi)容響應(yīng)的能力。因此,防止從跳過連接的小子集中重構(gòu)密集的預(yù)測[4-5]。
ACNet模型由兩個(gè)級聯(lián)的子網(wǎng)絡(luò)組成,前一個(gè)子網(wǎng)絡(luò)將原始視網(wǎng)膜圖像上隨機(jī)提取的圖像塊作為輸入,經(jīng)過前一子網(wǎng)絡(luò)輸出得到的視網(wǎng)膜血管的概率圖,將其視為血管預(yù)測的粗提取結(jié)果,輸入到后一子網(wǎng)絡(luò)中,經(jīng)過后一子網(wǎng)絡(luò)得到的概率圖作為最后的血管的分割結(jié)果,設(shè)置閾值將大于等于閾值的像素歸為血管,小于閾值的像素視為背影。閾值通常設(shè)置為0.5。兩個(gè)子網(wǎng)絡(luò)一個(gè)粗提取血管概率圖,另一個(gè)精細(xì)優(yōu)化前一網(wǎng)絡(luò)得到的結(jié)果。兩個(gè)子網(wǎng)絡(luò)構(gòu)成了整個(gè)分割模型,同樣的,網(wǎng)絡(luò)模型的損失函數(shù)也由兩個(gè)損失函數(shù)構(gòu)成,主損失函數(shù)和輔助損失函數(shù)。
圖像分割過程可以看作是從原始圖像域到分割目標(biāo)域的轉(zhuǎn)移路徑。在此過程中,不斷提取圖像的特征以接近目標(biāo)。但是,此類抽象可能會導(dǎo)致逐步失去有用的語義和空間信息。為緩解此問題,在ACNet模型模型中,每個(gè)編碼器-解碼器主干部分都包含網(wǎng)絡(luò)內(nèi)跳過連接,這些連接將編碼器在每個(gè)特征圖尺寸上獲得的特征圖傳輸?shù)浇獯a器中的相應(yīng)特征圖尺寸中,前一尺度解碼器上采樣獲得的特征圖與其進(jìn)行連接作為后一尺度解碼器的輸入。如此以來網(wǎng)絡(luò)內(nèi)跳過連接能夠補(bǔ)償對特征圖進(jìn)行下采樣期間的信息丟失。同時(shí),至關(guān)重要的是將前網(wǎng)絡(luò)提取的多尺度特征合并到后繼網(wǎng)絡(luò)中,以便后者可以糾正前者產(chǎn)生的概率血管圖的誤差。為此添加了網(wǎng)絡(luò)間跳過連接,以將前端網(wǎng)絡(luò)的解碼器在每個(gè)尺度上獲得的特征圖傳輸?shù)胶罄m(xù)網(wǎng)絡(luò)的編碼器中的相應(yīng)尺度并進(jìn)行連接[6]。
針對視網(wǎng)膜分割的主要問題,提出了一種新穎的基于深度學(xué)習(xí)的視網(wǎng)膜血管分割方法。通過設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)模型,提出了基于注意力機(jī)制和網(wǎng)絡(luò)級聯(lián)的分割模型AGNet。以Unet網(wǎng)絡(luò)模型為基礎(chǔ),將注意力門控機(jī)制應(yīng)用到解碼器中的上采樣中,通過標(biāo)識圖像顯著區(qū)域和修剪特征響應(yīng)參數(shù),選擇性的提取圖像特征。同時(shí)采用級聯(lián)網(wǎng)絡(luò),并在網(wǎng)絡(luò)之間實(shí)現(xiàn)網(wǎng)絡(luò)間的跳躍連接,補(bǔ)償對特征圖進(jìn)行下采樣期間的信息丟失。糾正單一網(wǎng)絡(luò)產(chǎn)生的血管概率圖的誤差。