王忠源 謝正言 許一虎
摘要: 眼底血管圖像分析可用于各種眼病的評估和監(jiān)測。它在降低失明風(fēng)險方面發(fā)揮著重要作用。目前,許多眼底血管分割模型在小血管的分割結(jié)果上仍需改進。針對上述問題,我們提出了一種改進U-Net模型的視網(wǎng)膜血管分割方法。首先,利用網(wǎng)狀跳躍連接提取淺層到深層的特征映射。然后將特征圖拼接融合,最大限度地發(fā)揮它們的作用。在特征層中,我們采用空洞卷積來增加接受野。在DRIVE、STARE、CHASE_DB1三個標(biāo)準(zhǔn)數(shù)據(jù)集上驗證了該方法的分割精確度分別為0.9595,0.9716, 0.9638。實驗結(jié)果表明,該方法是一種良好的視網(wǎng)膜血管分割方法,比現(xiàn)有的許多視網(wǎng)膜血管分割方法具有更好的分割效果。
關(guān)鍵詞: 深度學(xué)習(xí);眼底圖像;視網(wǎng)膜血管分割
中圖分類號:TP391? ? ? 文獻標(biāo)識碼:A
文章編號:1009-3044(2021)23-0001-03
Abstract: Fundus image vessel analysis can be used to evaluate and monitor a variety of eye diseases. It play an important role in reducing the risk of blindness. At present, many model of fundus vessel segmentation still need to be improved for the segmentation results of small vessels. To address above issue, we propose a novel method? based on improved U-Net to segment retinal vessels. Firstly, we use the nested skip connections to extract feature maps from shallow layer to deep layer. Then concatenate and fuse the feature maps to make the utmost of them. And in feature layer, we use atrous convolution to increase the receptive field. By verifying this method on three standard datasets, DRIVE, STARE, CHASE_DB1, the segmentation accuracy of proposed method are 0.9595, 0.9716, 0.9638 respectively. The result can demonstrate the proposed method has improvement on retinal vessels segmentation and can segment retinal vessels better than many existing retinal vessels segmentation methods.
Key words: deep learning; fundus image; retinal vessel segmentation
眼底RGB圖像是眼睛內(nèi)表面的投影[1]。眼底視網(wǎng)膜圖像觀察是眼科醫(yī)生診斷高血壓、黃斑水腫、糖尿病視網(wǎng)膜病、青光眼等眼部疾病的重要一步[2]。早期診斷可以預(yù)防視力下降,有規(guī)律地測量血管直徑、分支角度和分支長度,已成為早期診斷和有效監(jiān)測視網(wǎng)膜病理的醫(yī)學(xué)應(yīng)用基礎(chǔ)。因此,眼底圖像的血管分割成為定量分析疾病的先決條件[3]。視網(wǎng)膜血管結(jié)構(gòu)極其復(fù)雜,曲率高,形態(tài)多樣,這使得視網(wǎng)膜血管分割任務(wù)非常具有挑戰(zhàn)性[4]。目前,人工分割獲取視網(wǎng)膜血管是一種耗時且復(fù)雜的方法。因此,血管自動分割研究迫在眉睫[5]。
許多學(xué)者對視網(wǎng)膜自動分割算法進行了研究,主要分為兩類:無監(jiān)督方法和監(jiān)督方法。無監(jiān)督的方法聚焦于視網(wǎng)膜血管的內(nèi)在特性[6]。傳統(tǒng)的無監(jiān)督醫(yī)學(xué)圖像分割算法包括閾值分割、聚類方法和基于直方圖的方法等。無監(jiān)督分割算法不需要訓(xùn)練模型,分割速度上具有優(yōu)勢。然而,在提高分割精度方面還有很大的改進空間[2]。
監(jiān)督方法通過提取精確的人工標(biāo)記的血管信息來改進學(xué)習(xí)。對血管特征信息更加敏感,具有較強的可靠性和穩(wěn)定性[7]。與無監(jiān)督方法相比,它們有很大的優(yōu)勢。目前先進的監(jiān)督方法模型是Ronneberger等人[8]提出的U-Net和Long等人[9]提出的基于編解碼器網(wǎng)絡(luò)的全卷積網(wǎng)絡(luò)(FCN)。它們被廣泛應(yīng)用于語義和實例分割模型中。但是,編解碼器網(wǎng)絡(luò)有兩個限制,存在一定的局限性:1)網(wǎng)絡(luò)深度越大,計算量越大,但計算結(jié)果不一定越好; 2)不同的數(shù)據(jù)集決定了不同的網(wǎng)絡(luò)最優(yōu)深度。因此,U-Net在不同應(yīng)用方面仍有很大潛力。Zhou等人[10]提出了UNet++,旨在克服上述局限性,明顯的改進是網(wǎng)狀跳躍連接。網(wǎng)狀跳躍連接具有以下優(yōu)點: 1)該架構(gòu)能夠充分有效地捕捉目標(biāo)的詳細特征,提高分割性能; 2)該模型能夠適應(yīng)多種不同的數(shù)據(jù)集。所以,本文提出了一種基于網(wǎng)狀跳躍連接的改進U-Net的視網(wǎng)膜血管分割模型。我們使用網(wǎng)狀跳躍連接從不同深度的層中提取特征圖,再將這些特征圖連接和融合,以最大限度地利用它們。在特征層中,我們使用空洞卷積來增加接受域。最后在DRIVE、STARE、CHASE_DB1三個標(biāo)準(zhǔn)數(shù)據(jù)集上進行了測試。
本文的貢獻可以概括為兩個方面。1)我們提出了一個改進U-Net的模型。使用網(wǎng)狀跳躍連接,連接和融合不同深度的特征圖,并在特征層使用空洞卷積。這些改進可以充分利用特征圖的優(yōu)勢,增加感受野,引導(dǎo)模型學(xué)習(xí)更好地分離血管和非血管。2)提出的方法是一種自動的視網(wǎng)膜血管分割方法。我們在三個標(biāo)準(zhǔn)數(shù)據(jù)集上進行訓(xùn)練和測試。結(jié)果表明,該方法優(yōu)于現(xiàn)有的許多方法。本文的其余部分組織如下: 第二部分是描述所提出的改進U-Net方法,第三部分是對眼底圖像進行血管分割的實驗設(shè)置、結(jié)果和討論,第四部分是結(jié)論。