梁禮明,詹 濤,雷 坤,陳 鑫
(江西理工大學 電氣工程與自動化學院,江西 贛州 341000)
對眼底圖像的視網膜血管分析,在各種疾病的早期診斷中起至關重要的作用,視網膜血管的形態(tài)學特征與青光眼、糖尿病、動脈硬化和高血壓等病理性疾病都是密切相關的[1].視網膜眼底圖像通常具有噪聲、對比度低、不規(guī)則和多尺度等因素干擾,會影響視網膜血管的精確分割.因此,設計出一種自動化和標準化的視網膜血管分割算法,對于早期診斷各種疾病是非常重要的.
目前,有許多國內外優(yōu)秀的研究者提出了大量的視網膜血管分割方法,視網膜血管分割可以分為手工分割和算法分割.手工分割需要眼科醫(yī)生、技術人員的參與,而且耗時.算法分割解決了時間的負擔,但視網膜血管結構極其復雜,對比度低、噪聲干擾和形態(tài)多樣性等特性,仍然使自動分割算法面臨著巨大的挑戰(zhàn),這些算法分割分為無監(jiān)督算法和有監(jiān)督算法.無監(jiān)督算法不使用任何分割標注作為參考,主要依靠手動特征來表示和分割視網膜血管[2],主要步驟有閾值、濾波、變化、形態(tài)處理和反變換形成.無監(jiān)督算法分為基于匹配濾波的方法[3,4]、基于血管跟蹤的方法[5,6]、基于模型的方法[7]和基于形態(tài)學的方法[8].Chowdhary等[7]改進隸屬度分配和噪聲數據處理,克服醫(yī)學圖像分割可能性模糊C-均值的限制,雖然提高了血管的特征提取,但是導致數據量巨大,存在一定的局限性.Upadhyay等[8]以一種新穎的方式將局部方向小波變換和全局曲波變換兩種多尺度方法結合,在保留主要血管厚度的同時分割細小血管,但對噪聲較為敏感.有監(jiān)督算法需要手工標注數據集進行訓練以生成最優(yōu)預測模型,并使用所構建的模型將所有的輸入映射到相應的輸出,這種算法廣泛應用于分割任務中.Zhao等[9]提出一種新穎的2-D/3-D正交濾波器區(qū)分線和邊緣局部相位特征,以解決大多數基于濾波器的方法存在血管分叉和交叉處分割斷裂問題,但對細小血管分割精度較低.Guo等[10]通過局部和全局特征利用濾波器提取血管特征信息,可以區(qū)分主血管和細小血管并確保圖像的全局空間一致性,解決了細小血管易斷裂現象,但存在噪聲的干擾.
近年來,基于深度學習方法已取得了重大突破,U-Net網絡結構[11]廣泛用于醫(yī)學分割領域,U-Net的編碼結構用于降低池化層的空間維度,解碼結構用于修復圖像分割的細節(jié)和空間維度,跳躍連接增加信息傳輸路徑.文獻[12]提出融合U-Net和DenseNet網絡改進的視網膜血管分割算法,提高血管分割的準確率.Jin等[13]將可變形卷積集成到U型網絡中,根據血管的尺度和形狀自適應調整感受野來捕獲各種形狀和尺度的視網膜血管.Yuan等[14]提出一種新的深度學習模型DU-Net,充分利用低層次的細節(jié)信息和不同層編碼的互補信息,以較低的模型復雜度準確區(qū)分血管和背景.現有的方法通常是利用同一層次的特征,直接對其進行連接,形成最終的視網膜血管圖,特征中會包含來自淺層的細微噪聲和來自深層的無關特征信息,從而導致視網膜血管分割精度低.
為了實現眼底視網膜圖像血管的精確分割,本文提出一種融合多層空間注意的U型視網膜血管分割算法.首先在眼底視網膜圖像預處理后,再使用翻轉、平移和裁剪等方式進行數據擴充;然后設計了FE-Resnet代替編碼和解碼的傳統(tǒng)卷積,對圖像血管的通道特征實現自適應校準,突出顯著信息抑制無關信息;再后在U型網絡的底層提出了密集空洞卷積模塊,在不增加參數的情況下獲得更大的感受野,提取血管多尺度特征;最后在跳躍階段提出了三端空間注意模塊,增加信息傳輸路徑,消除噪聲干擾,維持更多血管的細節(jié)信息.
隨著卷積網絡層的加深在訓練過程中會產生梯度消失和過擬合等問題,導致血管分割的準確率和靈敏度降低,網絡迅速退化.因此將淺層特征與深層特征映射融合的殘差模塊[15]加入網絡模型中,會加快網絡的收斂.而淺層特征中缺乏語義信息,存在特征冗余的問題,故在殘差轉換層引入通道注意機制[16]自適應地聚合通道之間的過程,捕獲通道維度的全局語義信息,增強通道特征提高血管分割的靈敏度和準確率.
本文研究聚合了殘差模塊和通道注意模塊的優(yōu)點,設計了特征增強殘差模塊(Feature Enhancement Resnet Module,FE-Resnet),其運算原理如圖1所示,主要包含通道注意層、卷積層、BN層和Rule層以及DropBlock層.其中通道注意層如圖1右側所示,給定局部特征A∈RC×H×W,首先將其經過一個卷積層,分別生成兩個新的特征映射B和C,其中{B,C}∈RC×H×W,將B和C進行矩陣變維成RC×N,其中N=H×W為像素數;然后對B和C的轉置之間進行矩陣乘法,再通過softmax層計算,使每個通道的權重歸一化0到1之間,得到通道注意特征圖X∈RN×N;最后將A進行矩陣變維成RC×N,然后在A與特征圖X的轉置之間執(zhí)行矩陣乘法,獲得最終輸出特征圖E∈RC×H×N.其原理運算表示為:
圖1 特征增強殘差模塊Fig.1 Feature enhancement residual module
(1)
其中,Aj為輸入通道特征圖;Bi和Cj為生成的特征映射;Ej為輸出通道特征圖;i和j為不同的特征通道.
殘差模塊基本思想如下,首先輸入層l設置為xl,經過兩個3×3卷積層,每層中含有DropBlock和BN歸一化以及Relu激活函數,分別避免過度擬合和梯度消失,輸出為xl+1,則殘差網絡表示為:
(2)
xl+1=h(xl)+F(xl,wl)
(3)
深度學習的最新研究表明,由文獻[17]所知,通過增加卷積濾波器的感受野對于提取更多血管細小特征信息是及其重要的.在大多數的方法中使用池化層和增大卷積核大小來增大感受野,然而池化操作會導致血管細小特征信息的丟失,而增加卷積核大小會導致計算參數過大.針對這些問題Chen等[18]提出空洞卷積減少池化操作和增大卷積核大小即可調整特征點的感受野.空洞卷積數學定義如下:
(4)
其中,x為輸入特征映射,y為卷積的輸出,w為卷積核,k為卷積核大小,n為輸入信號的步幅,經空洞卷積后卷積核大小為k′=k+(k-1)(n-1).通過增大空洞率的大小來自適應調整感受野的大小.同時,受文獻[19]啟發(fā),密集模式下的卷積特征重用使網絡更加高效.為了簡化網絡模型,保留血管的多尺度特征,提取更多血管細小特征信息.提出密集空洞卷積(Dense Atrous Convolution,DAC)模塊,本文的方法不同于現有的級聯(lián)模式和并行模式,如圖2所示.
圖2 密集空洞卷積模塊Fig.2 Dense atrous convolution module
在該模塊中,空洞卷積以串聯(lián)模式堆疊,其模型有4個分支,首先經過卷積核大小為3×3空洞率為1的分支,對輸入的血管特征圖進行特征提取,然后將獲得的特征信息作為最終特征圖的一部分,同時也作為下一分支的輸入,以此類推.隨著空洞卷積的數量逐漸增加,空洞率從1到1、3和5,每個分支的感受野變?yōu)?、7、9和19.在每個空洞分支中,采用一個1×1卷積進行校正線性激活,最后采用密集連接重用特征信息.通過DAC模塊可以增大感受野提取多尺度血管特征,有效地提取細小視網膜血管特征信息.
雖然在特征提取部分增加FE-Resnet模塊和DCA模塊,可以更有效地提取多尺度特征和細小的血管特征信息,但是在跳躍部分會帶有冗余和背景噪聲等信息.因高分辨層級具有豐富的空間特征;低分辨層級具有更清晰的語義特征.受AGs模型[20]啟發(fā),提出了三端空間注意模塊(Three-terminal Space Attention Module,TSA).AGs是利用深層空間特征包含重要的語義信息過濾淺層特征噪聲的干擾,輸出為淺層特征信息.TSA是將編碼部分不同層級具有不同分辨率的特征信息進行自適應融合,通過跳躍連接傳送至解碼部分,以增加信息的重用并促進血管結構信息的傳輸,消除視網膜圖像復雜背景中的噪聲和冗余信息,突出細小血管的結構信息.其數學定義如下:
P1=TSA(H1,maxpooling(H2,2),maxpooling(H3,4))
(5)
P2=TSA(H2,upsample(H1,2),maxpooling(H3,2))
(6)
P3=TSA(H3,upsample(H1,4),upsample(H2,2))
(7)
其中,TSA為三端空間注意模塊,maxpooling為下采樣,upsample為上采樣,P1、P2和P3分別為每個階段的特征輸出.三端空間注意TSA3模塊如圖3所示,首先各階段通過最大池化過程作為下采樣與當前階段成相同比例的特征圖,然后將不同層次的特征信息級聯(lián)融合起來,之后經過1×1卷積、全局平均池化和sigmoid激活函數生成空間權重圖,將權重與高分辨率特征逐像素相乘,最后通過殘差法添加.通過引入TSA模塊跳躍連接,跳過方法縮短了從高分辨率階段到低分辨率階段的信息傳輸路徑,消除血管特征圖中的噪聲和冗余信息,并聚焦于視網膜血管區(qū)域以增強語義表達,使之更準確地分割視網膜血管.
圖3 三端空間注意模塊Fig.3 Three-terminal space attention module
針對眼底視網膜圖像復雜背景中的噪聲干擾和細小血管分割不足,導致視網膜血管分割精度低等問題,本文提出融合多層空間注意的U型視網膜血管分割算法,其網絡模型如圖4所示.本文算法在U型網絡模型基礎上,采用了4層編碼和解碼結構,初始卷積層采用3×3卷積,特征通道數變?yōu)?2;
圖4 視網膜血管分割網絡模型結構圖Fig.4 Retinal vessel segmentation network model structure diagram
再將提取的血管特征通過FE-Resnet模塊,防止網絡過擬合和梯度消失,特征通道數不變,增強血管分割特征通道;最大池化過程作為下采樣,降低池化層的空間維度;將編碼層最后一層的特征通過DAC模塊,提取不同尺度、不同感受野的血管特征,提高網絡的分割性能;再將編碼部分不同層次的特征信息通過TSA模塊自適應融合傳送至解碼部分,以消除噪聲的干擾,準確分割視網膜細小血管;通過反卷積運算進行上采樣以修復圖像細節(jié)和空間維度;對最后一層解碼器的深度特征映射輸入至帶有sigmoid激活函數的1×1卷積中,獲取所最終預測圖像,從而提高網絡模型對血管分割能力.
本文算法模型實驗設備采用NVIDA GeForce RTX 3050Ti Laptop GPU,16GB內存.使用DRIVE和STARE公開眼底圖像數據集來驗證本文算法模型的有效性.
DRIVE數據集[21]包含40張像素大小為584×565的彩色眼底視網膜圖像,分為20張訓練圖像和20張測試圖像.這其中33張圖像沒有任何病理表現,其余圖像里包含少量的糖尿病跡象.STARE數據集[22]包含20張像素大小為605×700的彩色眼底視網膜圖像,這其中10張圖像包含病理跡象,其余圖像沒有任何病理表現.由于官方沒有劃分數據集和測試集,為了公平與其他算法進行比較,本文算法采用留一法[23]進行交叉驗證.在訓練和測試階段采用k-flod(K=4)交叉驗證,因此在每個折疊中15張圖像用于訓練,其余5張圖像用于測試.每張圖像由兩位專家手動分割,一張作為分割標準,另一張作為結果對比,這兩個數據集是分析視網膜血管分割性能最常用的數據庫.
因數據集中的視網膜圖像亮度不均勻、對比度低和有噪聲的干擾.為了提高血管分割的效果,在數據增強之前需要對原始圖像進行預處理,如圖5所示.首先將原始RGB眼底視網膜圖像轉化為單通道灰色圖像;然后采用歸一化和對比度受限自適應直方圖均衡化(CLAHE)方法改善灰度細節(jié)并增強對比度;最后采用局部自適應伽馬變化算法調整亮度,進一步校正不同區(qū)域的視網膜圖像并抑制不均勻照明.
圖5 DRIVE數據預處理Fig.5 Data preprocessing of DRIVE
由于眼底視網膜圖像數據集有限,基于數據增強應用于網絡模型中訓練,在圖像上隨機裁剪為64×64像素塊狀,并沿著垂直軸和水平軸進行翻轉擴充數據集,防止網絡會過擬合.圖6為DRIVE數據集輸入網絡模型的訓練樣本和標簽.在訓練過程中,采用交叉熵損失函數,其數學公式如下:
圖6 DRIVE數據集訓練的樣本和標簽Fig.6 Training samples and labels of the DRIVE dataset
(8)
視網膜血管分割是將眼底視網膜圖像的像素劃分為血管部分和非血管部分,為了分析本文算法對視網膜血管分割結果的性能,本文使用了敏感度(Sensitivity,Se)、特異性(Specificity,Sp)、ROC曲率下方的面積AUC(Area Under the Curve)和準確率(Accuracy,Acc)等指標來評估本文算法的性能.評估的計算公式如下所示:
(9)
(10)
(11)
其中,TP為真陽性,表示正確分割血管像素數目;TN為真陰性,表示正確分割非血管像素數目;FP為假陽性,表示錯誤分割血管像素數目;FN為假陰性,表示錯誤分割非血管像素數目.
3.4.1 實驗細節(jié)
本文算法實驗模型是基于python的深度學習框架,使用Adam優(yōu)化器,學習率設置為1×10-3,為了確保模型的快速收斂,采用多項式學習率衰減方法調整學習率,每迭代10次學習率會逐漸減小為原來的1×10-1,實驗采用的batch_size為8,迭代總數為50,DropBlock中的block_size設置為7,在訓練過程中會保存最好的模型和準確率.
3.4.2 與最先進的算法比較
為了進一步證明本文所提視網膜血管分割算法具有一定的優(yōu)勢,將本文所提算法與3種先進的算法進行比較.包括U-Net[11]、DenseU-Net[19]和AttU-Net[20].基于相同的實驗設置和訓練策略,在DRIVE和STARE數據集上進行了實驗.血管分割實驗結果如圖7所示,U-Net作為最常用的網絡模型,不僅出現主血管斷裂問題,而且還出現將病理信息作為血管分割現象.基于特征重用的思想,DenseU-Net網絡采用了重復密集卷積塊,其性能優(yōu)于U-Net網絡,主血管處穩(wěn)健性較強,但是在微血管末端會丟失大量的細小血管,導致靈敏度偏低,還存在產生了帶有假陽性預測的噪聲結果.AttU-Net網絡采用加入注意力機制,抑制不相關背景噪聲的干擾,但在微血管分割細節(jié)方面體現出其局限性,導致對細小血管分割精度較低.本文算法不僅與專家手動分割出的微血管數量基本一致,而且分割出細小血管更加合理不會出現斷裂現象,保證了血管樹的連通性,同時消除噪聲的干擾.綜上所述,本文算法能夠對主血管與微血管精確分割保留更多血管的紋理信息和邊緣特征,同時具有一定的抗噪能力,從而實現了對不同類型血管較為健全的分割,說明本文算法具有較好的魯棒性.
圖7 不同算法分割結果Fig.7 Different algorithm segmentation results
3.4.3 細節(jié)分割效果對比分析
為了更清晰地說明本文算法的性能優(yōu)異性,如圖8所示,本文算法與文獻[11,19]在DRIVE和STARE數據集上的局部區(qū)域進行比較.圖8(a)~圖8(c)分別為原圖、原圖細節(jié)和金標準細節(jié);圖8(d)~圖8(f)分別為文獻[11]、文獻[19]和本文算法分割細節(jié).
圖8 不同算法分割結果細節(jié)對比Fig.8 Comparison of the details of segmentation results of different algorithms
由第1行可知文獻[11,19]在細小血管分割方面體現出其局限性,出現不同程度的細小血管在交叉和分叉處分割斷裂現象,而本文算法能夠更好地保留細小血管且不易出現斷裂現象,對細小血管分割有很高的準確度.由第2行可知,在視盤區(qū)域血管樹復雜多變,對血管精確分割難度較大.文獻[11,19]存在主血管的特征信息丟失問題,出現微血管分割不足和噪聲點,而本文算法能夠對主血管精確分割保留完整的血管結構,抑制背景噪聲干擾.通過對局部分割結果的比較與分析,說明本文利用FE-Resnet代替?zhèn)鹘y(tǒng)卷積增強了對血管的分割能力,能有效突出細小血管特征信息,且對不同結構的血管實現較好地分割;而DAC通過增大感受野捕獲血管多尺度特征,將豐富、密集的語義信息傳送至解碼部分,促進了主血管和細小血管的分割;同時TSA提升了網絡模型對不同形狀和尺度血管精確分割的能力,且有效抑制背景噪聲的干擾.實驗表明,本文算法分割結果優(yōu)于其他算法,從而說明本文算法在分割血管上具有較強的泛化能力.
3.4.4 分割效果客觀分析
為了充分說明本文算法在U-Net基礎上改進的有效性,與不同的U-Net改進算法分割性能進行比較,在DRIVE和STARE數據集上測試了準確率、靈敏度、特異性和AUC等指標值.如表1所示,其中加粗的為最優(yōu)值,在DRIVE數據集上,U-Net比本文算法的特異性略高0.16%,但本文算法相比U-Net的準確率、靈敏度和AUC值等指標分別提升了0.34%、4.45%和0.25%,在以上算法中均達到了最佳值.在STARE數據上,本文算法相比U-Net的準確率、靈敏度和AUC值等指標分別提升了0.41%、7.66%和0.47%,比以上算法特異性值略低,與最大差距DenseU-Net僅低0.36%,但準確率、靈敏度和AUC值等指標分別提升了0.32%、7.21%和0.47%.充分說明了本文算法在U型網絡基礎上改進的有效性和高效性.
表1 DRIVE、STARE數據集性能評價結果Table 1 Performance evaluation results of DRIVE and STARE data sets
為了更直觀地體現本文算法的優(yōu)越性,結合ROC曲線和AUC標準來進一步評估不同網絡的性能.如圖9所示,基從兩個數據集計算的ROC曲線和AUC值,本文所提算法的ROC和AUC值均優(yōu)于其他先進算法.說明本文算法存在誤分割可能性較小,對細小血管分割能力較強,分割出更多的血管數目,具有較好的分割優(yōu)越性和穩(wěn)定性.
圖9 不同算法分割的ROC曲線Fig.9 ROC curve segmented by different algorithm
3.4.5 本文算法和其他算法血管分割指標對比
為了進一步證明本文算法在視網膜血管分割中的性能,將本文所提算法與近年來先進算法在DRIVE和STARE數據集上進行了比較,比較結果如圖表2和表3所示,其中加粗為最優(yōu)值.在DRIVE上準確率、靈敏度和AUC值都實現了最優(yōu),從而說明本文算法能夠有效、準確地區(qū)分血管像素和背景像素,以及本文算法在視網膜血管分割優(yōu)越性能,在血管分割中假陽性率低.文獻[10]利用濾波器提取血管特征,其特異性略高于本文算法0.13%,但本文算法準確率和靈敏度分別比其高0.18%和7.69%,且在以上算法中均達到最優(yōu)值,說明本文算法總體性能更優(yōu).在STARE上本文算法準確率和AUC值都達到了最優(yōu),說明本文算法存在誤分割可能性較小.文獻[27]其靈敏度值高于本文算法1.72%,但是其準確率、特異性和AUC均低于本文算法,說明文獻[27]雖然假陰性低,但是存在細小血管分割不足和非血管像素被誤分割現象.文獻[25]特異性高于本文算法0.12%,但是其靈敏度比本文算法低于2.26%,主要原因是其分割了更多未經專家標注的小血管,導致更多的假陽性,說明本文算法在保證較高的準確率的同時分割的血管圖像假陽性更低.綜上所述,本文算法相對其他算法具有較小的誤分割現象,對偽影和噪聲等病灶具有較好的魯棒性,對細小血管分割具有很高的精確度,這說明本文算法在視網膜血管分割中具有很高的性能.
表2 DRIVE數據集對比結果Table 2 Comparison results of DRIVE data set
表3 STARE數據集對比結果Table 3 Comparison results of STARE data set
3.4.6 消融實驗
為了驗證本文算法加入各模塊的有效性,在DRIVE和STARE數據集上進行消融實驗.表4、圖10和圖11分別表示各模塊的指標統(tǒng)計比較、局部分割圖像和ROC曲線的結果,分別對本文算法的靈敏度、特異性、準確率和AUC值等各指標進行測試.其中M1表示傳統(tǒng)U-Net網絡模型;M2表示在M1基礎上加入FE-Resnet;M3表示在M2基礎上加入DAC模塊;M4表示在M3基礎上加入TSA模塊,即本文所提算法.
表4 各模塊對整體模型的影響Table 4 Influence of each module on the overall model
圖10 不同模型局部分割圖像Fig.10 Partially segmented images of different models
圖11 消融實驗的ROC曲線Fig.11 ROC curve of ablation experiment
由表4可知,M1僅采用傳統(tǒng)U-Net網絡對視網膜血管分割有較好的效果,但其各項指標需要進一步提升.M2相比M1其各項指標有大幅度提升,效果更優(yōu),說明加入FE-Resnet對網絡模型在訓練過程中快速收斂,且提高了網絡模型對細小血管分割的能力.M3與M2相比效果進一步提升,說明DAC可以增大感受野提取更豐富的多尺度血管特征,但其準確率提升不明顯,說明在細小血管分割方面還有欠缺.M4與M3相比靈敏度和準確率均有明顯的提升,說明TSA通過融合不同層次的特征消除背景圖像的噪聲和冗余信息,解決了細小血管分割不足問題.根據上述實驗表明,本文所提算法具有一定的有效性和合理性.
為了進一步證明本文所提模型對于眼底圖像中的噪聲有很好的處理效果,在消融實驗中各選取了DRIVE和STARE數據集上的一張局部特征圖進行比較和分析.圖10展示了不同模型對含有病理特征的眼底圖像血管局部分割圖像,其中第一行為DRIVE數據集的視網膜圖像,第2行為STARE數據集的視網膜圖像.圖10(a)為原始局部圖,圖10(b)為金標準局部圖,圖10(c)~圖10(f)分別為M1、M2、M3和M4局部圖.從實驗結果來看,M1分割結果圖中含有大量的噪聲干擾,將一些病灶誤分割為主干血管;M2和M3分割結果圖中都含有不同程度的噪聲干擾,存在少量的病灶誤分割現象;而M4分割結果圖和金標準圖基本一致,病灶誤分割有了大幅度消除,主干血管邊界清晰,主干血管較完整.通過對局部分割結果圖的比較和分析,從而說明本文算法在網絡中加入TSA模型的有效性,能夠有效抑制眼底圖像中的噪聲干擾.從而體現本文算法可以對視網膜血管實現更加精確地分割,表現出較好的分割效果和較高的穩(wěn)定性.
為了進一步直觀地表現本文算法的優(yōu)越性,圖11表示在DRIVE和STARE數據集上的ROC曲線走勢圖.M1到M4AUC值都有明顯的提升,說明各模塊對血管分割的高效性.M4的ROC曲線更接近左上角,說明本文所提網絡模型對血管誤分割的可能性更小,正確分割血管數目更多,對細小血管分割性能更強.結果表明,本文算法對血管分割性能越優(yōu),各模塊設計的合理和高效,魯棒性越強.
針對眼底視網膜細小血管分割不足和抗噪聲能力弱導致血管分割精度低等問題,提出一種融合多層空間注意的U型視網膜血管分割算法.本文結合殘差塊和通道注意機制的優(yōu)點設計了FE-Resnet,防止網絡過擬合和梯度消失,增強血管分割通道特征,提取更多的細小血管特征信息;同時,提出的DAC模塊,在不增加參數量的情況下增大感受野,提取多尺度的視網膜血管特征;最后在跳躍階段提出TSA模塊,對視網膜血管特征進行自適應細化,融合不同層次的特征信息,消除復雜背景圖像中噪聲干擾,提高血管分割精度.通過實驗表明,本文算法在DRIVE和STARE數據集上能分割出平滑清晰不同形狀和細小的血管,保證了血管的連續(xù)性和完整性.本文視網膜血管分割算法性能優(yōu)于其他算法,能夠有效地分割視網膜血管的結構.但本文算法對含有較多病灶和低對比度的圖像仍存在少數血管斷裂及誤分現象,今后將進一步提高模型的分割性能.