• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于粗糙注意力融合機制與Group Transformer的視網(wǎng)膜血管分割網(wǎng)絡

    2024-12-09 00:00:00王海鵬高自強董佳俊胡軍陳奕帆丁衛(wèi)平*
    南通大學學報(自然科學版) 2024年1期
    關鍵詞:圖像分割注意力機制粗糙集

    摘要:視網(wǎng)膜血管的形態(tài)學變化對早期眼科疾病的診斷具有重要意義,除眼科疾病外,糖尿病、心血管疾病等同樣可以通過視網(wǎng)膜血管的形態(tài)判別疾病進展。然而,視網(wǎng)膜血管本身具有復雜的組織結構,且易受到光線等因素的影響,對其準確分割并不容易。針對上述問題,提出了一種視網(wǎng)膜血管分割網(wǎng)絡。該網(wǎng)絡中首先設計了粗糙注意力融合模塊(rough attention fusion module,RAFM),該模塊基于粗糙集上下近似理論,利用全局最大池化與全局平均池化對注意力系數(shù)進行上下限描述,并串行融合通道注意力機制與空間注意力機制;然后,將粗糙注意力融合模塊融入Group Transformer U network (GT U-Net),構建一種基于粗糙注意力融合機制與Group Transformer的視網(wǎng)膜血管分割網(wǎng)絡;最后,基于公開DRIVE彩色眼底圖像數(shù)據(jù)集進行對比實驗,該網(wǎng)絡結構在測試集上的準確率、F1分數(shù)、AUC值分別達到了0.963 1、0.848 8和0.981 2,與GT U-Net模型相比,F(xiàn)1分數(shù)、AUC值分別提升了0.35%、0.21%;與其他當前主流的視網(wǎng)膜血管分割網(wǎng)絡進行對比,具有一定優(yōu)勢。

    關鍵詞:粗糙集;注意力機制;眼底視網(wǎng)膜血管;圖像分割;Transformer

    中圖分類號: TP181" " " " " " " " " " " " " 文獻標志碼: A文章編號: 1673-2340(2024)01-0028-10

    Abstract: The morphological changes in retinal vessels play a crucial role in the diagnosis of early ophthalmic diseases. Beyond eye diseases, conditions such as diabetes and cardiovascular diseases can also be identified through the morphology of retinal vessels. However, retinal vessels possess a complex tissue structure and are easily influenced by factors such as lighting, making their accurate segmentation challenging. To address these issues, a retinal vessel segmentation network that initially incorporates a rough attention fusion module (RAFM) is proposed. This module is based on the theory of rough set upper and lower approximations, employing global max pooling and global average pooling to describe the upper and lower bounds of attention coefficients, and sequentially integrates channel attention mechanisms with spatial attention mechanisms. Subsequently, the RAFM is integrated into the Group Transformer U network (GT U-Net), constructing a retinal vessel segmentation network based on the rough attention fusion mechanism and Group Transformer. Finally, comparative experiments conducted on the publicly available DRIVE color fundus image dataset demonstrate that the network achieves an accuracy, F1 score, and AUC of 0.963 1, 0.848 8, and 0.981 2, respectively, on the test set. Compared to the GT U-Net model, the F1 score and AUC were improved by 0.35% and 0.21%, respectively; and when compared to other contemporary mainstream retinal vessel segmentation networks, it exhibits certain advantages.

    Key words: rough set; attention mechanism; fundus retinal blood vessels; image segmentation; Transformer

    視網(wǎng)膜血管的形態(tài)結構變化是診斷高血壓、動脈硬化、冠心病等疾病的重要指標之一。視網(wǎng)膜血管作為人體內唯一可以通過無創(chuàng)手段觀察到的清晰血管,其檢測與分析對預測和診斷上述疾病有非常重要的應用價值[1]。由于視網(wǎng)膜血管復雜的樹狀結構,以人工進行視網(wǎng)膜血管分割存在判錯率高、耗時長及操作繁瑣等問題[2]。基于深度學習的圖像分割算法可以幫助醫(yī)生處理并分析復雜的眼底圖像,進一步提高計算機圖像分割的速率與準確度,其優(yōu)化方法受到學者們越來越多的關注[3]。

    隨著近年來深度學習的進步,基于深度卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)的方法已成功地打破傳統(tǒng)手工提取特征方法的瓶頸[4],逐漸成為一種主流的圖像處理方法。Ronneberger等[5]在全卷積神經(jīng)網(wǎng)絡的編解碼結構基礎上,構建了一種U型對稱網(wǎng)絡(U-Net),并在對應層之間添加跳躍連接,實現(xiàn)低層特征和高層特征的拼接和融合。Xiao等[6]在U-Net模型的基礎上進行了改進,在每層卷積處加入了殘差連接,緩解了模型訓練中的梯度爆炸和消失現(xiàn)象,同時加速了收斂。吳晨玥等[7]提出了一種改進卷積神經(jīng)網(wǎng)絡,在編碼器-解碼器結構的網(wǎng)絡中加入了空洞卷積,在不增加參數(shù)的情況下增加了感受野。

    隨著研究的推進,用于自然語言處理的Transformer[8]跨領域地被引入到計算機視覺任務中。利用Transformer在特征圖中捕捉長距離依賴的優(yōu)勢,解決CNN因局部偏置和權值共享對全局信息把握不足的缺點[9]。Dosovitskiy等[10]提出視覺轉換器(vision Transformer,ViT)模型,利用Transformer全局感受野特性得到比CNN更好的性能,但ViT只使用全局特征,忽視了局部特征。結合兩者優(yōu)勢的CNN與Transformer融合網(wǎng)絡模型在目前的圖像分割任務中比較流行,并在醫(yī)學圖像分割領域獲得了較好的效果。Zhang等[11]提出了一個Transformer與ResNet的并行特征提取與融合網(wǎng)絡;Chen等[12]基于U-Net的架構,構建了一個聯(lián)合CNN-Transformer的結構作為編碼器,并在解碼器中加入可以獲得精確位置信息的級聯(lián)上采樣操作。上述方法將卷積神經(jīng)網(wǎng)絡與Transformer模型進行合理融合,取得了不錯的圖像分割效果。然而Transformer通常需要較大的計算資源與較大的內存資源,將CNN與ViT模型直接融合具有較高的計算復雜度。

    注意力機制是一種在深度學習中常用的技術,它可以讓模型在處理序列數(shù)據(jù)時,更加關注當前處理的元素,將注意力機制與深度學習模型結合可以使模型更好地在圖像中識別需要關注的部分。Oktay等[13]提出了用于醫(yī)學成像的新型注意力門模型,抑制輸入圖像中的不相關區(qū)域,突出有價值的顯著特征。Gu等[14]提出了一種聯(lián)合空間注意力模塊和一種新穎的通道注意模塊:空間注意力模塊使網(wǎng)絡更加關注前景區(qū)域;通道注意力模塊自適應地重新校準通道特征響應,并突出最相關的特征通道。Yuan等[15]提出了多級注意力網(wǎng)絡以整合從擴展路徑中提取的多層次特征,充分利用了低級別的詳細信息和不同層中編碼的補充信息。

    本文提出的視網(wǎng)膜血管分割網(wǎng)絡使用Li等[16]提出的Group transformer U network(GT U-Net)為基礎框架,將GT U-Net中每層準備跳躍連接的特征圖先通過粗糙注意力融合模塊(rough attention fusion module,RAFM),再與擴展路徑的特征圖相拼接,進而減少冗余特征的數(shù)量,提升模型的分割效果。

    本文主要貢獻如下:

    1)為了解決ViT模型計算量大、消耗資源多等問題,本文使用GT U-Net為基礎框架,其Group Transformer結構有效減少了Transformer的計算復雜度。

    2)為了解決視網(wǎng)膜血管分布密集雜亂、血管邊界不清晰等問題,本文基于粗糙集上下近似理論,構建了粗糙空間注意力模塊(rough spatial attention module,RSAM)和粗糙通道注意力模塊(rough channel attention module,RCAM),得到更加合理的注意力系數(shù)。

    3)為融合粗糙空間注意力模塊與粗糙通道注意力模塊,本文提出一種粗糙注意力融合機制RAFM,將空間注意力模塊和通道注意力模塊串行結合,以提高模型的表達能力。

    1" "相關工作

    1.1" "粗糙集的上下近似理論

    粗糙集[17-19]理論用于對不精確、不一致、不完整信息進行分析與處理,是一種在不確定環(huán)境中廣泛使用的數(shù)學工具。它使用近似空間、集合的上下近似運算來處理模糊性和不確定性,通過上下界逼近的方式來刻畫不可定義集,這就是粗糙集理論中的上下近似算子。

    假設信息表R = {U,At,{Vα∈At}},{Iα∈At},其中:U = {x,x,…,x}是有限非空對象的集合,n為對象的個數(shù);At為有限非空屬性集合;V表示屬性α∈At的屬性值的范圍;I為對象屬性關系函數(shù),若A?哿At,則I(x)表示論域U中的對象x的屬性值。

    在信息表R中,稱子集X?哿U是可以被屬性子集A?哿At定義的,當且僅當由屬性子集A定義的邏輯決策語言L(A)中存在一個公式φ使得X = g(φ);否則X稱為不可定義的。其中φ為一個對象屬性關系對;g(φ)為具有公式φ性質的對象的全體。針對不可定義集,只能通過上、下界對其進行逼近,即粗糙集理論中的上下近似算子。上近似算子(X)是包含X的最小可定義集,下近似算子(X)是包含在X中的最大可定義集。

    對于子集X?哿U,論域U將被劃分為正域POS(X)、負域NEG(X)與邊界域BND(X) 3個區(qū)域,分別定義為

    POS(X) = (X),(1)

    NEG(X) = POS(~X) = U - (X),(2)

    BND(X) = (X) - (X)。(3)

    若BND(X) = ,說明集合X是精確的;若BND(X)≠,說明集合X是粗糙的。

    1.2" "Group Transformer

    Transformer起初在自然語言處理領域取得了很好的效果。近年來,以ViT為代表的Transformer模型在計算機視覺領域得到迅速發(fā)展,并表現(xiàn)出優(yōu)異的效果。多頭自注意力機制(multi-head self attention,MHSA)是Transformer的核心結構,MHSA的輸出為

    MHSA(Q,K,V) = Concat(head,…,head)W,(4)

    其中:h是頭的數(shù)量;head表示第i個頭部的輸出;W是輸出線性變換的權重矩陣。

    對于MHSA中的一個頭部,注意力權重為

    Attention(Q,K,V) = soft max()V,(5)

    其中:Q是查詢向量序列;K是鍵向量序列;V是值向量序列;d是鍵向量序列中每個向量的維度。

    然而,ViT模型往往需要較大的計算資源與較大的內存資源,且依賴于由大型圖像數(shù)據(jù)庫預訓練的權重,這導致其在數(shù)量不足的數(shù)據(jù)集上表現(xiàn)不佳。Jiang等[20]提出了一種瓶頸結構將維度為d的嵌入特征投影到維數(shù)為d/r的較小空間,其中r為縮放比例。這在很大程度上節(jié)省了自我注意力的計算成本,并使得注意力頭部產(chǎn)生更緊湊和有用的注意力信息。

    結合醫(yī)學圖像的特點,Li等[16]設計了Group Transformer模塊,并構造了GT U-Net網(wǎng)絡。如圖1所示,Group Transformer模塊由跳過連接、分組模塊、3 × 3卷積、多頭自注意力模塊和合并模塊組成。其設計的分組模塊和3 × 3卷積減少了MHSA的計算量,同時3 × 3卷積彌補了Transformer缺少局部性和全局不變性的劣勢。

    假設原始特征圖大小為H × W × C,MHSA的頭部個數(shù)為 4,通過分組結構和瓶頸結構,MHSA的計算量將大大減少。改進前的MHSA[21]計算量和Group Transformer(GT)的計算量分別為

    Ω(MHSA) = 4HWC + 2(HW)C,(6)

    Ω(GT) = HWC + (HW)C,(7)

    其中:φ是瓶頸結構的通道縮放因子;h × w是每個Group Transformer單元的大小。

    2" "粗糙注意力及融合機制

    圖像信息包含大量的隨機性、粗糙性等不確定性信息,比如眼底視網(wǎng)膜血管的分布雜亂、形狀不規(guī)則、邊緣粗糙不清。這些不確定性信息使得深度神經(jīng)網(wǎng)絡難以取得較好分割的效果。在本節(jié)中,將完整地介紹所提出RAGT-Net模型,該模型能夠很好地適應視網(wǎng)膜血管的形態(tài)特性,處理不確定性信息,獲得精確的分割結果。

    2.1" "粗糙通道注意力

    通道注意力機制[22]主要用于捕捉卷積層中通道間的相關性。具體來說,假設特征圖F∈R,首先對特征圖分別進行全局平均池化,將特征圖F壓縮為維度為1 × 1 × C的特征圖;然后將壓縮后的特征圖通過2個全連接層映射成每個通道的權重,2個全連接層之間使用ReLU激活函數(shù),增強了模型的非線性特征并且降低了梯度消失的概率,使用Sigmoid激活函數(shù)對每個通道的特征權值進行歸一化操作;最后將最終得到的特征圖與原先的特征圖相乘,對原特征圖進行通道特征重標定,并作為下一級的輸入數(shù)據(jù)。

    一般而言。全局平均池化在一定程度上具有全局感受野,全局最大池化在一定程度上具有局部感受野。如圖2所示,粗糙通道注意力依據(jù)粗糙集的上下近似理論,使用全局最大池化和全局平均池化對特征通道重要性進行上下限描述,使得注意力系數(shù)值兼具全局信息和局部細節(jié)信息。在此基礎上進行特征重標定,得到新的視網(wǎng)膜血管特征圖。

    首先,采用全局平均池化層建立通道之間的依賴關系,并保留全局信息;用全局最大池化層建立通道之間的依賴關系,并保留局部信息??杀硎緸?/p>

    F = max(F(m,n)),(8)

    F = ∑∑F(m,n),(9)

    其中:0 lt; m≤H;0 lt; n≤W;F,F(xiàn)∈R。

    其次,將得到的2張維度為1 × 1 × C的特征圖分別通過2個全連接層映射成每個通道的權重,表示為

    F = Sigmoid(W·δ(W·F)),(10)

    F = Sigmoid(W·δ(W·F)),(11)

    其中:δ表示ReLU激活函數(shù);W∈R,W∈R分別表示2個全連接層的權重矩陣;r為壓縮的比例,本文設置r = 16。

    然后,對所得到的通道重要性值的上下限進行加權操作,得到更合理的通道依賴關系,表示為

    F = α·F + β·F,(12)

    其中,α和β分別表示上下神經(jīng)元的權重信息。

    最后,將得到的通道權重特征圖與原先的特征圖相乘,對原特征圖進行通道特征重標定,并作為下一級的輸入數(shù)據(jù),表示為

    F = F·F。(13)

    2.2" "粗糙空間注意力

    空間注意力機制[23]是通過一個空間權重矩陣賦予每層像素點不同的權重。具體來說,假設特征圖F∈R,首先對特征圖分別進行全局最大池化與全局平均池化,將特征圖F壓縮為2張維度為H × W × 1的特征圖;其次將得到的特征圖進行堆疊,得到維度為H × W × 2的特征圖;然后通過一個卷積層,最終得到的特征圖維度從H × W × 2變?yōu)镠 × W × 1,特征圖上每個像素點的數(shù)值大小代表其重要程度,使用Sigmoid激活函數(shù)對每個通道的特征權值進行歸一化操作;最后將最終得到的特征圖與原先的特征圖相乘,對原特征圖進行像素點特征重標定,并作為下一級的輸入數(shù)據(jù)。

    如圖3所示,粗糙空間注意力機制同樣是通過全局最大池化和全局平均池化對各通道像素點的重要性進行上下限描述。

    首先,利用全局平均池化層建立空間之間的依賴關系,并保留全局信息;利用全局最大池化層建立空間之間的依賴關系,并保留局部信息。可表示為

    F = max(F(k)),(14)

    F = ∑F(k),(15)

    其中:0 lt; k≤C;F,F(xiàn)∈R。

    其次,將得到的2張維度為H × W × 1的特征圖分別通過一個卷積層,表示為

    F = Up(δ(Conv(F))),(16)

    F = Up(δ(Conv(F))),(17)

    其中:Conv表示一個卷積核大小為7 × 7的卷積運算;δ表示ReLU激活函數(shù);Up表示采用雙線性插值法的上采樣操作。

    然后,對所得到的空間重要性值的上下限進行加權操作,得到更合理的空間依賴關系,表示為

    F = αF + βF,(18)

    其中,α和β分別表示上下神經(jīng)元的權重信息。

    最后,將得到的空間權重特征圖與原先的特征圖相乘,對原特征圖進行空間特征重標定,并作為下一級的輸入數(shù)據(jù),表示為

    F = F·F。(19)

    2.3" "粗糙注意力融合模塊

    Fu等[24]提出了一種雙注意力網(wǎng)絡(dual attention networks,DANet),實現(xiàn)了自適應集成場景分割任務中局部特征及全局依賴關系。Mei等[25]提出了自我注意融合模塊(self-attention fusion,SAF),該模塊將空間注意力和通道注意力并行結合,提高了經(jīng)典模型對單圖像超分辨率的全局特征表征能力。受此啟發(fā),本文引入了粗糙注意力融合模塊RAFM。

    如圖4所示,整個模塊將空間注意力模塊和通道注意力模塊串行結合??臻g注意力單元主要在不同圖像區(qū)域之間建立長程相關性,使模型具有全局特征的學習能力;通道注意力單元主要對有效通道進行加權,對無用通道進行弱化,以提高模型的表達能力。經(jīng)過粗糙化的空間注意力機制與通道注意力機制,對全局平均池化與全局最大池化得到的全局信息和局部信息粗糙化,對確定性的數(shù)值進行重標定,得到了更為合理且準確的空間與通道注意系數(shù)。融合模塊表示為

    F ′ = RSA(RCA(F)),(20)

    其中:RCA表示粗糙通道注意力機制;RSA表示粗糙空間注意力機制。

    通過結合Group Transformer與粗糙注意力融合機制,本文提出rough attention Group Transfomer網(wǎng)絡(RAGT-Net)模型,網(wǎng)絡結構如圖5所示。該模型以GT U-Net為基礎框架,將GT U-Net中收縮路徑的特征圖通過粗糙注意力融合模塊后,再與擴展路徑的特征圖相拼接。在組合模型中引入粗糙注意力融合機制有利于提升圖像邊緣的權重,抑制不相關區(qū)域中的激活,進而減少冗余特征的數(shù)量,提升模型的分割效果。RAGT-Net模型的算法偽代碼如表1所示。

    3" "實驗部分

    3.1" "數(shù)據(jù)集

    DRIVE數(shù)據(jù)集[26]是2004年發(fā)布的用于視網(wǎng)膜血管分割的數(shù)據(jù)集,它由40張彩色眼底圖像組成,其中病理異常圖像7張,每張圖像分辨率為584 × 565,一般情況下,40張圖像被平均分為20張訓練集和20張測試集。

    鑒于單通道灰度圖像比RGB圖像能更好地顯示血管與背景之間的對比度,同時視網(wǎng)膜圖像是小樣本數(shù)據(jù),本文對數(shù)據(jù)進行了預處理操作。首先,將RGB圖像轉換為灰度圖像,并對視網(wǎng)膜血管灰度圖像進行歸一化;其次,采用對比度受限的自適應直方圖均衡化,增強視網(wǎng)膜血管與背景之間的對比度,以使眼底圖像中血管的結構和特征更易受到關注;最后,使用Gamma變換進行圖像增強,對漂白或者過暗的圖像區(qū)域進行校正。同時,采用對原圖進行分塊的方式進行數(shù)據(jù)擴充,將訓練圖像和相應的掩碼圖劃分成大小為48 × 48的圖像子塊,從中隨機選取一定數(shù)量的圖像子塊進行訓練,部分的圖像子塊隨機整合圖像如圖6所示。

    3.2" "實驗參數(shù)設置

    本文的實驗在Python 3.9,Pytorch 1.11.0和NVIDIA TITAN RTX GPU上完成。在模型的訓練過程中,采用交叉熵損失函數(shù)作為訓練的損失函數(shù),批大小設置為64,模型迭代的次數(shù)設置為120,模型初始學習率設為0.000 5,選擇Adam優(yōu)化器對模型的參數(shù)進行更新。

    3.3" "評價指標

    視網(wǎng)膜血管分割任務就是將像素點分類為血管類或非血管類。血管類是分割的目標,叫做正類,其他部位是負類。通過對比分割算法的結果與真實值,可以得到混淆矩陣中的真陽性N,即正確預測血管類為血管類;假陽性N,即誤判非血管類為血管類;真陰性N,即正確預測非血管類為非血管類;假陰性N,即誤判血管類為非血管類。

    為了評價視網(wǎng)膜血管分割算法的好壞,本文引入準確率Acc、靈敏度Sen、特異性Spe和F分數(shù)這4個評價指標,各評價指標公式分別表示為

    Acc = ,(21)

    Sen = ,(22)

    Spe = ,(23)

    F = 2 × 。(24)

    同時,也引入ROC與PR的曲線面積評價模型,ROC曲線綜合考慮了敏感度和精確性,PR曲線綜合考慮了召回率和精確率,ROC與PR的曲線面積越大,表明模型具有更好的性能。

    3.4" "實驗結果分析

    表2是本文提出的視網(wǎng)膜血管分割網(wǎng)絡和其他5種當前流行的方法在DRIVE數(shù)據(jù)集上的分割性能對比。由表2可知,本文提出的RAGT-Net模型在準確率、靈敏度、特異性及F分數(shù)指標上都表現(xiàn)出良好的分割結果。與其他分割網(wǎng)絡對比,準確率提升了0.52%~0.98%,靈敏度提升了4.85%~11.46%,F(xiàn)分數(shù)提升了2.18%~5.20%。

    同時,為驗證本文提出的粗糙注意力融合機制的有效性,將RAGT-Net與GT U-Net、CBAM[23] + GT U-Net網(wǎng)絡在DRIVE數(shù)據(jù)集上的分割性能進行對比。如表3所示,RAGT-Net相比于GT U-Net,在總體性能上獲得了提升,準確率保持不變,靈敏度、F分數(shù)分別提升了2.39%、0.35%;CBAM + GT U-Net相比于GT U-Net,在總體性能上無明顯變化。

    如圖7與圖8所示,RAGT-Net模型在DRIVE數(shù)據(jù)集上的ROC曲線面積,即AUC值為0.981 2,相比GT U-Net與CBAM + GT U-Net模型分別提升了0.28%和0.21%;RAGT-Net模型的PR曲線AUC值為0.924 8,相比于GT U-Net與CBAM + GT U-Net模型分別提升了0.32%和0.12%,證明了本文提出的粗糙注意力融合機制的有效性。

    如圖9所示,本文提出的RAGT-Net模型的分割結果和金標準基本一致,其在矩形區(qū)域內的細小血管分割上比GT U-Net和CBAM+GT U-Net兩個模型效果更好。

    如圖10所示,對圖9中部分矩形區(qū)域內的分割結果進行局部放大。可以更加直觀地看出,在第Ⅰ行的效果對比中,RAGT-Net模型處理背景噪聲的干擾擁有更好的效果,誤檢率更低;在第Ⅱ行、第Ⅲ行及第Ⅳ行的效果對比中,RAGT-Net模型在矩形區(qū)域內對細小血管的分割更加精細、漏檢率更低。

    為了展示本文模型對于存在病灶的眼底圖像的分割效果,圖9中第Ⅳ行的選用的眼底圖像存在視網(wǎng)膜病變現(xiàn)象,如色素上皮變化、中央凹色素型瘢痕等。如圖11所示,對圖9中第Ⅳ行的眼底圖像的病灶區(qū)域進行局部放大,可以直觀地看出,本文提出的模型能夠精確地檢測血管,但是在病變嚴重的視網(wǎng)膜上,分割結果會受其影響。

    綜上所述,本文提出的視網(wǎng)膜血管分割方法與U-Net、R2U-Net等主流方法相比,具有更好的分割效果。同時,本文提出的粗糙注意力融合機制有效提升了GT U-Net網(wǎng)絡對視網(wǎng)膜血管的分割精度。其主要原因在于,RAGT-Net選用GT U-Net為基礎框架,在減少Transformer計算量的同時使用卷積彌補了Transformer缺少局部性和全局不變性的劣勢。同時,RAGT-Net合理使用粗糙集上下限的概念,合理融合全局最大池化與全局平均池化得到的局部信息和全局信息,通過加權操作,得到更合理的通道與空間注意力系數(shù),并串行融合了通道注意力與空間注意力。

    4" "結論

    本文提出了一種基于粗糙注意力融合機制和Group Transformer的視網(wǎng)膜血管分割網(wǎng)絡。由于視網(wǎng)膜血管的結構復雜且邊界模糊,因此,我們在編碼器中添加粗糙注意力融合機制,并串行連接粗糙通道注意力和粗糙空間注意力,以此提升圖像邊緣的權重,抑制不相關區(qū)域中的激活。同時,本文選用GT U-Net為基礎框架,該網(wǎng)絡在融合卷積和Transformer的優(yōu)勢基礎上,減少了Transformer計算量。從評價指標上看,本文方法與目前流行的方法相比,整體上取得了更精確的分割性能,同時通過與GT U-Net的對比,證明了所提出的粗糙注意力融合機制的有效性;從可視化結果上看,本文方法的分割結果也更加完整。今后,我們會進一步研究將Transformer輕量化的方法,以及將粗糙集相關理論與神經(jīng)網(wǎng)絡相結合,來處理圖像特征中不確定性信息。

    參考文獻:

    [ 1 ] 梅旭璋, 江紅, 孫軍. 基于密集注意力網(wǎng)絡的視網(wǎng)膜血管圖像分割[J]. 計算機工程, 2020, 46(3):267-272.

    MEI X Z, JIANG H, SUN J. Retinal vessel image segmentation based on dense attention network[J]. Computer Engineering, 2020, 46(3):267-272. (in Chinese)

    [ 2 ] JIN Q G, MENG Z P, PHAM T D, et al. DUNet:a deformable network for retinal vessel segmentation[J]. Knowledge-Based Systems, 2019, 178:149-162.

    [ 3 ] LI X, JIANG Y C, LI M L, et al. Lightweight attention convolutional neural network for retinal vessel image segmentation[J]. IEEE Transactions on Industrial Informatics, 2021, 17(3):1958-1967.

    [ 4 ] 蔣蕓, 劉文歡, 梁菁. 聯(lián)合注意力和Transformer的視網(wǎng)膜血管分割網(wǎng)絡[J]. 計算機工程與科學, 2022, 44(11):2037-2047.

    JIANG Y, LIU W H, LIANG J. Retinal vessel segmentation network with joint attention and Transformer[J]. Computer Engineering amp; Science, 2022, 44(11):2037-2047. (in Chinese)

    [ 5 ] RONNEBERGER O, FISCHER P, BROX T. U-net:convolutional networks for biomedical image segmentation[C]//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, October 5-9, 2015, Munich, Germany. Cham:Springer, 2015:234-241.

    [ 6 ] XIAO X, LIAN S, LUO Z M, et al. Weighted res-U Net for high-quality retina vessel segmentation[C]//Proceedings of the 2018 9th International Conference on Information Technology in Medicine and Education (ITME), October 19-21, 2018, Hangzhou, China. New York:IEEE Xplore, 2018:327-331.

    [ 7 ] 吳晨玥, 易本順, 章云港, 等. 基于改進卷積神經(jīng)網(wǎng)絡的視網(wǎng)膜血管圖像分割[J]. 光學學報, 2018, 38(11):1111004.

    WU C Y, YI B S, ZHANG Y G, et al. Retinal vessel image segmentation based on improved convolutional neural network[J]. Acta Optica Sinica, 2018, 38(11):1111004. (in Chinese)

    [ 8 ] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[EB/OL]. (2017-12-06)[2023-02-21]. https://arxiv. org/abs/1706. 03762v4.

    [ 9 ] 傅勵瑤, 尹夢曉, 楊鋒. 基于Transformer的U型醫(yī)學圖像分割網(wǎng)絡綜述[J/OL]. (2022-07-12)[2023-02-21]. https://kns.cnki.net/kcms/detail/51.1307.TP.20220711.1509. 012.html.DOI:10.11772/j.issn.1001-9081.202204 0530.

    [10] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16 × 16 words:Transformers for image recognition at scale[EB/OL]. (2021-06-03)[2023-02-21]. https://arxiv.org/abs/2010.11929.

    [11] ZHANG Y D, LIU H Y, HU Q. TransFuse:fusing transformers and CNNs for medical image segmentation[C]// Proceedings of the 24th International Conference on Medical Image Computing and Computer-Assisted Intervention, September 27-October 1, 2021, Strasbourg, France. Cham:Springer, 2021:14-24.

    [12] CHEN J N, LU Y Y, YU Q H, et al. TransUNet:Transformers make strong encoders for medical image segmentation[EB/OL]. (2021-02-08)[2023-02-21]. https://arxiv.org/abs/2102.04306.

    [13] OKTAY O, SCHLEMPER J, LE FOLGOC L, et al. Attention U-net:learning where to look for the pancreas[EB/OL]. (2018-05-20)[2023-02-21]. https://arxiv.org/abs/1804. 03999.

    [14] GU R, WANG G T, SONG T, et al. CA-net:comprehensive attention convolutional neural networks for explainable medical image segmentation[J]. IEEE Transactions on Medical Imaging, 2021, 40(2):699-711.

    [15] YUAN Y C, ZHANG L, WANG L T, et al. Multi-level attention network for retinal vessel segmentation[J]. IEEE Journal of Biomedical and Health Informatics, 2022, 26(1):312-323.

    [16] LI Y X, WANG S, WANG J, et al. GT U-net:a U-net like group transformer network for tooth root segmentation[C]//Proceedings of the 12th International Workshop on Machine Learning in Medical Imaging, MLMI 2021, September 27, 2021, Strasbourg, France. Cham:Springer, 2021:386-395.

    [17] 王國胤, 姚一豫, 于洪. 粗糙集理論與應用研究綜述[J]. 計算機學報, 2009, 32(7):1229-1246.

    WANG G Y, YAO Y Y, YU H. A survey on rough set theory and applications[J]. Chinese Journal of Computers, 2009, 32(7):1229-1246. (in Chinese)

    [18] PAWLAK Z. Rough sets[J]. International Journal of Computer amp; Information Sciences, 1982, 11(5):341-356.

    [19] 胡可云, 陸玉昌, 石純一. 粗糙集理論及其應用進展[J]. 清華大學學報(自然科學版), 2001, 41(1):64-68.

    HU K Y, LU Y C, SHI C Y. Advances in rough set theory and its appliations[J]. Journal of Tsinghua University (Science and Technology), 2001, 41(1):64-68. (in Chinese)

    [20] JIANG Z H, YU W H, ZHOU D Q, et al. ConvBERT:improving BERT with span-based dynamic convolution[EB/OL]. (2020-08-06)[2023-02-21]. https://arxiv.org/abs/2008. 02496.

    [21] LIU Z, LIN Y T, CAO Y, et al. Swin Transformer:hierarchical Vision Transformer using Shifted Windows[C]//Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision (ICCV), October 10-17, 2021,Montreal, QC, Canada. New York:IEEE Xplore, 2021:9992-10002.

    [22] HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8):2011-2023.

    [23] WOO S, PARK J, LEE J Y, et al. CBAM:convolutional block attention module[C]// Proceedings of the European Conference on Computer Vision, September 8-14, 2018, Munich, Germany. Cham:Springer, 2018:3-19.

    [24] FU J, LIU J, TIAN H J, et al. Dual attention network for scene segmentation[C]//Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA. New York:IEEE Xplore, 2019:3141-3149.

    [25] MEI H, ZHANG H, JIANG Z. Self-attention fusion module for single remote sensing image super-resolution[C]// Proceedings of the 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS, July 11-16, Brussels, Belgium. New York:IEEE Xplore, 2021:2883-2886.

    [26] STAAL J, ABR?魥MOFF M D, NIEMEIJER M, et al. Ridge-based vessel segmentation in color images of the retina[J]. IEEE Transactions on Medical Imaging, 2004, 23(4):501-509.

    [27] ALOM M Z, HASAN M, YAKOPCIC C, et al. Recurrent residual convolutional neural network based on U-Net (R2U-Net) for medical image segmentation[EB/OL]. (2018-05-29)[2023-02-21]. https://arxiv.org/abs/1802.06955.

    [28] AZAD R, ASADI-AGHBOLAGHI M, FATHY M, et al. Bi-directional ConvLSTM U-net with densley connected convolutions[C]//Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW), October 27-28, 2019, Seoul, Korea (South). New York:IEEE Xplore, 2019:406-415.

    [29] 孫穎, 丁衛(wèi)平, 黃嘉爽, 等. RCAR-UNet:基于粗糙通道注意力機制的視網(wǎng)膜血管分割網(wǎng)絡[J]. 計算機研究與發(fā)展, 2023, 60(4):947-961.

    SUN Y, DING W P, HUANG J S, et al. RCAR-U Net: retinal vessels segmentation network based on rough channel attention mechanism[J]. Journal of Computer Research and Development, 2023, 64(4):947-961. (in Chinese)

    (責任編輯:仇慧)

    收稿日期: 2023-03-06 接受日期: 2023-04-13

    基金項目: 國家自然科學基金面上項目(61976120);江蘇省自然科學基金面上項目(BK20231337);江蘇省高校重大自然科學基金項目(21KJA510004);江蘇省研究生科研與實踐創(chuàng)新計劃項目(SJCX22_1615);國家級大學生創(chuàng)新創(chuàng)業(yè)訓練計劃項目(202210304030Z)

    第一作者簡介: 王海鵬(1999— ), 男, 碩士研究生。

    * 通信聯(lián)系人: 丁衛(wèi)平(1979— ), 男, 教授, 博士, 博士生導師, 主要研究方向為數(shù)據(jù)挖掘、機器學習、粒計算、演化計算和大數(shù)據(jù)分析等。

    E-mail:dwp9988@163.com

    猜你喜歡
    圖像分割注意力機制粗糙集
    基于Pawlak粗糙集模型的集合運算關系
    基于深度學習的問題回答技術研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡的文本特征提取方法
    基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個基于知識庫的問答系統(tǒng)
    一種改進的分水嶺圖像分割算法研究
    科技視界(2016年26期)2016-12-17 16:25:03
    基于LabVIEW雛雞雌雄半自動鑒別系統(tǒng)
    一種圖像超像素的快速生成算法
    基于魯棒性的廣義FCM圖像分割算法
    多粒化粗糙集性質的幾個充分條件
    丁香六月欧美| 无遮挡黄片免费观看| 考比视频在线观看| 亚洲精品自拍成人| 爱豆传媒免费全集在线观看| 少妇猛男粗大的猛烈进出视频| 亚洲精品成人av观看孕妇| 老熟妇仑乱视频hdxx| 国产高清视频在线播放一区 | 午夜免费观看性视频| 90打野战视频偷拍视频| 99久久国产精品久久久| 国产精品一区二区免费欧美 | 一级,二级,三级黄色视频| 免费高清在线观看视频在线观看| 国产精品偷伦视频观看了| 夜夜夜夜夜久久久久| 日日爽夜夜爽网站| 欧美精品亚洲一区二区| 侵犯人妻中文字幕一二三四区| 成年av动漫网址| 男人添女人高潮全过程视频| av欧美777| 欧美老熟妇乱子伦牲交| 18在线观看网站| 国产激情久久老熟女| 又黄又粗又硬又大视频| 男人舔女人的私密视频| av在线老鸭窝| 国产又爽黄色视频| 国产精品久久久av美女十八| 日韩精品免费视频一区二区三区| 国产野战对白在线观看| 亚洲三区欧美一区| 蜜桃国产av成人99| 超碰97精品在线观看| av天堂在线播放| 十八禁高潮呻吟视频| 国产亚洲精品第一综合不卡| 青春草视频在线免费观看| 亚洲成人免费av在线播放| 男女无遮挡免费网站观看| 飞空精品影院首页| 每晚都被弄得嗷嗷叫到高潮| 老司机靠b影院| 精品国产一区二区三区四区第35| 999久久久国产精品视频| 两个人免费观看高清视频| 在线看a的网站| 亚洲免费av在线视频| 亚洲av片天天在线观看| 成人国产一区最新在线观看| 欧美变态另类bdsm刘玥| 日韩欧美一区视频在线观看| 99精品欧美一区二区三区四区| 国产真人三级小视频在线观看| 他把我摸到了高潮在线观看 | 国产精品香港三级国产av潘金莲| 久热这里只有精品99| 久久久久精品人妻al黑| 日本黄色日本黄色录像| 日韩,欧美,国产一区二区三区| 成人亚洲精品一区在线观看| 满18在线观看网站| 成人黄色视频免费在线看| 在线观看免费午夜福利视频| 久久免费观看电影| 国产一区二区三区av在线| 国产熟女午夜一区二区三区| 日韩大片免费观看网站| 亚洲av电影在线观看一区二区三区| 91九色精品人成在线观看| 亚洲五月色婷婷综合| 每晚都被弄得嗷嗷叫到高潮| 无遮挡黄片免费观看| 久久精品国产亚洲av香蕉五月 | 极品人妻少妇av视频| 欧美成狂野欧美在线观看| 国产国语露脸激情在线看| 制服人妻中文乱码| 飞空精品影院首页| 久久人妻福利社区极品人妻图片| 熟女少妇亚洲综合色aaa.| 欧美激情久久久久久爽电影 | 成人亚洲精品一区在线观看| 国产男人的电影天堂91| 黑人巨大精品欧美一区二区mp4| 在线观看免费视频网站a站| 欧美精品一区二区大全| 久久热在线av| 黄色 视频免费看| 日本黄色日本黄色录像| 国产精品亚洲av一区麻豆| 午夜福利影视在线免费观看| 午夜影院在线不卡| 一级片免费观看大全| 99久久精品国产亚洲精品| 国产亚洲欧美精品永久| 99热全是精品| 99精品欧美一区二区三区四区| 丝袜人妻中文字幕| 青青草视频在线视频观看| 天堂俺去俺来也www色官网| 亚洲男人天堂网一区| 国产一区二区三区av在线| 精品第一国产精品| 亚洲专区中文字幕在线| 中文字幕另类日韩欧美亚洲嫩草| 人妻久久中文字幕网| 9热在线视频观看99| av欧美777| 超色免费av| 国产成人av激情在线播放| 蜜桃国产av成人99| 亚洲九九香蕉| 777米奇影视久久| 我的亚洲天堂| 两性午夜刺激爽爽歪歪视频在线观看 | 亚洲精品粉嫩美女一区| 国产男女超爽视频在线观看| 成人手机av| 日本wwww免费看| 成人18禁高潮啪啪吃奶动态图| 欧美精品啪啪一区二区三区 | av视频免费观看在线观看| 亚洲中文av在线| 男女边摸边吃奶| 久久精品久久久久久噜噜老黄| 日日摸夜夜添夜夜添小说| 国产在视频线精品| 欧美性长视频在线观看| 亚洲三区欧美一区| 精品视频人人做人人爽| 亚洲一卡2卡3卡4卡5卡精品中文| 人人妻人人添人人爽欧美一区卜| 久久久国产欧美日韩av| 大香蕉久久成人网| 人妻人人澡人人爽人人| 日韩电影二区| 亚洲美女黄色视频免费看| 亚洲精品av麻豆狂野| av天堂在线播放| 美女高潮到喷水免费观看| 母亲3免费完整高清在线观看| 99久久精品国产亚洲精品| 2018国产大陆天天弄谢| 高清欧美精品videossex| 乱人伦中国视频| 久久亚洲精品不卡| 美女脱内裤让男人舔精品视频| 午夜福利免费观看在线| 亚洲七黄色美女视频| 欧美日韩成人在线一区二区| 亚洲精品乱久久久久久| 9191精品国产免费久久| av超薄肉色丝袜交足视频| 最新的欧美精品一区二区| 男女下面插进去视频免费观看| 18禁黄网站禁片午夜丰满| 中文字幕色久视频| 国产精品成人在线| 亚洲天堂av无毛| 老鸭窝网址在线观看| 狂野欧美激情性xxxx| 搡老熟女国产l中国老女人| 精品亚洲乱码少妇综合久久| 老汉色av国产亚洲站长工具| 最近最新免费中文字幕在线| 精品熟女少妇八av免费久了| 99九九在线精品视频| 搡老岳熟女国产| 亚洲av国产av综合av卡| 91九色精品人成在线观看| 久热这里只有精品99| 久久久国产成人免费| 黑人操中国人逼视频| 天天影视国产精品| 亚洲一卡2卡3卡4卡5卡精品中文| 在线观看免费高清a一片| 亚洲专区中文字幕在线| 男女床上黄色一级片免费看| 中文字幕人妻丝袜制服| 午夜精品久久久久久毛片777| 国产男人的电影天堂91| 99久久综合免费| 国产精品久久久久久精品古装| 他把我摸到了高潮在线观看 | 俄罗斯特黄特色一大片| 国产欧美亚洲国产| 欧美黑人精品巨大| 亚洲av电影在线进入| 黄片大片在线免费观看| av网站在线播放免费| 日日爽夜夜爽网站| 国产无遮挡羞羞视频在线观看| 一区二区日韩欧美中文字幕| 国产福利在线免费观看视频| 亚洲国产欧美在线一区| 国产免费视频播放在线视频| 国产精品一区二区精品视频观看| 人人妻,人人澡人人爽秒播| 黄色视频不卡| bbb黄色大片| 国产1区2区3区精品| 韩国精品一区二区三区| 亚洲精品一二三| 天天操日日干夜夜撸| 极品人妻少妇av视频| 国产精品免费视频内射| 黄片小视频在线播放| 99精品久久久久人妻精品| 国产成人av激情在线播放| 久久精品亚洲熟妇少妇任你| av天堂在线播放| 日韩欧美免费精品| 法律面前人人平等表现在哪些方面 | 丝袜脚勾引网站| 国产在线观看jvid| 女性生殖器流出的白浆| 亚洲人成电影免费在线| av国产精品久久久久影院| 免费在线观看影片大全网站| 91麻豆精品激情在线观看国产 | 菩萨蛮人人尽说江南好唐韦庄| 人人澡人人妻人| 久久久久久久国产电影| 久久天躁狠狠躁夜夜2o2o| 啦啦啦视频在线资源免费观看| 国产精品香港三级国产av潘金莲| 两人在一起打扑克的视频| 亚洲五月色婷婷综合| 亚洲成av片中文字幕在线观看| 欧美日韩一级在线毛片| 啦啦啦视频在线资源免费观看| 黑人巨大精品欧美一区二区蜜桃| 十八禁网站网址无遮挡| 国产国语露脸激情在线看| 美女国产高潮福利片在线看| www.av在线官网国产| 亚洲精品乱久久久久久| 女性被躁到高潮视频| 一区福利在线观看| 国产福利在线免费观看视频| 法律面前人人平等表现在哪些方面 | 国产在线视频一区二区| 亚洲欧洲精品一区二区精品久久久| 伊人久久大香线蕉亚洲五| 日韩人妻精品一区2区三区| 日日夜夜操网爽| 波多野结衣av一区二区av| 国产黄频视频在线观看| 黄色视频在线播放观看不卡| 欧美日韩亚洲综合一区二区三区_| 成人18禁高潮啪啪吃奶动态图| 少妇粗大呻吟视频| 在线观看免费日韩欧美大片| 色婷婷久久久亚洲欧美| 国产男女超爽视频在线观看| 人人澡人人妻人| 日韩 欧美 亚洲 中文字幕| 国产国语露脸激情在线看| 欧美成人午夜精品| 少妇裸体淫交视频免费看高清 | 女性被躁到高潮视频| av有码第一页| 亚洲欧美日韩高清在线视频 | 日韩人妻精品一区2区三区| 在线观看舔阴道视频| 一二三四社区在线视频社区8| 亚洲国产中文字幕在线视频| videos熟女内射| 美女主播在线视频| 激情视频va一区二区三区| cao死你这个sao货| 中文字幕精品免费在线观看视频| 精品久久久久久久毛片微露脸 | 久热这里只有精品99| 桃花免费在线播放| 嫩草影视91久久| 久久九九热精品免费| 老司机在亚洲福利影院| 欧美xxⅹ黑人| av不卡在线播放| 97在线人人人人妻| 一本一本久久a久久精品综合妖精| 美女主播在线视频| 午夜日韩欧美国产| 国产精品香港三级国产av潘金莲| 嫁个100分男人电影在线观看| 我的亚洲天堂| 超碰97精品在线观看| 十八禁网站免费在线| 18禁黄网站禁片午夜丰满| 亚洲专区字幕在线| 午夜福利乱码中文字幕| 国产欧美日韩一区二区精品| 夜夜骑夜夜射夜夜干| 国产淫语在线视频| 一级,二级,三级黄色视频| 午夜免费鲁丝| 中文字幕制服av| 欧美激情高清一区二区三区| 欧美另类一区| 91字幕亚洲| 国产色视频综合| 亚洲专区国产一区二区| 欧美精品人与动牲交sv欧美| 国产老妇伦熟女老妇高清| 美女脱内裤让男人舔精品视频| 欧美大码av| 亚洲成人免费av在线播放| 亚洲一区二区三区欧美精品| 91精品国产国语对白视频| 午夜影院在线不卡| 51午夜福利影视在线观看| 欧美另类一区| 黄色 视频免费看| 久久人妻熟女aⅴ| 正在播放国产对白刺激| 天天躁夜夜躁狠狠躁躁| 日本a在线网址| 欧美少妇被猛烈插入视频| 蜜桃国产av成人99| 日韩视频一区二区在线观看| 久久久国产一区二区| 动漫黄色视频在线观看| 大陆偷拍与自拍| 高清av免费在线| 黄色 视频免费看| 高清黄色对白视频在线免费看| 午夜免费鲁丝| 天天影视国产精品| 热99re8久久精品国产| 亚洲va日本ⅴa欧美va伊人久久 | 国产精品久久久久久人妻精品电影 | 青草久久国产| 亚洲成人手机| 啦啦啦免费观看视频1| a级毛片在线看网站| 国产成人a∨麻豆精品| 日韩 欧美 亚洲 中文字幕| 欧美成狂野欧美在线观看| 色婷婷久久久亚洲欧美| 国产伦理片在线播放av一区| 两人在一起打扑克的视频| 97精品久久久久久久久久精品| 午夜福利,免费看| 视频区图区小说| 久久久久国产精品人妻一区二区| 19禁男女啪啪无遮挡网站| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲熟女毛片儿| 大陆偷拍与自拍| 丰满人妻熟妇乱又伦精品不卡| 婷婷成人精品国产| 男女免费视频国产| 日日夜夜操网爽| av在线老鸭窝| 国产色视频综合| 午夜激情av网站| 一级片免费观看大全| 两性午夜刺激爽爽歪歪视频在线观看 | 别揉我奶头~嗯~啊~动态视频 | 性少妇av在线| 欧美av亚洲av综合av国产av| av又黄又爽大尺度在线免费看| 老司机靠b影院| 欧美在线一区亚洲| 免费在线观看日本一区| 一个人免费看片子| 国产精品偷伦视频观看了| 精品卡一卡二卡四卡免费| 国产不卡av网站在线观看| 亚洲avbb在线观看| 国产又色又爽无遮挡免| 成人18禁高潮啪啪吃奶动态图| 亚洲成人国产一区在线观看| 9色porny在线观看| 岛国毛片在线播放| 99九九在线精品视频| 国产精品自产拍在线观看55亚洲 | 满18在线观看网站| 男男h啪啪无遮挡| 热99久久久久精品小说推荐| 日韩有码中文字幕| 国产精品久久久久久精品电影小说| 91av网站免费观看| av电影中文网址| 免费女性裸体啪啪无遮挡网站| 免费在线观看视频国产中文字幕亚洲 | 精品少妇久久久久久888优播| 国产精品二区激情视频| 青青草视频在线视频观看| 亚洲精品美女久久久久99蜜臀| xxxhd国产人妻xxx| 亚洲人成77777在线视频| 精品久久久精品久久久| 大型av网站在线播放| 欧美激情久久久久久爽电影 | 久久这里只有精品19| 国产日韩欧美视频二区| 国产亚洲精品久久久久5区| 欧美另类亚洲清纯唯美| 另类精品久久| 久久久久久久久久久久大奶| 一区二区三区乱码不卡18| 成年人免费黄色播放视频| www.精华液| av天堂在线播放| 夜夜夜夜夜久久久久| 无遮挡黄片免费观看| 人妻久久中文字幕网| 一区福利在线观看| 91老司机精品| 国产精品一区二区在线观看99| 亚洲精品国产av成人精品| 欧美激情极品国产一区二区三区| 精品第一国产精品| avwww免费| 中文字幕色久视频| 日本五十路高清| 精品国产乱码久久久久久小说| 色婷婷久久久亚洲欧美| 91成年电影在线观看| 美国免费a级毛片| 亚洲一码二码三码区别大吗| 97精品久久久久久久久久精品| 91国产中文字幕| 国产高清视频在线播放一区 | 国产一区有黄有色的免费视频| 国产欧美日韩一区二区精品| 麻豆乱淫一区二区| 国产精品久久久久久人妻精品电影 | 日韩制服骚丝袜av| 夜夜骑夜夜射夜夜干| 亚洲av美国av| 多毛熟女@视频| 天天躁狠狠躁夜夜躁狠狠躁| 精品一区二区三区四区五区乱码| 在线观看www视频免费| 亚洲欧美一区二区三区黑人| 亚洲国产欧美网| 狠狠婷婷综合久久久久久88av| 欧美精品啪啪一区二区三区 | 中文欧美无线码| 男人爽女人下面视频在线观看| 久久人妻福利社区极品人妻图片| 精品卡一卡二卡四卡免费| 亚洲国产日韩一区二区| 久久人人爽av亚洲精品天堂| 在线观看免费视频网站a站| 国产精品一区二区在线不卡| 考比视频在线观看| 国产精品 欧美亚洲| 无遮挡黄片免费观看| 亚洲伊人久久精品综合| av欧美777| 久久人人爽av亚洲精品天堂| 国产精品九九99| 亚洲 欧美一区二区三区| 十八禁网站网址无遮挡| 久久久久久久久免费视频了| 国产免费av片在线观看野外av| 国产激情久久老熟女| 日韩 欧美 亚洲 中文字幕| 多毛熟女@视频| 人妻 亚洲 视频| 欧美日韩亚洲国产一区二区在线观看 | 免费在线观看完整版高清| 亚洲精品国产色婷婷电影| 国产免费av片在线观看野外av| 亚洲avbb在线观看| 国产淫语在线视频| 精品久久蜜臀av无| tube8黄色片| 女人精品久久久久毛片| 午夜免费成人在线视频| 桃花免费在线播放| 国产欧美日韩一区二区三 | 亚洲成人国产一区在线观看| 中文字幕av电影在线播放| 免费观看av网站的网址| 又紧又爽又黄一区二区| 99久久国产精品久久久| 搡老岳熟女国产| 2018国产大陆天天弄谢| 日韩电影二区| 欧美国产精品一级二级三级| av欧美777| 美女扒开内裤让男人捅视频| 久久国产精品男人的天堂亚洲| 成人国语在线视频| 女人高潮潮喷娇喘18禁视频| 欧美日韩福利视频一区二区| 纯流量卡能插随身wifi吗| 别揉我奶头~嗯~啊~动态视频 | 最黄视频免费看| 亚洲全国av大片| 国产极品粉嫩免费观看在线| 美女视频免费永久观看网站| 久久久国产成人免费| 欧美日韩亚洲高清精品| 久久性视频一级片| 亚洲少妇的诱惑av| 中文字幕最新亚洲高清| 黑丝袜美女国产一区| 久热爱精品视频在线9| 日韩人妻精品一区2区三区| 一级黄色大片毛片| 欧美日韩成人在线一区二区| 亚洲中文字幕日韩| 麻豆av在线久日| 欧美激情久久久久久爽电影 | 亚洲专区国产一区二区| 亚洲一区二区三区欧美精品| 亚洲专区国产一区二区| 一级,二级,三级黄色视频| 777久久人妻少妇嫩草av网站| 高清黄色对白视频在线免费看| 五月天丁香电影| 永久免费av网站大全| 成年人午夜在线观看视频| 纵有疾风起免费观看全集完整版| 国产成人a∨麻豆精品| 国产精品一区二区在线观看99| 国产亚洲精品一区二区www | 国产欧美日韩一区二区三区在线| 精品国产一区二区久久| av在线app专区| 在线观看免费午夜福利视频| 午夜精品国产一区二区电影| 中亚洲国语对白在线视频| 97精品久久久久久久久久精品| 后天国语完整版免费观看| 欧美亚洲日本最大视频资源| 成年人黄色毛片网站| 国产深夜福利视频在线观看| 夜夜夜夜夜久久久久| 久热这里只有精品99| 国产高清videossex| 久久狼人影院| 青青草视频在线视频观看| 十八禁网站免费在线| 亚洲av成人一区二区三| 亚洲欧美精品自产自拍| 丝袜脚勾引网站| 国产精品 国内视频| 午夜两性在线视频| 如日韩欧美国产精品一区二区三区| 午夜精品国产一区二区电影| 老司机午夜十八禁免费视频| 999精品在线视频| 欧美日韩福利视频一区二区| 午夜两性在线视频| 制服诱惑二区| 国产一级毛片在线| 国产成人免费观看mmmm| 日韩欧美一区视频在线观看| 男女国产视频网站| 久久亚洲国产成人精品v| 伦理电影免费视频| 亚洲av美国av| 丝袜美足系列| 交换朋友夫妻互换小说| 不卡一级毛片| 免费观看a级毛片全部| av在线app专区| 高清在线国产一区| 久久久水蜜桃国产精品网| 老司机深夜福利视频在线观看 | 色老头精品视频在线观看| 男女之事视频高清在线观看| 欧美精品亚洲一区二区| 欧美日韩一级在线毛片| 亚洲第一av免费看| 久久国产精品人妻蜜桃| 大陆偷拍与自拍| 色老头精品视频在线观看| 美女大奶头黄色视频| 午夜视频精品福利| 亚洲综合色网址| 国产淫语在线视频| 国产激情久久老熟女| 欧美老熟妇乱子伦牲交| 日本av手机在线免费观看| 久久久久精品人妻al黑| 一本大道久久a久久精品| 麻豆av在线久日| 丝袜在线中文字幕| 女警被强在线播放| 亚洲国产看品久久| 日日夜夜操网爽| 国产精品av久久久久免费| 国产精品99久久99久久久不卡| 波多野结衣一区麻豆| 欧美精品高潮呻吟av久久| 国产精品亚洲av一区麻豆| 午夜免费观看性视频| 国产成人av激情在线播放| 亚洲人成77777在线视频| 亚洲欧美精品综合一区二区三区| 日韩有码中文字幕| 国产成人系列免费观看| 久久久久久久久免费视频了| 亚洲av日韩精品久久久久久密| 色老头精品视频在线观看| 亚洲美女黄色视频免费看| 日韩制服丝袜自拍偷拍| 国产精品亚洲av一区麻豆| 人妻一区二区av| 国产精品久久久久成人av| 亚洲美女黄色视频免费看| 亚洲国产毛片av蜜桃av| 午夜成年电影在线免费观看| 国产一区二区三区综合在线观看|