• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于委員會(huì)查詢和自步多樣性學(xué)習(xí)的醫(yī)學(xué)圖像分割

    2020-04-29 10:47:00曹源王妍王文強(qiáng)賀小偉
    關(guān)鍵詞:圖像分割深度學(xué)習(xí)

    曹源 王妍 王文強(qiáng) 賀小偉

    摘要:由于擁有像素級(jí)標(biāo)記的醫(yī)學(xué)圖像數(shù)量非常少,制約了卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)圖像分割任務(wù)上的應(yīng)用,因此,該文提出了一種基于委員會(huì)查詢的自步多樣性學(xué)習(xí)算法,在訓(xùn)練數(shù)據(jù)有限的情況下提升醫(yī)學(xué)圖像分割模型的性能。該文所提算法結(jié)合了基于委員會(huì)查詢的數(shù)據(jù)選擇方法,實(shí)現(xiàn)動(dòng)態(tài)地從易到難選擇樣本,對(duì)模型進(jìn)行訓(xùn)練。同時(shí),該算法通過(guò)應(yīng)用仿射傳播聚類,保證了數(shù)據(jù)選擇的多樣性,提升了圖像分割模型的性能。為了驗(yàn)證所提算法框架的有效性,分別在3類醫(yī)學(xué)圖像分割任務(wù)的5個(gè)不同數(shù)據(jù)集任務(wù)上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,該文所提算法可以顯著提升分割性能。在使用相同數(shù)據(jù)的訓(xùn)練的情況下,相比于全監(jiān)督學(xué)習(xí),使用該文算法可以得到更高的Dice評(píng)估指標(biāo)、表面距離和平均交并比值。

    關(guān)鍵詞:自步多樣性學(xué)習(xí);圖像分割;委員會(huì)查詢;深度學(xué)習(xí)

    中圖分類號(hào):TP3-05

    DOI:10.16152/j.cnki.xdxbzr.2020-02-016

    Self-paced learning with diversity for medical image segmentationby using query-by-committee

    CAO Yuan1,2,WANG Yan3, WANG Wenqiang1,2, HE Xiaowei1,2

    Abstract: Because ?the number of pixel-wise labeled medical images are extremely small, which prevents the application of convolutional neural network (CNN) in medical image segmentation tasks,? a query-by-committee based self-paced learning with diversity (SPLD) framework is proposed to boost the performance of medical image segmentation with limited data. The proposed SPLD algorithm combines the data selection method based the query-by-committee to realize the dynamic selection of samples from easy to difficult and train the model. Meanwhile, by applying the affine propagation clustering, the proposed algorithm guarantees the diversity of data and the? performance of image segmentation model is further enhanced. To verify the effectiveness of the proposed QBC based SPLD framework, we conducted experiments on three medical image segmentation tasks with five different datasets. The experimental results show that the proposed algorithm can significantly improve the segmentation performance.With the same dataset,? the proposed SPLD could significantly improve the segmentation performance and achieve a higher Dice score, surface distance and mean Intersection over Union (mIoU) than fully supervised learning.

    Key words: self-paced diversity learning; image segmentation; query by committee; deep learning

    醫(yī)學(xué)圖像分割結(jié)果的精度對(duì)醫(yī)生的診斷結(jié)果有著關(guān)鍵影響。近年來(lái),基于深度學(xué)習(xí)的圖像分割技術(shù)成為醫(yī)學(xué)圖像語(yǔ)義分割領(lǐng)域中最流行的方法,并已經(jīng)應(yīng)用到了視網(wǎng)膜血管分割[1]、器官分割[2]和細(xì)胞分割[3]等任務(wù)中。由于深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和驗(yàn)證需要大量的圖像數(shù)據(jù),深度學(xué)習(xí)往往需要臨床專家進(jìn)行大量的標(biāo)注,在這種情況下,有必要充分利用醫(yī)學(xué)數(shù)據(jù)背后的信息,為臨床使用提供可靠的結(jié)果。

    深度學(xué)習(xí)中使用的優(yōu)化函數(shù)大多是非凸函數(shù)[4],這也增加了尋找全局最優(yōu)解的難度。自步學(xué)習(xí) (self-paced learning, SPL)[5]是一種流行的訓(xùn)練策略,SPL可以模擬人類的學(xué)習(xí)過(guò)程,它通過(guò)先輸入簡(jiǎn)單的樣本,后輸入復(fù)雜的樣本,來(lái)挖掘訓(xùn)練數(shù)據(jù)背后的信息,從而提高模型性能[6]。但是,數(shù)據(jù)的復(fù)雜程度是未知的,在自步學(xué)習(xí)算法設(shè)計(jì)中,需要從計(jì)算機(jī)的角度,實(shí)現(xiàn)對(duì)數(shù)據(jù)難易程度的判定。

    根據(jù)文獻(xiàn)[7]所述,數(shù)據(jù)集背后的概率分布很難獲得,如果直接將SPL學(xué)習(xí)框架應(yīng)用到圖像分割任務(wù)中,SPL模型將選擇同一概率分布簇中的圖像,使模型的權(quán)值優(yōu)化到局部最小解[8]。而從不同概率分布中選擇訓(xùn)練數(shù)據(jù),可以提高訓(xùn)練結(jié)果的泛化性能,從而防止模型優(yōu)化到局部最優(yōu)解。在Jiang等人通過(guò)將數(shù)據(jù)多樣性引入到SPL學(xué)習(xí)策略中,提出了基于多樣性的自步學(xué)習(xí)策略(self-paced learning with diversity, SPLD),實(shí)現(xiàn)了在自步學(xué)習(xí)過(guò)程中保證數(shù)據(jù)的多樣性,并應(yīng)用到了稀疏型分類任務(wù)中[8]。但是,該算法無(wú)法直接應(yīng)用到稠密型分類任務(wù)中,如圖像分割任務(wù)。

    本文提出了一種通用的醫(yī)學(xué)圖像分割的自步學(xué)習(xí)框架。與傳統(tǒng)的自步學(xué)習(xí)方法不同的是,本文所提方法不使用圖像分類結(jié)果的準(zhǔn)確性來(lái)確定樣本的復(fù)雜程度,而是使用委員會(huì)查詢(QBC)[9]技術(shù)來(lái)確定SPL學(xué)習(xí)過(guò)程中樣本的難易程度。我們將該框架命名為基于委員會(huì)查詢的自步多樣性學(xué)習(xí)(SPLD-QBC),委員會(huì)中的一個(gè)成員是一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的深度分割網(wǎng)絡(luò),每個(gè)成員都使用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練。在SPLD-QBC學(xué)習(xí)框架下,數(shù)據(jù)的復(fù)雜程度和多樣性取決于每個(gè)成員之間的深層特征,均由所有成員提取的特征向量的余弦相似度進(jìn)行計(jì)算。

    圖1顯示了本文所提出的SPLD-QBC框架應(yīng)用在視網(wǎng)膜血管分割任務(wù)上的流程。SPLD-QBC框架中,委員會(huì)中的每個(gè)成員為一個(gè)具有相同結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),在每個(gè)成員中選取一個(gè)特定的特征圖,對(duì)其進(jìn)行全局平均池化后,即得到輸入數(shù)據(jù)的特征向量。SPLD-QBC框架通過(guò)提取的特征向量實(shí)現(xiàn)對(duì)樣本難易程度和多樣性的定義。

    本文的主要研究?jī)?nèi)容如下:

    1)設(shè)計(jì)了一種結(jié)合SPLD和QBC學(xué)習(xí)機(jī)制的通用醫(yī)學(xué)圖像語(yǔ)義分割框架,提高了分割模型的性能。

    2)將SPLD-QBC應(yīng)用于5個(gè)數(shù)據(jù)集的3個(gè)醫(yī)學(xué)圖像分割任務(wù)。實(shí)驗(yàn)結(jié)果表明,SPLD-QBC框架可以顯著提高模型性能。

    3)從實(shí)驗(yàn)和理論上證明了SPLD-QBC的有效性,論證了模型的泛化能力。

    1 相關(guān)工作

    1.1 自步學(xué)習(xí)

    SPL算法將課程學(xué)習(xí)(Curriculum learning)嵌入到學(xué)習(xí)目標(biāo)函數(shù)中,并添加正則項(xiàng),從而組成學(xué)習(xí)的目標(biāo)函數(shù)[10]。SPL算法可以同時(shí)優(yōu)化模型參數(shù)w和權(quán)重v=[v1,v2,…,vn]T,其中,v表示每個(gè)樣本選擇的權(quán)重。SPL的目標(biāo)函數(shù)如下:

    其中,λ表示學(xué)習(xí)速度;f表示機(jī)器學(xué)習(xí)模型;L表示損失函數(shù);xi和yi表示訓(xùn)練數(shù)據(jù)及其對(duì)應(yīng)的標(biāo)簽。

    從理論角度來(lái)看,SPL已經(jīng)擴(kuò)展到自步課程學(xué)習(xí)[10]、自步強(qiáng)化學(xué)習(xí)[11]以及自步集成學(xué)習(xí)[12]。在SPL的擴(kuò)展中,在式(1)中加入了幾個(gè)正則項(xiàng)來(lái)進(jìn)行具體任務(wù)的優(yōu)化。從應(yīng)用的角度看,SPL已經(jīng)在分類[13]、人臉重新識(shí)別[14]和矩陣分解[15]中得到了應(yīng)用。大多數(shù)基于SPL的應(yīng)用是在稀疏標(biāo)簽分類數(shù)據(jù)上實(shí)現(xiàn)的,即每個(gè)數(shù)據(jù)的標(biāo)簽為單一的標(biāo)量。但是,目前還沒(méi)有研究將SPL應(yīng)用于密集的標(biāo)簽分類數(shù)據(jù),例如醫(yī)學(xué)圖像語(yǔ)義分割任務(wù),即標(biāo)簽為每個(gè)像素點(diǎn)的類別。

    1.2 自步多樣性學(xué)習(xí)

    SPLD通過(guò)嵌入一個(gè)與特定模型優(yōu)化目標(biāo)無(wú)關(guān)的正則化項(xiàng)來(lái)確定訓(xùn)練數(shù)據(jù)的多樣性。SPLD學(xué)習(xí)框架考慮了數(shù)據(jù)的多樣性和數(shù)據(jù)難易程度,并將數(shù)據(jù)依次輸入模型進(jìn)行訓(xùn)練,以保證更好的模型性能。SPLD的修改是在式(1)中加入正則化項(xiàng),形成多樣性約束。目標(biāo)函數(shù)如式(2)所示:

    其中,γ是新添加的控制數(shù)據(jù)多樣性的超參數(shù)。SPLD首先被用在了基于隨機(jī)森林[16]和支持向量機(jī)(SVM)的動(dòng)作識(shí)別任務(wù)和多媒體事件檢測(cè)中。兩個(gè)任務(wù)中使用的數(shù)據(jù)集都是稀疏標(biāo)簽數(shù)據(jù)集,每個(gè)數(shù)據(jù)所屬的類在SPLD模型中都是已知的。然而,在醫(yī)學(xué)圖像語(yǔ)義分割任務(wù)中,圖像級(jí)標(biāo)簽即分類標(biāo)簽是未知的。因此,在醫(yī)學(xué)圖像分割任務(wù)中,無(wú)法利用預(yù)先獲得的類別標(biāo)簽來(lái)控制數(shù)據(jù)多樣性。

    1.3 委員會(huì)查詢

    委員會(huì)查詢(query-by-committee, QBC)是一種主動(dòng)學(xué)習(xí)算法。在QBC中,使用相同的數(shù)據(jù)對(duì)委員會(huì)中的每個(gè)成員進(jìn)行訓(xùn)練,之后每個(gè)成員對(duì)數(shù)據(jù)進(jìn)行投票,根據(jù)投票結(jié)果的一致性決定數(shù)據(jù)是否要加入到訓(xùn)練集:如果投票結(jié)果相似,說(shuō)明樣本較為容易;相反,如果投票結(jié)果相差較大,說(shuō)明樣本較為復(fù)雜。因此,基于QBC的主動(dòng)學(xué)習(xí)可以有效地評(píng)估訓(xùn)練數(shù)據(jù)的難易程度。在QBC中,交叉熵常用于計(jì)算數(shù)據(jù)的相似度[17],然而,熵一直是基于稀疏標(biāo)簽預(yù)測(cè)的,不適合用于稠密標(biāo)簽分類任務(wù),因此,需要對(duì)其進(jìn)行改進(jìn)。

    2方 法

    2.1 自步學(xué)習(xí)正則項(xiàng)

    在說(shuō)明算法之前,我們首先給出變量的定義。 令Labeled Data={{x1,y1},{x2,y2},…,{xn,yn}}是從包含有n個(gè)分割金標(biāo)準(zhǔn)的醫(yī)學(xué)圖像中裁剪的圖像塊的集合。令C={θ θ …,θG}

    為包含有|C|個(gè)成員的委員會(huì),且每個(gè)成員θi都是用于醫(yī)學(xué)圖像語(yǔ)義分割的CNN。本文的方法利用QBC框架,在每次迭代中,每個(gè)委員會(huì)中的成員都會(huì)計(jì)算輸入數(shù)據(jù)的特征。

    基于CNN的圖像分割網(wǎng)絡(luò)通常包含一個(gè)編碼器和一個(gè)解碼器。在SPLD-QBC中,從編碼器的最后一層提取特征圖,并使用全局平均池化(global average pooling, GAP)層將特征圖轉(zhuǎn)換為特征向量。委員會(huì)中的每個(gè)成員都生成代表輸入圖像特征的特征向量,并將從θi中生成的特征向量定義為Fi。兩個(gè)成員之間的相似性是通過(guò)余弦距離來(lái)衡量的,如式(3)所示:

    其中,|Fi|表示委員會(huì)C中成員θi提取的高級(jí)特征向量的長(zhǎng)度,每個(gè)成員之間的相似性可以表述為

    本文將輸入數(shù)據(jù)xk在委員會(huì)之間的特征相似性定義為

    SPLD-QBC框架背后的假設(shè)是,如果提取的特征向量之間的相似性較高,則表明委員會(huì)中的所有成員都已充分學(xué)習(xí)了輸入數(shù)據(jù)xk。因此,如果成員之間的特征向量具有較高的相似度,說(shuō)明該樣本是“簡(jiǎn)單”樣本,SPL訓(xùn)練過(guò)程中首先會(huì)將其輸入到模型中進(jìn)行訓(xùn)練。相反,樣本之間相似性較小則意味著從每個(gè)成員中所生成的特征具有極大的差異,這表明當(dāng)前模型難以學(xué)習(xí)該樣本。在獲得所有訓(xùn)練樣本的相似性之后,將它們歸一化為[0,1],以形成式(1)中的SPL正則項(xiàng)。歸一化方法為

    為了在訓(xùn)練過(guò)程中應(yīng)用SPL策略,需要解決以下3個(gè)問(wèn)題:

    1)在初始訓(xùn)練時(shí)期應(yīng)選擇多少數(shù)據(jù)?SPL策略必須首先利用少量數(shù)據(jù)提供的信息訓(xùn)練模型中的參數(shù),然后, 將更多帶標(biāo)簽的數(shù)據(jù)添加到訓(xùn)練集中, 以控制樣本的選擇和學(xué)習(xí)的步長(zhǎng)。 但是, 在初始的迭代過(guò)程中, CNN尚未收斂。 如果將數(shù)據(jù)選擇規(guī)則直接應(yīng)用于SPL策略, 那么該模型可能會(huì)崩潰, 導(dǎo)致SPL框架無(wú)法正常工作。? 為了解決這個(gè)問(wèn)題, 我們隨機(jī)選擇少量訓(xùn)練樣本來(lái)訓(xùn)練模型。 例如, 可以隨機(jī)抽取10%的樣本用來(lái)訓(xùn)練委員會(huì)中的每個(gè)成員, 對(duì)CNN中的參數(shù)進(jìn)行預(yù)熱。 訓(xùn)練數(shù)據(jù)的初始比率在本文的算法中定義成名為ITDR的超參數(shù)。如果模型收斂,則使用式(6)控制學(xué)習(xí)速率以及選擇樣本的權(quán)重。

    2)基于QBC學(xué)習(xí)的另一個(gè)問(wèn)題是,所有成員都具有相同的CNN架構(gòu)。這表示如果它們的參數(shù)相同,當(dāng)輸入相同時(shí),輸出的特征向量也是相同的,從而造成QBC算法失效。為了克服這一缺點(diǎn),我們?cè)诿總€(gè)CNN中使用不同的種子隨機(jī)初始化模型權(quán)重。由于使用了不同的種子,每個(gè)成員中的參數(shù)隨之也會(huì)不同,這使得它們可以有效地確定數(shù)據(jù)的相似性。此外,在訓(xùn)練過(guò)程中,將針對(duì)不同的解決方案優(yōu)化參數(shù)。

    3)如何控制學(xué)習(xí)速度?在實(shí)踐中,我們需要防止SPL學(xué)習(xí)器貪婪地添加數(shù)據(jù),即防止其將每個(gè)數(shù)據(jù)的vk設(shè)置為1。如果SPL學(xué)習(xí)器在每個(gè)訓(xùn)練結(jié)束后添加固定數(shù)量的訓(xùn)練數(shù)據(jù),則所有數(shù)據(jù)將被添加到訓(xùn)練集中,所提出的方法將退化為全監(jiān)督學(xué)習(xí)(fully supervised learning, FSL)方法。為了解決這個(gè)問(wèn)題,在不確定性采樣策略的啟發(fā)之下[18],通過(guò)設(shè)置不確定性閾值來(lái)對(duì)查詢規(guī)則施加限制。該閾值在本文算法中稱為UT。當(dāng)且僅當(dāng)委員會(huì)中所有成員評(píng)估數(shù)據(jù)的vk值大于閾值UT時(shí),SPL學(xué)習(xí)器才將樣本定義為“簡(jiǎn)單”樣本,在下一次的迭代訓(xùn)練過(guò)程中將數(shù)據(jù)添加到訓(xùn)練集中對(duì)模型進(jìn)行優(yōu)化。

    此外,在訓(xùn)練過(guò)程中會(huì)動(dòng)態(tài)更改UT。在第一個(gè)訓(xùn)練迭代過(guò)程中,UT等于v中最大vk的0.9倍。隨著訓(xùn)練迭代次數(shù)的增加,UT根據(jù)式(7)動(dòng)態(tài)變化,

    其中,e表示當(dāng)前訓(xùn)練迭代的次數(shù);m表示總訓(xùn)練迭代次數(shù)。

    2.2 基于聚類的數(shù)據(jù)多樣性

    直觀地,從不同類別中選擇訓(xùn)練數(shù)據(jù)是一種在模型訓(xùn)練期間保持?jǐn)?shù)據(jù)多樣性的方法,且這種方法易于實(shí)現(xiàn)。但是,用于分割的醫(yī)學(xué)圖像通常缺少分類標(biāo)簽,在這種情況下,本文使用聚類算法實(shí)現(xiàn)對(duì)數(shù)據(jù)的分組。在確定數(shù)據(jù)難以程度時(shí),使用了每個(gè)成員提取的特征向量,同理,在數(shù)據(jù)分組階段,還可以使用提取的特征向量進(jìn)行聚類。

    在委員會(huì)中,對(duì)于每個(gè)訓(xùn)練數(shù)據(jù),模型都會(huì)生成|C|特征向量。我們使用|C|的平均值特征作為樣本的特征向量,如式(8)所示:

    但是,使用聚類算法實(shí)現(xiàn)數(shù)據(jù)分組的過(guò)程中,最優(yōu)的分組個(gè)數(shù)無(wú)法確定,如果聚類數(shù)太大,則所有數(shù)據(jù)將被單獨(dú)分組到一個(gè)中心,且每個(gè)中心的樣本數(shù)量很少;相反,如果聚類數(shù)過(guò)少,則不能有效地表示多樣性。為了解決這個(gè)問(wèn)題,我們使用仿射傳播算法[19]對(duì)生成的特征向量進(jìn)行聚類。放射變換算法在聚類初始情況下不需要確定聚類的類別數(shù),聚類的過(guò)程中根據(jù)樣本的分布特性來(lái)確定類別的簇,從而動(dòng)態(tài)地根據(jù)樣本特征進(jìn)行聚類。

    在每個(gè)訓(xùn)練時(shí)期,將仿射傳播算法應(yīng)用于特征提取并將數(shù)據(jù)聚類到不同的聚類類別中。之后,應(yīng)用SPL方法從每個(gè)聚類組中選擇模型認(rèn)為較為簡(jiǎn)單的樣本。為了保證訓(xùn)練樣本的多樣性,SPL學(xué)習(xí)器從每個(gè)組中選擇最簡(jiǎn)單的樣本,并且相應(yīng)的數(shù)據(jù)權(quán)重變量變?yōu)関=[v v …,vg],且vi=[vi1,vi2,…,vig(i)],s.t.i∈[1,g],g(i)表示第i組中數(shù)據(jù)樣本的個(gè)數(shù)。

    通過(guò)應(yīng)用分組策略,SPLD的損失函數(shù)從式(2)變?yōu)槭剑?):

    綜上所述,本文提出的基于委員會(huì)查詢的自步多樣性學(xué)習(xí)算法步驟如下。

    Step 1隨機(jī)從數(shù)據(jù)集Labeled Data中選擇ITDR的數(shù)據(jù)。

    當(dāng)模型尚未收斂:

    Step 2 使用式(2)中的損失函數(shù)訓(xùn)練委員會(huì)C中的每個(gè)成員;

    for e=1 to m:

    Step 3 根據(jù)式(8)提取每個(gè)數(shù)據(jù)的特征向量u,并使用仿射傳播算法對(duì)數(shù)據(jù)聚類為g類;

    for j in 1 to g:

    Step 4 根據(jù)式(6)在第j組中計(jì)算樣本的vj;

    Step 5 在第j組所有樣本中選擇vjg(i)> UT的樣本,并使用式(9)作為損失函數(shù)對(duì)模型進(jìn)行訓(xùn)練;

    Step 6 使用式(7)更新UT。

    3 實(shí) 驗(yàn)

    為了證明本文所提SPLD-QBC學(xué)習(xí)框架的有效性,在5個(gè)不同的數(shù)據(jù)集上進(jìn)行3種類型的醫(yī)學(xué)圖像語(yǔ)義分割任務(wù),包括視網(wǎng)膜血管分割、肺部器官語(yǔ)義分割和核醫(yī)學(xué)圖像中的細(xì)胞分割。

    3.1 實(shí)現(xiàn)細(xì)節(jié)

    本文實(shí)驗(yàn)是基于TensorFlow深度學(xué)習(xí)庫(kù)來(lái)完成的。為了應(yīng)用自步學(xué)習(xí)框架,使用了從原始醫(yī)學(xué)圖像中裁剪的128×128分辨率的塊圖像進(jìn)行模型訓(xùn)練。在測(cè)試階段,每個(gè)成員的卷積神經(jīng)網(wǎng)絡(luò)模型推斷的是整個(gè)分割結(jié)果而不是圖像塊的分割結(jié)果。由于硬件限制,在自步多樣性學(xué)習(xí)算法中,委員會(huì)中成員的數(shù)量設(shè)置為2,3和4。受文獻(xiàn)[20]的啟發(fā),學(xué)習(xí)率在訓(xùn)練中動(dòng)態(tài)調(diào)整為初始學(xué)習(xí)率的(1-em)0.9倍,其中,e表示當(dāng)前的訓(xùn)練的迭代次數(shù),m表示總的訓(xùn)練迭代次數(shù)。在視網(wǎng)膜血管分割任務(wù)中m=1 000,肺器官分割中m=500,核細(xì)胞分割中m=300;ITDR設(shè)置為10%;超參數(shù)λ和γ二者均設(shè)為1。

    此外,委員會(huì)成員的網(wǎng)絡(luò)設(shè)計(jì)針對(duì)特定的任務(wù)進(jìn)行了選擇和優(yōu)化,模型的性能除了受到訓(xùn)練方法的影響,也會(huì)受到選擇的神經(jīng)網(wǎng)絡(luò)的限制。因此,在每個(gè)實(shí)驗(yàn)中,我們將提出的自步多樣性學(xué)習(xí)算法與自步學(xué)習(xí)策略和全監(jiān)督學(xué)習(xí)策略進(jìn)行比較,即將全監(jiān)督學(xué)習(xí)作為對(duì)照組。

    3.2 視網(wǎng)膜血管分割實(shí)驗(yàn)

    視網(wǎng)膜血管分割在眼底圖像視網(wǎng)膜疾病的自動(dòng)檢測(cè)中起著重要的作用。視網(wǎng)膜血管圖像分析為糖尿病視網(wǎng)膜病變、青光眼等疾病的診斷提供了重要信息[21]。DRIVE數(shù)據(jù)集是一個(gè)公共數(shù)據(jù)集,由40張565×584大小的眼底圖像組成[22],這些圖像被手動(dòng)分為一個(gè)包含20張圖像的訓(xùn)練集和一個(gè)包含20張圖像的測(cè)試集。STARE數(shù)據(jù)集是另一個(gè)由20幅605×700大小的眼底圖像組成的公共數(shù)據(jù)集[23],這些圖像被手動(dòng)分為一個(gè)包含10幅圖像的訓(xùn)練集和一個(gè)包含10幅圖像的測(cè)試集。因?yàn)檠鄣讏D像中血管的形狀、厚度和對(duì)比度都各不相同,所以,視網(wǎng)膜血管分割模型需要綜合考慮這些因素。對(duì)于血管分割任務(wù),本文采用全分辨率殘差網(wǎng)絡(luò)(FRRN)[24]作為每個(gè)成員的架構(gòu)。FRRN融合了不同大小的輸入,提升了模型的多尺度特性。提取FRRN中定義的最后一個(gè)全分辨率殘差單元作為每個(gè)成員的潛在特征,并利用該特征計(jì)算樣本的難易程度和多樣性。

    由于視網(wǎng)膜血管分割任務(wù)中每個(gè)像素都屬于血管或背景,所以,這是一個(gè)二值分類任務(wù)。為了評(píng)估模型的性能,計(jì)算了分割結(jié)果與真值之間的Dice指標(biāo)和Hausdorff表面距離(HD)[25]。Dice指標(biāo)考慮了分割結(jié)果與真值之間的重疊,Dice指數(shù)值越高,表明模型性能越好。HD度量了空間的兩個(gè)子集之間的距離,較低的HD意味著該模型更好,評(píng)估結(jié)果見(jiàn)表1。

    如表1所示,自步多樣性學(xué)習(xí)算法的訓(xùn)練策略優(yōu)于自步學(xué)習(xí)和全監(jiān)督學(xué)習(xí)方法。通過(guò)在一個(gè)由4名成員組成的委員會(huì)中使用4個(gè)FRRN神經(jīng)網(wǎng)絡(luò),我們的自步多樣性學(xué)習(xí)模型在STARE數(shù)據(jù)集上的Dice系數(shù)為0.852 0,表面距離為44.920;在DRIVE數(shù)據(jù)集上的Dice系數(shù)為0.826 3,表面距離為31.457 6。進(jìn)一步觀察發(fā)現(xiàn),成員數(shù)越多越有利于模型訓(xùn)練。

    圖2中展示了不同的樣本上的訓(xùn)練結(jié)果。圖2中的每行代表一個(gè)樣本的原始圖像、全監(jiān)督學(xué)習(xí)算法、自步學(xué)習(xí)算法、自步多樣性學(xué)習(xí)算法得到的分割結(jié)果以及相應(yīng)的金標(biāo)準(zhǔn)??梢杂^察發(fā)現(xiàn),相較于自步學(xué)習(xí)算法和全監(jiān)督學(xué)習(xí)算法,我們提出的自步多樣性學(xué)習(xí)算法可以捕捉更多的毛細(xì)血管。這說(shuō)明自步多樣性學(xué)習(xí)策略訓(xùn)練的模型由于具有多樣性學(xué)習(xí)能力,對(duì)小目標(biāo)和大目標(biāo)都有較高的捕捉能力。圖2中SPLD-QBC分割出更好結(jié)果的區(qū)域使用黃色圓圈進(jìn)行了標(biāo)注。

    3.3 基于胸部X光片的器官分割

    通過(guò)胸部X光掃描病人的器官是日常診斷的重要程序之一,同時(shí)也是醫(yī)生診斷的重要依據(jù)[26]。然而,由于胸部X光片在形狀、大小和對(duì)比度等方面存在較大的差異,肺部器官分割仍是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。

    與視網(wǎng)膜血管分割任務(wù)不同,肺器官分割任務(wù)是語(yǔ)義分割,因?yàn)槟P蛯⒚總€(gè)像素分別預(yù)測(cè)為左肺、右肺、心臟或背景。本文分別在JSRT數(shù)據(jù)集[27]和Montgomery數(shù)據(jù)集[28]上進(jìn)行了實(shí)驗(yàn)。JSRT數(shù)據(jù)集包含247個(gè)胸部X光片,包括左肺、右肺、心臟和背景4個(gè)類別。而Montgomery的數(shù)據(jù)集包含138張胸透,包括左肺、右肺和背景3個(gè)類別。在保證器官結(jié)構(gòu)細(xì)節(jié)的前提下,將所有的圖像縮放為256*256大小。在實(shí)驗(yàn)中,隨機(jī)選擇80%的樣本進(jìn)行訓(xùn)練,其余20%用來(lái)測(cè)試。

    由于器官分割任務(wù)中像素分類的類別大于2,所以它是一種語(yǔ)義分割任務(wù)。實(shí)驗(yàn)使用AdapNet[29]作為每個(gè)成員的模型。AdapNet結(jié)合了深度特征融合方法,增加了模型的魯棒性,同時(shí)擴(kuò)大了感受野。將網(wǎng)絡(luò)中第一個(gè)反卷積層之前的網(wǎng)絡(luò)層中的特征圖輸入到平均池化層中,轉(zhuǎn)化為特征向量,代表每個(gè)成員的深層特征。為了評(píng)估模型的性能,計(jì)算了分割結(jié)果和金標(biāo)準(zhǔn)的mIoU和HD,mIoU越高,表明模型性能越強(qiáng),比較結(jié)果如表2所示。

    如表2所示,SPLD-QBC模型優(yōu)于SPL和FSL模型。進(jìn)一步比較發(fā)現(xiàn),本文的方法在HD度量指標(biāo)上取得了最好的性能,約為FSL模型在Montgomery數(shù)據(jù)集上取得的HD值的一半(40.577 1和22.748 7)。其中,部分分割結(jié)果如圖3所示。對(duì)于Montgomery數(shù)據(jù)集,當(dāng)委員會(huì)成員數(shù)量增加時(shí),分割圖中的噪聲量明顯降低。對(duì)于JSRT數(shù)據(jù)集,本文提出的SPLD-QBC模型可以對(duì)心臟RoI進(jìn)行精確分割。此外,在兩個(gè)數(shù)據(jù)集中使用SPLD-QBC模型進(jìn)行分割的圖像器官的形狀比使用FSL模型的更完整。圖3中SPLD-QBC分割出更好結(jié)果的區(qū)域使用黃色圓圈進(jìn)行了標(biāo)注。

    3.4 核素圖像上的細(xì)胞分割

    核素圖像的分割是數(shù)字病理切片分析的重要任務(wù)之一[30]。臨床實(shí)踐中最重要的步驟之一就是從整個(gè)圖像(WSIs)中提取信息成分[31]。然而,一個(gè)WSI中包含大量的細(xì)胞,手工分割費(fèi)時(shí)費(fèi)力。

    將本文提出的模型應(yīng)用于H&E染色的多器官細(xì)胞核分割數(shù)據(jù)集[32],其包含30個(gè)WSI和對(duì)應(yīng)的22 000個(gè)細(xì)胞邊界。WSIs中的每個(gè)像素被分為兩類,一類是細(xì)胞核,另一類是背景。我們將每個(gè)成員設(shè)置為一個(gè)全卷積DenseNet網(wǎng)絡(luò)[33],在這個(gè)任務(wù)中,隨機(jī)選擇20個(gè)樣本作為訓(xùn)練集,其余的10個(gè)樣本作為測(cè)試集。每個(gè)圖像的分辨率被調(diào)整為1 024×1 024,從一個(gè)WSI中裁剪了64個(gè)分辨率為128×128的裁剪圖像。與視網(wǎng)膜血管分割任務(wù)相同,使用DSC和HD來(lái)評(píng)估模型性能,如表3所示。

    如表3所示,本文所提出的模型獲得了最佳的mIoU和HD評(píng)估指標(biāo)。不同算法的細(xì)胞核部分分割結(jié)果如圖4所示,SPLD-QBC分割出更好的區(qū)域使用黃色圓圈進(jìn)行了標(biāo)注。

    4 結(jié) 語(yǔ)

    本文提出了一種用于醫(yī)學(xué)圖像分割的通用醫(yī)學(xué)圖像語(yǔ)義分割框架,該方法可以提高醫(yī)學(xué)圖像語(yǔ)義分割模型的性能。通過(guò)應(yīng)用委員會(huì)查詢方法,可以動(dòng)態(tài)選擇訓(xùn)練樣本的序列,從而使模型達(dá)到更高的模型性能。為了防止模型權(quán)重被優(yōu)化到局部最小值,采用聚類算法來(lái)保證數(shù)據(jù)的多樣性,從而使模型參數(shù)被優(yōu)化到全局最小值。實(shí)驗(yàn)結(jié)果表明,本文提出的SPLD-QBC算法可以顯著提高分割模型的性能,并且可以嵌入到基于CNN的分割模型中。

    參考文獻(xiàn):

    [1]HU K, ZHANG Z, NIU, et al. Retinal vessel segmentation of color fundus images using multiscale convolutional neural network with an improved cross-entropy loss function [J]. Neurocomputing, 2018, 309:179-191.

    [2]DAI W, DONG N, WANG Z, et al. Scan: Structure correcting adversarial network for organ segmentation in chest x-rays [C]∥Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support, 2018: 263-273.

    [3]ARBELLE A, RAVIV TR. Microscopy cell segmentation via adversarial neural networks [C]∥2018 IEEE 15th International Symposium on Biomedical Imaging. IEEE, 2018:645-648.

    [4]BENGIO Y, LOURADOUR J, COLLOBERT R, et al. Curriculum learning [C]∥The 26th Annual International Conference on Machine Learning. ACM,2009:41-48.

    [5]KUMAR MP, PACKER B,KOLLER D. Self-paced learning for latent variable models [C]∥Advances in Neural Information Processing Systems. Vancouver:Curran Associates Company,2010:1189-1197.

    [6]代建建, 陶洋, 章思青. 基于自步學(xué)習(xí)的無(wú)線傳感網(wǎng)入侵檢測(cè)集成算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2019, 40(5):57-61.

    DAI J J, TAO Y, ZHANG S Q. Wireless sensor network intrusion detection integration algorithm based on self-step learning[J]. Computer Engineering and Design,2019,40(5):57-61.

    [7]KINGMA D P, WELLING M. Auto-encoding variational bayes [J].Computer Science,2013.

    [8]JIANG L, MENG D Y. Self-paced learning with diversity [J].Neural Information Processing Systems. 2014:2078-2086.

    [9]SEUNG H S, OPPER M, SOMPOLINSKY H. Query by committee [C]∥Fifth Annual Workshop on Computational Learning Theory. ACM, 1992: 287-294.

    [10]JIANG L, MENG D, ZHAO Q, et al. Self-paced curriculum learning [C]∥Twenty-Ninth AAAI Conference on Artificial Intelligence. IEEE, 2015.

    [11]MATTISEN T,OLIVER A,COHEN T.Teacher-student curriculum learning [J].IEEE Transactions on Neural Networks and Learning Systems,2019:1-9.

    [12]PI T, LI X, ZHANG Z, et al. Self-paced boost learning for classification [C]∥International Joint Conference on Artificial Intelligence, 2016:1932-1938.

    [13]CHEN W, GOU S, WANG X, et al. Classification of PolSAR images using multilayer autoencoders and a self-paced learning approach [J]. Remote Sensing, 2018, 10(1): 110.

    [14]ZHOU S, WANG J, MENG D, et al. Deep self-paced learning for person re-identification [J]. Pattern Recognition,2018, 76:739-751.

    [15]ZHAO Q, MENG D, JIANG L, et al. Self-paced learning for matrix factorization [C]∥Twenty-Ninth AAAI Conference on Artificial Intelligence,2015.

    [16]BREIMAN L. Random forests [J]. Machine learning,2001,45(1):5-32.

    [17]BACHMAN P, SORDONI A, TRISCHLER A. Learning algorithms for active learning [C]∥The 34th International Conference on Machine Learning. JMLR, 2017:301-310.

    [18]LEWIS D D, CATLETT J. Heterogeneous uncertainty sampling for supervised learning [C]∥In Machine Learning Proceedings.Morgan Kaufmann,1994:148-156.

    [19]FREY B J, DUECK D. Clustering by passing messages between data points [J]. Science, 1995, 315(5814):972-976.

    [20]CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Semantic image segmentation with deep convolutional nets and fully connected crfs [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 40(4):834-848.

    [21]KANSKI J J, BOWLING B. Clinical Ophthalmology: ASystematic Approach [M]. Elsevier Health Sciences. 2017.

    [22]STAAL J, ABRMOFF M D, NIEMEIJER M, et al. Ridge-based vessel segmentation in color images of the retina [J]. IEEE Transactions on Medical Imaging, 2004, 23(4):501-509.

    [23]HOOVER A D, KOUZNETSOVA V, GOLDBAUM M. Locating blood vessels in retinal images by piecewise threshold probing of a matched filter response [J]. IEEE Transactions on Medical Imaging, 2000, 19(3): 203-210.

    [24]POHLEN T, HERMANS A, MATHIAS M, et al. Full-resolution residual networks for semantic segmentation in street scenes [C]∥IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2017:4151-4160.

    [25]ROCKAFELLAR R T, WETS R J B. Variational analysis [M].Berlin:Springer Science & Business Media,1998:317.

    [26]張三海, 盧明科, 鄒仁民,等. X線胸部透視與胸部攝片輻射劑量對(duì)比分析[J]. 人民軍醫(yī), 2006, 50(7):425-426.

    ZHANG S H, LU M K, ZOU R M, et al. Comparative analysis of radiation dose between X-ray chest fluoroscopy and chest radiograph [J]. People′s Military Surgeon, 2006, 50(7): 425-426.

    [27]VANG B, STEGMANN M B, LOOG M. Segmentation of anatomical structures in chest radiographs using supervised methods:A comparative study on a public database [J]. Medical Image Analysis, 2006, 10(1):19-40.

    [28]CANDEMIR S, JAEGER S, PALANIAPPAN K, et al. Lung segmentation in chest radiographs using anatomical atlases with nonrigid registration [J]. IEEE Transactions on Medical Imaging, 2013, 33(2):577-590.

    [29]VALADA A, VERTENS J, DHALL A, et al. Adapnet: Adaptive semantic segmentation in adverse environmental conditions [C]∥IEEE International Conference on Robotics and Automation.IEEE,2017:4644-4651.

    [30]徐亮, 李萬(wàn)湖, 陳兆秋. 核素圖像體外標(biāo)記物的研制及在圖像融合中的初步應(yīng)用[J]. 中國(guó)醫(yī)學(xué)影像技術(shù), 2016, 32(11):1749-1752.

    XU L, LI W H, CHEN Z Q. The development of in vitro marker for nuclide image and its preliminary application in image fusion [J]. Chinese Journal of Medical Imaging Technology, 2016, 32(11):1749-1752.

    [31]ARBEL E, REMER I, BEN-DOR A. Deep Learning Based Partial Annotation Framework for Instance Segmentation in Histopathology Images[EB/OL].[2019/4/17]. https:∥openreview.net/forum?id=H1lhBhpN9V.

    [32]KUMAR N, VERMA R, ANAND D, et al. A Multi-organ Nucleus Segmentation Challenge [J]. IEEE Transactions on Medical Imaging,2019:1.

    [33]JGOU S, DROZDZAL M, VAZQUEZ D, et al. The one hundred layers tiramisu: Fully convolutional densenets for semantic segmentation [C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.IEEE,2015:11-19.

    (編 輯 李 靜)

    收稿日期:2019-12-12

    基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61971350,61901374);陜西省自然科學(xué)基金資助項(xiàng)目(2017JQ4007)

    作者簡(jiǎn)介:曹源,男,寧夏銀川人,從事影像組學(xué)研究。

    通信作者:賀小偉,男,陜西榆林人,教授,博士生導(dǎo)師,從事光學(xué)分子影像、醫(yī)學(xué)圖像處理及可視化研究。

    猜你喜歡
    圖像分割深度學(xué)習(xí)
    計(jì)算機(jī)定量金相分析系統(tǒng)的軟件開(kāi)發(fā)與圖像處理方法
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    基于灰色系統(tǒng)理論的數(shù)字圖像處理算法
    一種改進(jìn)的分水嶺圖像分割算法研究
    科技視界(2016年26期)2016-12-17 16:25:03
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    基于LabVIEW雛雞雌雄半自動(dòng)鑒別系統(tǒng)
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    一種圖像超像素的快速生成算法
    基于魯棒性的廣義FCM圖像分割算法
    亚洲av中文字字幕乱码综合| 丰满人妻一区二区三区视频av | av黄色大香蕉| 在线观看美女被高潮喷水网站 | 一进一出好大好爽视频| 我的老师免费观看完整版| 熟女电影av网| 精品人妻1区二区| 中文字幕人成人乱码亚洲影| 色综合站精品国产| 老鸭窝网址在线观看| 麻豆国产av国片精品| 国产精品亚洲av一区麻豆| 亚洲第一电影网av| 欧美绝顶高潮抽搐喷水| 男人舔女人的私密视频| 国产欧美日韩一区二区三| 日本精品一区二区三区蜜桃| 亚洲九九香蕉| 一本一本综合久久| 校园春色视频在线观看| 亚洲午夜理论影院| 网址你懂的国产日韩在线| 成人特级黄色片久久久久久久| 此物有八面人人有两片| 国产欧美日韩一区二区三| 精品久久久久久久毛片微露脸| 夜夜爽天天搞| 午夜激情欧美在线| www.熟女人妻精品国产| 成人永久免费在线观看视频| 日本黄大片高清| 成人三级黄色视频| 国产黄a三级三级三级人| 国内精品一区二区在线观看| 亚洲成人久久性| 91在线观看av| 日韩免费av在线播放| 在线观看一区二区三区| 久久久久久大精品| 国产淫片久久久久久久久 | 久久香蕉精品热| 久久久久亚洲av毛片大全| 久久久成人免费电影| 久久精品综合一区二区三区| 日本 欧美在线| 成人av在线播放网站| 国产真实乱freesex| 精品久久蜜臀av无| 99精品在免费线老司机午夜| 婷婷亚洲欧美| 久久久久久九九精品二区国产| 国产男靠女视频免费网站| 最新中文字幕久久久久 | 免费观看的影片在线观看| 国产人伦9x9x在线观看| 激情在线观看视频在线高清| 动漫黄色视频在线观看| 久久久成人免费电影| 91av网站免费观看| 无人区码免费观看不卡| 脱女人内裤的视频| 亚洲人成网站在线播放欧美日韩| 国产又色又爽无遮挡免费看| 五月玫瑰六月丁香| 在线免费观看不下载黄p国产 | 久久久久亚洲av毛片大全| 午夜免费观看网址| 久久亚洲真实| 色视频www国产| 国产高清三级在线| 精品久久久久久久人妻蜜臀av| 国产爱豆传媒在线观看| 日韩三级视频一区二区三区| 久久久久久久精品吃奶| 国产亚洲欧美98| 亚洲人成网站高清观看| 成人特级黄色片久久久久久久| 啦啦啦免费观看视频1| 亚洲中文av在线| 亚洲精品久久国产高清桃花| 色尼玛亚洲综合影院| 欧美高清成人免费视频www| 精品一区二区三区视频在线观看免费| 男人舔女人下体高潮全视频| 亚洲av电影在线进入| 麻豆av在线久日| 18禁黄网站禁片午夜丰满| 国产v大片淫在线免费观看| 欧美日韩瑟瑟在线播放| 久久国产乱子伦精品免费另类| www.999成人在线观看| 色播亚洲综合网| 好男人在线观看高清免费视频| 国产v大片淫在线免费观看| 亚洲成人久久爱视频| 亚洲黑人精品在线| 成人高潮视频无遮挡免费网站| 久久久久久久午夜电影| 国内揄拍国产精品人妻在线| 2021天堂中文幕一二区在线观| 国产精品乱码一区二三区的特点| 亚洲中文字幕日韩| 亚洲一区二区三区色噜噜| 国产亚洲精品久久久久久毛片| 亚洲精品在线美女| 黄色成人免费大全| 欧美精品啪啪一区二区三区| 熟女少妇亚洲综合色aaa.| 熟女少妇亚洲综合色aaa.| 狂野欧美白嫩少妇大欣赏| 夜夜夜夜夜久久久久| 国产精品美女特级片免费视频播放器 | 国产精品亚洲美女久久久| 九色国产91popny在线| 啦啦啦观看免费观看视频高清| 又黄又粗又硬又大视频| 欧美日韩综合久久久久久 | 又黄又粗又硬又大视频| av天堂中文字幕网| www.自偷自拍.com| 国产主播在线观看一区二区| 国产一区二区三区在线臀色熟女| 一个人观看的视频www高清免费观看 | 欧美另类亚洲清纯唯美| 91麻豆av在线| 成人18禁在线播放| 欧洲精品卡2卡3卡4卡5卡区| 午夜久久久久精精品| 级片在线观看| 久久久国产成人免费| 一级作爱视频免费观看| 欧美成狂野欧美在线观看| 国产精品一及| 99精品欧美一区二区三区四区| 日本精品一区二区三区蜜桃| 久久久成人免费电影| 欧美在线一区亚洲| 亚洲第一电影网av| 国产精品亚洲美女久久久| 一区二区三区高清视频在线| 国产高清视频在线观看网站| 久久亚洲真实| 亚洲人成伊人成综合网2020| 可以在线观看毛片的网站| av在线蜜桃| 国产成年人精品一区二区| 久久久久久久精品吃奶| 麻豆成人午夜福利视频| 99久久成人亚洲精品观看| 国模一区二区三区四区视频 | 国产麻豆成人av免费视频| 狂野欧美激情性xxxx| 波多野结衣巨乳人妻| 国产精品亚洲一级av第二区| 18禁观看日本| 人人妻,人人澡人人爽秒播| 久久国产乱子伦精品免费另类| 国产一区二区在线观看日韩 | 亚洲欧美日韩东京热| 国产亚洲精品综合一区在线观看| 精品久久久久久久人妻蜜臀av| 欧美极品一区二区三区四区| 欧美丝袜亚洲另类 | 一个人免费在线观看的高清视频| 久久久久久久精品吃奶| 人妻久久中文字幕网| 欧洲精品卡2卡3卡4卡5卡区| 久久精品国产综合久久久| 欧美日韩黄片免| 他把我摸到了高潮在线观看| 91av网一区二区| 久久久精品欧美日韩精品| 精品一区二区三区四区五区乱码| 国产av麻豆久久久久久久| 亚洲中文字幕一区二区三区有码在线看 | 在线视频色国产色| or卡值多少钱| a级毛片a级免费在线| 精品一区二区三区四区五区乱码| 日韩国内少妇激情av| 精品一区二区三区视频在线观看免费| 一级a爱片免费观看的视频| 久久国产乱子伦精品免费另类| 国产精品日韩av在线免费观看| 一边摸一边抽搐一进一小说| 一本精品99久久精品77| 两性午夜刺激爽爽歪歪视频在线观看| 2021天堂中文幕一二区在线观| 俄罗斯特黄特色一大片| 国产v大片淫在线免费观看| 91在线观看av| 久久人人精品亚洲av| 天堂√8在线中文| 日本一二三区视频观看| 久久草成人影院| 老司机深夜福利视频在线观看| 最好的美女福利视频网| 亚洲av第一区精品v没综合| 成年人黄色毛片网站| 国产激情欧美一区二区| 亚洲真实伦在线观看| 久久国产精品影院| 国产成人系列免费观看| 国产精品久久久久久人妻精品电影| 99热这里只有精品一区 | 亚洲国产精品sss在线观看| 黄频高清免费视频| 亚洲av电影不卡..在线观看| 岛国在线观看网站| 一级a爱片免费观看的视频| 日韩精品青青久久久久久| 色综合亚洲欧美另类图片| 国产精华一区二区三区| 脱女人内裤的视频| 女人高潮潮喷娇喘18禁视频| 欧美黑人巨大hd| 一个人观看的视频www高清免费观看 | 亚洲人成网站在线播放欧美日韩| 国产黄a三级三级三级人| 黄色视频,在线免费观看| 首页视频小说图片口味搜索| 99国产精品一区二区三区| 日本熟妇午夜| 99re在线观看精品视频| 欧美成人一区二区免费高清观看 | 999久久久精品免费观看国产| 99在线人妻在线中文字幕| 最近最新中文字幕大全免费视频| 国产av一区在线观看免费| 99国产精品99久久久久| 人人妻,人人澡人人爽秒播| 不卡一级毛片| 国产日本99.免费观看| 日日夜夜操网爽| 日韩欧美国产一区二区入口| 51午夜福利影视在线观看| 久久精品国产99精品国产亚洲性色| 熟妇人妻久久中文字幕3abv| 国产私拍福利视频在线观看| 亚洲精品中文字幕一二三四区| 免费大片18禁| 亚洲欧美日韩高清专用| 国产成人精品久久二区二区免费| 国产精品久久久久久久电影 | 亚洲专区国产一区二区| 一区二区三区高清视频在线| 啦啦啦免费观看视频1| 亚洲精品国产精品久久久不卡| 给我免费播放毛片高清在线观看| 色综合婷婷激情| 天天躁狠狠躁夜夜躁狠狠躁| 色精品久久人妻99蜜桃| 国产精品一区二区免费欧美| 亚洲欧美精品综合一区二区三区| 变态另类丝袜制服| 国产精品,欧美在线| 麻豆国产97在线/欧美| 一进一出好大好爽视频| 久久中文字幕一级| 最近在线观看免费完整版| 人妻久久中文字幕网| 国产在线精品亚洲第一网站| 99精品在免费线老司机午夜| 亚洲精品乱码久久久v下载方式 | 国产av在哪里看| 黄色女人牲交| 757午夜福利合集在线观看| 网址你懂的国产日韩在线| 亚洲成人久久性| 久久婷婷人人爽人人干人人爱| 国产一区二区三区在线臀色熟女| cao死你这个sao货| 欧美zozozo另类| 欧美色欧美亚洲另类二区| 欧美另类亚洲清纯唯美| 国产高清视频在线播放一区| 成人特级av手机在线观看| 欧美3d第一页| 黄色成人免费大全| 婷婷精品国产亚洲av在线| 欧美zozozo另类| 中文字幕最新亚洲高清| 国产黄片美女视频| 成年女人永久免费观看视频| 午夜成年电影在线免费观看| 91九色精品人成在线观看| 亚洲欧美日韩东京热| 国产精品一及| www国产在线视频色| 欧美精品啪啪一区二区三区| 国产精品免费一区二区三区在线| 欧美色视频一区免费| 国产精品亚洲av一区麻豆| 曰老女人黄片| 亚洲熟妇熟女久久| 国产91精品成人一区二区三区| 亚洲成av人片免费观看| 亚洲中文日韩欧美视频| 日本五十路高清| 亚洲精品中文字幕一二三四区| 天堂影院成人在线观看| 国产三级中文精品| 亚洲熟妇中文字幕五十中出| 两人在一起打扑克的视频| 在线a可以看的网站| 亚洲熟妇熟女久久| 性欧美人与动物交配| 搞女人的毛片| 黄片小视频在线播放| 国产视频内射| 老司机在亚洲福利影院| 老汉色∧v一级毛片| 亚洲精品国产精品久久久不卡| 国产亚洲av嫩草精品影院| 欧美黑人巨大hd| 亚洲精品久久国产高清桃花| 精品久久蜜臀av无| 国产黄片美女视频| 欧美日韩中文字幕国产精品一区二区三区| 一卡2卡三卡四卡精品乱码亚洲| 日韩中文字幕欧美一区二区| 久久香蕉国产精品| 91麻豆av在线| 午夜福利高清视频| 久久久成人免费电影| 琪琪午夜伦伦电影理论片6080| 久久久久九九精品影院| 亚洲一区高清亚洲精品| 一个人看的www免费观看视频| 欧美日韩黄片免| 啦啦啦免费观看视频1| 嫁个100分男人电影在线观看| 9191精品国产免费久久| 国产精品免费一区二区三区在线| 女人被狂操c到高潮| 亚洲无线观看免费| 国产精品久久久人人做人人爽| 老汉色av国产亚洲站长工具| 操出白浆在线播放| 久久精品91蜜桃| 日本免费a在线| 99热这里只有是精品50| 国产一区二区在线观看日韩 | 精品一区二区三区视频在线观看免费| 日日干狠狠操夜夜爽| 亚洲天堂国产精品一区在线| 国产免费av片在线观看野外av| 最近最新免费中文字幕在线| 亚洲av成人一区二区三| 一a级毛片在线观看| 一进一出抽搐动态| 一级黄色大片毛片| 一个人观看的视频www高清免费观看 | 小蜜桃在线观看免费完整版高清| 在线永久观看黄色视频| 夜夜夜夜夜久久久久| 色尼玛亚洲综合影院| 久久性视频一级片| 欧美精品啪啪一区二区三区| 国产黄片美女视频| 999久久久精品免费观看国产| 欧美一区二区国产精品久久精品| 可以在线观看的亚洲视频| 9191精品国产免费久久| 亚洲精品色激情综合| 天天添夜夜摸| 国产高清三级在线| 美女午夜性视频免费| 久9热在线精品视频| 久久久久国产精品人妻aⅴ院| 亚洲美女黄片视频| 国产精品av久久久久免费| 亚洲国产色片| 女同久久另类99精品国产91| 亚洲av美国av| 日韩高清综合在线| 一卡2卡三卡四卡精品乱码亚洲| 九色国产91popny在线| 精品久久久久久,| e午夜精品久久久久久久| 久久香蕉精品热| 免费电影在线观看免费观看| 狂野欧美激情性xxxx| 亚洲国产精品久久男人天堂| 一进一出抽搐gif免费好疼| 九色成人免费人妻av| 麻豆成人午夜福利视频| 亚洲人成网站高清观看| 日日摸夜夜添夜夜添小说| 日本黄大片高清| 色综合亚洲欧美另类图片| 成人无遮挡网站| 成人亚洲精品av一区二区| 欧美日韩国产亚洲二区| 人人妻人人看人人澡| 国产伦精品一区二区三区四那| 一个人看的www免费观看视频| 成人三级黄色视频| 国产高清有码在线观看视频| 男插女下体视频免费在线播放| 99热6这里只有精品| 一二三四在线观看免费中文在| 亚洲av电影在线进入| 国内久久婷婷六月综合欲色啪| 少妇的逼水好多| 国产精品av视频在线免费观看| 国产亚洲欧美98| 亚洲无线观看免费| 午夜a级毛片| 国产69精品久久久久777片 | 老司机在亚洲福利影院| 亚洲精品色激情综合| 一卡2卡三卡四卡精品乱码亚洲| 全区人妻精品视频| 亚洲欧美一区二区三区黑人| 午夜日韩欧美国产| 亚洲国产高清在线一区二区三| 综合色av麻豆| 精品久久久久久久久久免费视频| 精华霜和精华液先用哪个| 国内精品美女久久久久久| 国产精品亚洲美女久久久| 国产激情久久老熟女| 免费av不卡在线播放| 97人妻精品一区二区三区麻豆| 精华霜和精华液先用哪个| 一a级毛片在线观看| 一a级毛片在线观看| 俺也久久电影网| 亚洲av熟女| 欧美另类亚洲清纯唯美| 国产乱人伦免费视频| 色吧在线观看| 精品欧美国产一区二区三| 日韩欧美在线二视频| 在线观看免费视频日本深夜| 美女黄网站色视频| 欧美色视频一区免费| 久久久久性生活片| 窝窝影院91人妻| 国产欧美日韩一区二区三| 色av中文字幕| 美女免费视频网站| 久久久国产成人免费| 午夜两性在线视频| 欧美黑人巨大hd| 成人永久免费在线观看视频| 女同久久另类99精品国产91| 日韩av在线大香蕉| 中文字幕久久专区| 白带黄色成豆腐渣| 亚洲国产欧美人成| 欧美中文日本在线观看视频| 欧美不卡视频在线免费观看| 免费观看人在逋| 一本一本综合久久| 国产精品一区二区精品视频观看| 制服丝袜大香蕉在线| 亚洲 欧美一区二区三区| 他把我摸到了高潮在线观看| 欧美极品一区二区三区四区| 最好的美女福利视频网| 久久久久久久精品吃奶| 又黄又粗又硬又大视频| 90打野战视频偷拍视频| 亚洲在线观看片| 国产精品影院久久| 亚洲人成电影免费在线| 激情在线观看视频在线高清| 亚洲av熟女| 熟妇人妻久久中文字幕3abv| 搡老岳熟女国产| 久久精品国产99精品国产亚洲性色| 国产精品一区二区精品视频观看| 亚洲黑人精品在线| 亚洲欧美日韩东京热| 日本a在线网址| 美女高潮的动态| 日本五十路高清| 免费在线观看亚洲国产| 日本熟妇午夜| 九九热线精品视视频播放| 成年女人毛片免费观看观看9| 午夜影院日韩av| 国产视频内射| 亚洲真实伦在线观看| e午夜精品久久久久久久| 精品电影一区二区在线| 天堂√8在线中文| 精品国产乱子伦一区二区三区| 丰满人妻一区二区三区视频av | 狂野欧美激情性xxxx| 免费在线观看视频国产中文字幕亚洲| 午夜福利免费观看在线| 国产成人av激情在线播放| 欧美zozozo另类| 真人做人爱边吃奶动态| 露出奶头的视频| 亚洲av电影不卡..在线观看| 久久精品影院6| 亚洲av中文字字幕乱码综合| 亚洲国产精品成人综合色| 757午夜福利合集在线观看| 久久九九热精品免费| 国产极品精品免费视频能看的| 在线看三级毛片| 中文亚洲av片在线观看爽| 给我免费播放毛片高清在线观看| 每晚都被弄得嗷嗷叫到高潮| 在线观看日韩欧美| 精品国产亚洲在线| 午夜精品在线福利| 中文亚洲av片在线观看爽| 亚洲成av人片免费观看| 久久国产乱子伦精品免费另类| 亚洲成a人片在线一区二区| 久久人人精品亚洲av| svipshipincom国产片| 国产精品久久久久久精品电影| 日韩欧美国产在线观看| 久久久成人免费电影| 国产成人精品久久二区二区免费| 俄罗斯特黄特色一大片| 国产精品亚洲美女久久久| 黄片大片在线免费观看| 国内精品美女久久久久久| 久久久色成人| 少妇人妻一区二区三区视频| bbb黄色大片| av天堂中文字幕网| 深夜精品福利| 男女床上黄色一级片免费看| 欧美丝袜亚洲另类 | 人妻久久中文字幕网| 天堂动漫精品| 亚洲av中文字字幕乱码综合| a级毛片a级免费在线| 九色国产91popny在线| 我要搜黄色片| 国产精品一区二区精品视频观看| 俺也久久电影网| 熟女电影av网| 国产精品亚洲av一区麻豆| 美女午夜性视频免费| svipshipincom国产片| 欧美av亚洲av综合av国产av| 欧美大码av| 国产精品,欧美在线| 国产又黄又爽又无遮挡在线| 国产精品精品国产色婷婷| 日本熟妇午夜| 可以在线观看的亚洲视频| 又紧又爽又黄一区二区| 国产欧美日韩一区二区精品| 啦啦啦免费观看视频1| 国产成人啪精品午夜网站| 90打野战视频偷拍视频| 国内精品一区二区在线观看| 可以在线观看的亚洲视频| 亚洲精品在线观看二区| 成人18禁在线播放| 十八禁网站免费在线| 中文字幕av在线有码专区| 久久天躁狠狠躁夜夜2o2o| 亚洲人成网站在线播放欧美日韩| 两性夫妻黄色片| 精品福利观看| 久久性视频一级片| 久久久久久人人人人人| 亚洲精华国产精华精| 国产精品乱码一区二三区的特点| 99久久无色码亚洲精品果冻| 日本成人三级电影网站| 欧美乱妇无乱码| 999久久久精品免费观看国产| 亚洲欧美激情综合另类| 美女免费视频网站| 蜜桃久久精品国产亚洲av| 天天添夜夜摸| 日韩国内少妇激情av| cao死你这个sao货| 欧美+亚洲+日韩+国产| x7x7x7水蜜桃| 亚洲国产看品久久| 观看免费一级毛片| 亚洲无线在线观看| 免费在线观看视频国产中文字幕亚洲| 久久久久久久精品吃奶| 波多野结衣高清无吗| 久久精品国产99精品国产亚洲性色| 在线观看一区二区三区| 久久精品国产综合久久久| 国产成人精品无人区| 国产极品精品免费视频能看的| 亚洲人成伊人成综合网2020| 美女大奶头视频| 欧美成人免费av一区二区三区| 欧美性猛交黑人性爽| 国产成人精品久久二区二区免费| 偷拍熟女少妇极品色| 欧美日韩黄片免| 熟女人妻精品中文字幕| 亚洲美女黄片视频| 丁香六月欧美| 制服丝袜大香蕉在线| 国产黄片美女视频| 美女 人体艺术 gogo| 丁香欧美五月| www.精华液| 黄色视频,在线免费观看| 久久久久国产精品人妻aⅴ院| 一个人观看的视频www高清免费观看 | av在线天堂中文字幕| 人妻夜夜爽99麻豆av|