• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    生成對抗殘差網(wǎng)絡(luò)的醫(yī)學(xué)圖像融合算法

    2019-01-06 07:27高媛吳帆秦品樂王麗芳
    計(jì)算機(jī)應(yīng)用 2019年12期
    關(guān)鍵詞:殘差醫(yī)學(xué)算法

    高媛 吳帆 秦品樂 王麗芳

    摘 要:針對傳統(tǒng)醫(yī)學(xué)圖像融合中需要依靠先驗(yàn)知識手動設(shè)置融合規(guī)則和參數(shù),導(dǎo)致融合效果存在不確定性、細(xì)節(jié)表現(xiàn)力不足的問題,提出了一種基于改進(jìn)生成對抗網(wǎng)絡(luò)(GAN)的腦部計(jì)算機(jī)斷層掃描(CT)/磁共振 (MR)圖像融合算法。首先,對生成器和判別器兩個(gè)部分的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),在生成器網(wǎng)絡(luò)的設(shè)計(jì)中采用殘差塊和快捷連接以加深網(wǎng)絡(luò)結(jié)構(gòu),更好地捕獲深層次的圖像信息;然后,去掉常規(guī)網(wǎng)絡(luò)中的下采樣層,以減少圖像傳輸過程中的信息損失,并將批量歸一化改為層歸一化,以更好地保留源圖像信息,增加判別器網(wǎng)絡(luò)的深度以提高網(wǎng)絡(luò)性能;最后,連接CT圖像和MR圖像,將其輸入到生成器網(wǎng)絡(luò)中得到融合圖像,通過損失函數(shù)不斷優(yōu)化網(wǎng)絡(luò)參數(shù),訓(xùn)練出最適合醫(yī)學(xué)圖像融合的模型來生成高質(zhì)量的圖像。實(shí)驗(yàn)結(jié)果表明,與當(dāng)前表現(xiàn)優(yōu)良的基于離散小波變換(DWT)算法、基于非下采樣剪切波變換(NSCT)算法、基于稀疏表示(SR)算法和基于圖像分類塊稀疏表示(PSR)算法對比,所提算法在互信息(MI)、信息熵(IE)、結(jié)構(gòu)相似性(SSIM)上均表現(xiàn)良好,最終的融合圖像紋理和細(xì)節(jié)豐富,同時(shí)避免了人為因素對融合效果穩(wěn)定性的影響。

    關(guān)鍵詞:醫(yī)學(xué)圖像融合;生成對抗網(wǎng)絡(luò);計(jì)算機(jī)斷層成像(CT)/磁共振(MR);層歸一化;殘差塊

    中圖分類號: TP391.4文獻(xiàn)標(biāo)志碼:A

    Medical image fusion algorithm based on generative adversarial residual network

    GAO Yuan, WU Fan*, QIN Pinle, WANG Lifang

    (School of Big Data Science, North University of China, Taiyuan Shanxi 030051, China)

    Abstract: In the traditional medical image fusion, it is necessary to manually set the fusion rules and parameters by using prior knowledge, which leads to the uncertainty of fusion effect and the lack of detail expression. In order to solve the problems, a Computed Tomography (CT)/ Magnetic Resonance (MR) image fusion algorithm based on improved Generative Adversarial Network (GAN) was proposed. Firstly, the network structures of generator and discriminator were improved. In the design of generator network, residual block and fast connection were used to deepen the network structure, so as to better capture the deep image information. Then, the down-sampling layer of the traditional network was removed to reduce the information loss during image transmission, and the batch normalization was changed to the layer normalization to better retain the source image information, and the depth of the discriminator network was increased to improve the network performance. Finally, the CT image and the MR image were connected and input into the generator network to obtain the fused image, and the network parameters were continuously optimized through the loss function, and the model most suitable for medical image fusion was trained to generate the high-quality image. The experimental results show that, the proposed algorithm is superior to Discrete Wavelet Transformation (DWT) algorithm, NonSubsampled Contourlet Transform (NSCT) algorithm, Sparse Representation (SR) algorithm and Sparse Representation of classified image Patches (PSR) algorithm on Mutual Information (MI), Information Entropy (IE) and Structural SIMilarity (SSIM). The final fused image has rich texture and details. At the same time, the influence of human factors on the stability of the fusion effect is avoided.

    Key words: medical image fusion; Generative Adversarial Network (GAN); Computed Tomography (CT)/ Magnetic Resonance (MRI); layer normalization; residual block

    0 引言

    在臨床診斷和治療中,醫(yī)學(xué)圖像是確定病灶位置的重要判斷依據(jù),但單模態(tài)醫(yī)學(xué)圖像無法達(dá)到成像結(jié)果全面、清晰,且分辨率高的效果[1-3]。通過將多模態(tài)醫(yī)學(xué)圖像進(jìn)行融合,可以解決單模態(tài)醫(yī)學(xué)圖像信息不足的問題,提高疾病準(zhǔn)確診斷和治療的效率。融合后的醫(yī)學(xué)圖像能夠準(zhǔn)確地表達(dá)源圖像的細(xì)節(jié)特征,最大限度地保留多模態(tài)源圖像信息[4]。

    圖像融合是一種增強(qiáng)技術(shù),可以將同一場景的多幅圖像或序列探測圖像合成一幅信息更豐富、全面的圖像。醫(yī)學(xué)圖像融合主要是以多尺度變換[5]、稀疏表示[6]和脈沖耦合模型[7]等為主的傳統(tǒng)方法。多尺度變換將源圖像進(jìn)行分解重構(gòu),分解為高頻圖像和低頻圖像,再根據(jù)各自特點(diǎn)設(shè)置融合規(guī)則;但由于不同的濾波器其尺度和方向上的參數(shù)性能不同,使得融合效果的穩(wěn)定性受人為因素影響較大[8]。稀疏表示通過字典對源圖像進(jìn)行稀疏編碼,得到稀疏系數(shù),再設(shè)置一定的融合規(guī)則對系數(shù)進(jìn)行融合,最后重構(gòu)得到融合圖像;由于該算法對單個(gè)圖像塊進(jìn)行編碼,存在算法計(jì)算效率低且融合后圖像信息丟失嚴(yán)重的問題[9]。脈沖耦合模型具有獨(dú)特的全局耦合性和脈沖同步性;但該模型復(fù)雜,運(yùn)行速率不高,且現(xiàn)有的理論無法解釋參數(shù)如何設(shè)置能達(dá)到最優(yōu)的融合效果[10]。綜上所述,傳統(tǒng)方法往往需要手動設(shè)置復(fù)雜的活動水平度量和融合規(guī)則,并通過先驗(yàn)知識進(jìn)行參數(shù)初始化,存在融合效果不穩(wěn)定、模型復(fù)雜、運(yùn)行速率低的問題[11]。近年來,在圖像處理領(lǐng)域深度學(xué)習(xí)比傳統(tǒng)方法具有更強(qiáng)的特征捕獲能力[12]。而神經(jīng)網(wǎng)絡(luò)是一種端到端的模型,并能夠避免傳統(tǒng)方法中先驗(yàn)知識影響融合效果的問題。其中生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)在圖像生成方面具有突出的效果,實(shí)際應(yīng)用于圖像生成[13]、圖像修補(bǔ)[14]、草稿圖復(fù)原[15]等領(lǐng)域,本文通過對GAN網(wǎng)絡(luò)模型的改進(jìn),能夠提高融合效果的穩(wěn)定性并提高運(yùn)算速度。

    本文在醫(yī)學(xué)圖像融合方面提出了一種殘差生成對抗網(wǎng)絡(luò)(Residual Generative Adversarial Network, Res-GAN)。首先,基于醫(yī)學(xué)圖像特征豐富、紋理信息復(fù)雜的特征,對生成對抗網(wǎng)絡(luò)中的生成器和判別器兩部分的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行構(gòu)建。生成器的目的是生成同時(shí)具有電子計(jì)算機(jī)斷層掃描(Computed Tomography, CT)和磁共振(Magnetic Resonance, MR)或MR和單光子發(fā)射計(jì)算機(jī)斷層成像(Single-Photon Emission Computed Tomography, SPECT)兩種圖像信息的融合圖;判別器的目的是通過訓(xùn)練促使生成器達(dá)到最優(yōu)權(quán)重,達(dá)到最終融合圖像最大限度地保留源圖像信息,準(zhǔn)確地展現(xiàn)細(xì)節(jié)特征的目的。

    1 相關(guān)工作

    1.1 生成對抗網(wǎng)絡(luò)模型

    Goodfellow等[16]首先提出了GAN的概念,在深度學(xué)習(xí)領(lǐng)域引起廣泛的研究熱潮。GAN在訓(xùn)練期間通過直接進(jìn)行采樣和推斷,使GAN的應(yīng)用效率提升,其強(qiáng)大的圖像生成能力在實(shí)際應(yīng)用場景有著廣泛的應(yīng)用。GAN的基本框架如圖1所示。

    GAN是同時(shí)訓(xùn)練兩個(gè)模型:一個(gè)是用來捕獲數(shù)據(jù)分布的生成器模型(Generative, G),一個(gè)是用來估計(jì)樣本的判別模型(Discriminative, D)。G和D在對抗的框架下進(jìn)行學(xué)習(xí),D對真實(shí)數(shù)據(jù)進(jìn)行建模,使得G避免了這些步驟直接學(xué)習(xí)去逼近真實(shí)數(shù)據(jù),在任意函數(shù)G和D的空間中存在唯一的解,使最終生成數(shù)據(jù)達(dá)到D無法區(qū)分真?zhèn)蔚男ЧAN在優(yōu)化過程中,由G和D構(gòu)成了一個(gè)動態(tài)的“博弈過程”,其模型優(yōu)化函數(shù)如式(1)所示:

    優(yōu)化函數(shù)由兩項(xiàng)構(gòu)成:x 表示真實(shí)目標(biāo)圖像,z表示輸入G的噪聲;G(z)表示G生成的圖像,D(x)表示D判斷真實(shí)目標(biāo)圖像為x的概率,D(G(x))表示D判斷G(z)為圖像x的概率。為了學(xué)習(xí)生成器關(guān)于數(shù)據(jù)x上的分布Pg(x),定義輸入噪聲的先驗(yàn)變量Pz(z),然后使用G(z;θg)來代表數(shù)據(jù)空間的映射。這里G是一個(gè)由含有參數(shù)θg的多層感知機(jī)表示的可微函數(shù),多層感知機(jī)D(x;θd)用來輸入一個(gè)單獨(dú)的標(biāo)量。D(x)代表x來自于真實(shí)數(shù)據(jù)分布而不是Pg(x)的概率,同時(shí)訓(xùn)練G來最小化lg(1-D(G(z)))。

    原始的GAN模型主要目的是擬合出相應(yīng)的生成和判別函數(shù)以生成圖像,并沒有對生成器和判別器的具體結(jié)構(gòu)作出限制。由于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)在圖像處理方面取得的顯著成績[17],本文設(shè)計(jì)生成器和判別器均采用神經(jīng)網(wǎng)絡(luò)模型,同時(shí)為了更好地保留源圖像的細(xì)節(jié)信息,在融合過程中要盡可能地在每一層傳輸?shù)倪^程中減少信息的丟失,以在融合圖像中保留更豐富的信息。

    1.2 殘差網(wǎng)絡(luò)模型

    由He等[18]提出的ResNet(Residual Neural Network),通過使用殘差塊(Residual Block)成功訓(xùn)練出了152層的神經(jīng)網(wǎng)絡(luò),該結(jié)構(gòu)可以極快地加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,模型的準(zhǔn)確率也有較大的提升。ResNet的主要思想是在網(wǎng)絡(luò)中增加了直連通道,即Highway Network的思想。在此之前的網(wǎng)絡(luò)結(jié)構(gòu)是層與鄰近層之間連接對輸入進(jìn)行非線性變換,ResNet的思想允許原始輸入信息直接傳到后面的層中,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    傳統(tǒng)的卷積網(wǎng)絡(luò)或者全連接網(wǎng)絡(luò)在信息傳遞時(shí)不可避免會存在信息丟失、損耗等問題;同時(shí)在層數(shù)過多的情況下,引發(fā)梯度消失或者梯度爆炸等問題,導(dǎo)致網(wǎng)絡(luò)無法訓(xùn)練。ResNet通過在原始的卷積層上增加跳躍連接支路(Skip Connection)以構(gòu)成基本殘差塊,使H(x)的學(xué)習(xí)被表示H(x)=F(x)+x;同時(shí)殘差塊結(jié)構(gòu)的累加,在一定程度上解決了梯度消失或者梯度爆炸等問題,通過直接將輸入信息繞道傳到輸出,保護(hù)信息的完整性,整個(gè)網(wǎng)絡(luò)只需要學(xué)習(xí)輸入、輸出差別的那一部分,簡化了學(xué)習(xí)目標(biāo)和難度,如圖3所示。

    殘差網(wǎng)絡(luò)的Residual Block和Skip Connection結(jié)構(gòu),改善了網(wǎng)絡(luò)深度增加帶來的梯度消失和網(wǎng)絡(luò)退化的問題,提升了深度網(wǎng)絡(luò)的性能。鑒于殘差網(wǎng)絡(luò)結(jié)構(gòu)近年來在圖像生成領(lǐng)域上的優(yōu)異成績,本文將殘差塊引入生成器部分的網(wǎng)絡(luò)結(jié)構(gòu)。

    2 Res-GAN的醫(yī)學(xué)圖像融合策略

    2.1 融合過程

    Res-GAN算法,對融合過程中的權(quán)重進(jìn)行自適應(yīng),需要輸入目標(biāo)圖作為網(wǎng)絡(luò)對最優(yōu)融合效果的評判標(biāo)準(zhǔn)。所以,對已配準(zhǔn)好的醫(yī)學(xué)圖像進(jìn)行融合的步驟為:

    1)從數(shù)據(jù)庫中取出500對CT和MR圖像得到圖像集{Ici,Imi},其中:下標(biāo)c表示CT圖像,下標(biāo)m表示MR圖像,下標(biāo)i表示第i對圖像。

    2)選擇當(dāng)前效果優(yōu)良的6種圖像融合方法:基于卷積稀疏的形態(tài)成分分析(Convolutional Sparsity based Morphological Component Analysis, CS-MCA)算法 [19];基于離散分?jǐn)?shù)小波變換(Discrete FRactional Wavelet Transformation, DFRWT)[20]算法;基于離散小波變換 (Discrete Wavelet Transformation, DWT)算法[21];基于非下采樣剪切波變換(NonSubsampled Contourlet Transform, NSCT)算法[22];基于稀疏表示(Sparse Representation, SR)算法[23];基于圖像分類塊稀疏表示(Sparse Representation of classified image Patches, PSR)算法[24]對數(shù)據(jù)集中的每對圖像進(jìn)行融合,得出融合圖像構(gòu)成融合圖像集{f j1, f j2,…, f j500},其中上標(biāo)j表示第j種融合方法。

    3)采用互信息(Mutual Information, MI)、信息熵(Information Entropy, IE)、結(jié)構(gòu)相似性(Structural SIMilarity, SSIM)、空間頻率(Spatial Frequency, SF)、平均梯度(Average Gradient, AG)、標(biāo)準(zhǔn)差(Standard Deviation, SD)、對比度(Contrast, C)、峰值信噪比(Peak Signal-to-Noise Radio, PSNR)、相關(guān)系數(shù)(Correlation Coefficient, CC)、邊緣信息保留值(Edge Information Preservation Vlaues, EIPV)10種評價(jià)指標(biāo),對融合圖像集進(jìn)行評價(jià)并進(jìn)行統(tǒng)計(jì),選擇客觀指標(biāo)評價(jià)最優(yōu)的2500張融合圖作為目標(biāo)圖組成訓(xùn)練集If。

    4)使用Res-GAN的醫(yī)學(xué)圖像融合算法進(jìn)行訓(xùn)練,在通道維度中連接CT圖像Ic和MR圖像Im,然后將連接圖像輸入到生成器G中,同時(shí)將目標(biāo)圖像If輸入到判別器D中,訓(xùn)練過程如圖4所示。

    2.2 改進(jìn)思想

    在網(wǎng)絡(luò)結(jié)構(gòu)方面,本文將生成對抗網(wǎng)絡(luò)應(yīng)用到圖像融合領(lǐng)域,為了更好地保留圖像細(xì)節(jié)信息,減少信息在每一層傳輸過程中的丟失,本文在傳統(tǒng)的GAN模型基礎(chǔ)上,采用殘差學(xué)習(xí)框架,讓堆疊層擬合殘差映射,而不是直接擬合所需的底層映射。針對特征圖維度翻倍以及刪除構(gòu)建塊后造成分類誤差顯著增加的問題[25],采用具有金字塔結(jié)構(gòu)的殘差網(wǎng)絡(luò)[26],如圖5所示。通過在構(gòu)建網(wǎng)絡(luò)的過程中去掉下采樣單元以減少圖像信息的丟失,同時(shí)逐漸增加特征圖的維度,使受下采樣單元影響的部分均勻地分布在所有單元上,從而使網(wǎng)絡(luò)在刪除下采樣單元時(shí)性能不會顯著下降。

    由于CT與MR圖像都是灰度圖,所有的輸入都在同一個(gè)區(qū)間范圍內(nèi),經(jīng)過批量歸一化(Bach Normalization, BN)層均值歸零、方差歸一的算法,拉伸圖像的對比度,忽略圖像的像素信息只考慮相對差異,會破壞源圖像的對比度信息[27],從而影響網(wǎng)絡(luò)輸出的質(zhì)量。本文為了更好地保留源圖像的對比度信息,引入層歸一化(Layer Normalization, LN),它在計(jì)算得到某層的平均輸入值和輸入方差時(shí)包含該層所有維度輸入,最后通過同一個(gè)規(guī)范化操作來達(dá)到轉(zhuǎn)換各個(gè)維度輸入的目的[28]。LN針對單個(gè)樣本進(jìn)行訓(xùn)練,有效解決了BN受mini-batch數(shù)據(jù)分布影響的問題;另外,由于它不需要保存mini-batch的均值和方差,可以在很大程度上節(jié)省額外的存儲空間。

    2.3 Res-GAN算法網(wǎng)絡(luò)結(jié)構(gòu)

    由2.1節(jié)所述的改進(jìn)思想,將改進(jìn)的措施應(yīng)用到本文的Res-GAN算法中,設(shè)計(jì)的整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

    2.3.1 生成器

    生成器的目的在于提取更多、更深層次的圖像特征生成新的融合圖像,其網(wǎng)絡(luò)結(jié)構(gòu)如圖6(a)所示。首先,對輸入圖像進(jìn)行卷積操作,先進(jìn)入3×3×3×64的卷積層,即輸入為3通道、輸出為64通道的3×3的濾波器,設(shè)置步長為1,并通過零填充使圖片在卷積過程中保持大小不變。其次,兩層3×3的濾波器構(gòu)成一個(gè)殘差塊,通過殘差塊的堆疊來提取深層次特征,將殘差塊的數(shù)量增加到32個(gè),加深了網(wǎng)絡(luò)深度。為了最大化地保存源圖像中的細(xì)節(jié)信息,只引入卷積層而不進(jìn)行下采樣;使用線性整流單元(Rectified Linear Unit, ReLU)優(yōu)化網(wǎng)絡(luò)性能[29];BN轉(zhuǎn)換的思想是使經(jīng)過平移和縮放后的不同神經(jīng)元的輸入分布于不同的區(qū)間,而LN對于同層的神經(jīng)元訓(xùn)練可得到同一個(gè)轉(zhuǎn)換,從而用LN層替換傳統(tǒng)的BN層。最后,采用3×3的濾波器融合深層次特征和快捷連接輸入的淺層次特征,采用1×1的濾波器將通道降為3通道,輸出融合圖像。

    2.3.2 判別器

    判別器與生成器不同,其根本目的在于分類,先從圖像中提取特征,然后進(jìn)行分類。如圖6(b)所示,判別器是簡單的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。通過4層5×5的濾波器進(jìn)行卷積操作來提取圖像特征,同時(shí)為了減小去掉下采樣單元引起的圖像信息的丟失,逐層增加特征圖的通道數(shù),從第一層輸入3通道、輸出64通道,每層通道數(shù)以兩倍速度遞增,一直增加到輸入第4層輸入256通道、輸出512通道。然后,通過3×3的濾波器的卷積層逐漸降低通道數(shù),且同生成器一樣,激活函數(shù)采用ReLU。最后,通過全連接層(Fully Connect layer, FC)進(jìn)行分類,采用Sigmoid函數(shù)輸出判別的結(jié)果。

    2.3.3 損失函數(shù)

    本文算法的損失函數(shù)由生成器的損失函數(shù)和判別器的損失函數(shù)兩部分組成,旨在最小化損失以達(dá)到訓(xùn)練目的,如式(2)所示:

    LRes-GAN={min(LG),min(LD)}(2)

    其中:LG為生成器的損失函數(shù),LD為判別器的損失函數(shù),總損失函數(shù)LRes-GAN的目的在于最小化LG和LD。

    生成器損失LG是生成器和判別器之間的對抗損失V和圖像生成過程中的內(nèi)容損失C之和,α用于在V和C之間取得平衡。采用最小二乘法,其實(shí)質(zhì)是最小化“均方誤差”,通過最小化誤差的平方和尋找數(shù)據(jù)的最佳函數(shù)匹配,并使得求得的數(shù)據(jù)與實(shí)際數(shù)據(jù)之間誤差的平方和最小,能夠使損失函數(shù)快速收斂,訓(xùn)練過程更加穩(wěn)定。

    式(4)中:Inf表示融合目標(biāo)圖,其中n∈{1,2,…,N},N表示融合圖像的數(shù)量;D(Inf)表示分類結(jié)果;a表示判別器識別虛假數(shù)據(jù)為真的標(biāo)簽。式(5)中:H、W分別表示輸入圖像的高和寬;第一項(xiàng)‖·‖F(xiàn)代表矩陣范數(shù),目的在于將CT圖像Ic的信息保留在融合圖像If中;第二項(xiàng)表示梯度算子,目的在于保留MR圖像Im的細(xì)節(jié)信息;β是控制兩項(xiàng)之間權(quán)值的正參數(shù)。

    判別器損失LD,由MR圖像和融合目標(biāo)圖像的分類結(jié)果與其對應(yīng)的真值標(biāo)簽求均方誤差之和得到。

    LD=1N∑Nn=1(D(Im)-b)2+1N∑Nn=1(D(If)-c)2(6)

    其中:D(Im)和D(If)分別表示MR圖像和融合目標(biāo)圖像的分類結(jié)果;b和c分別表示各自的真值標(biāo)簽。

    3 仿真實(shí)驗(yàn)與結(jié)果分析

    本文實(shí)驗(yàn)使用的是美國哈佛醫(yī)學(xué)院(Harvard Medical School)的數(shù)據(jù)集,全腦圖譜由Keith A.Johnson和J.Alex Becker創(chuàng)建,提供正常腦和一些常見疾病的腦部圖像。選取出清晰度高、紋理豐富、細(xì)節(jié)復(fù)雜的高質(zhì)量CT和MR圖像,為了方便訓(xùn)練,將圖像均進(jìn)行歸一化。

    本實(shí)驗(yàn)環(huán)境由硬件環(huán)境和軟件環(huán)境構(gòu)成,硬件環(huán)境為測試實(shí)驗(yàn)所用的Intel Xeon服務(wù)器,搭載2塊NVIDIA Tesla M40的GPU,顯存共24GB(12GB×2);軟件環(huán)境為64位Ubnutu 14.04.05 LTS操作系統(tǒng),Tensorflow V1.2,CUDA Toolkit 8.0,Python 3.5。

    3.1 融合效果

    以正常腦部、腦弓形蟲和腦萎縮的三組CT和MR圖像,失智癥和膠質(zhì)瘤的兩組MR和SPECT圖像為例對本文算法融合效果進(jìn)行展示。為了驗(yàn)證本文融合算法的醫(yī)學(xué)圖像融合效果,選取在醫(yī)學(xué)圖像融合領(lǐng)域表現(xiàn)良好的基于DWT算法[21]、基于NSCT算法[22]、基于SR算法[23]、基于PSR算法[24]這四種傳統(tǒng)算法與本文算法進(jìn)行對比?;贒WT算法對兩個(gè)輸入源圖像進(jìn)行小波變換,融合小波系數(shù)的融合規(guī)則采用基于區(qū)域能力最大的融合規(guī)則和一致性校驗(yàn),對融合后的小波系數(shù)進(jìn)行逆小波變換得到融合圖像[21]?;贜SCT算法是充分利用NSCT和脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Network, PCNN)的優(yōu)點(diǎn)所提出的圖像融合算法:首先,對源圖像進(jìn)行NSCT分解,低頻子帶設(shè)置“取最大”的融合規(guī)則,高頻子帶采用PCNN模型;然后,修正后的NSCT域空間頻率作為輸入激勵PCNN,選取最大點(diǎn)火頻率作為融合圖像的系數(shù);最后,通過逆NSCT得到融合圖像[22]?;赟R算法提出了基于稀疏表示的多聚焦圖像融合方法,首先通過完備字典用稀疏系數(shù)表示源圖像,其次與“取最大”融合規(guī)則相結(jié)合,通過組合的稀疏系數(shù)和字典重建融合圖像[23]?;赑SR算法將源圖像在幾何方向上劃分出分類塊,并通過在線字典學(xué)習(xí)(Online Dictionary Learning, ODL)訓(xùn)練相應(yīng)的子字典,采用最小角回歸(Least Angle RegreSsion, LARS)對每個(gè)塊進(jìn)行稀疏編碼并將稀疏系數(shù)與取最大融合規(guī)則相結(jié)合,最后進(jìn)行重構(gòu)得到融合圖像[24]。

    從圖7可以看出,針對CT/MR圖像融合正常腦部的融合圖中:基于DWT和NSCT的算法亮度存在嚴(yán)重失真,融合效果較差,CT輪廓信息沒有很好地集成到融合圖像中,骨骼和軟組織信息不明顯;基于SR、PSR的算法和本文算法在保持結(jié)構(gòu)完整性方面表現(xiàn)良好,從細(xì)節(jié)處看,基于PSR的算法中略微丟失了部分源MR圖信息,本文算法有更高的亮度對比度和更清晰的結(jié)構(gòu)信息,很好地保留了邊緣的紋理細(xì)節(jié)。

    腦弓形蟲的融合圖中:基于DWT的算法融合效果不佳,存在偽影,且對MR源圖像的信息丟失嚴(yán)重;基于SR的算法視覺效果相對較好,圖像信息保存比較完整;基于PSR的算法和本文算法的圖像清晰、軟組織信息與源圖像較接近,融合效果較好,在融合邊緣無虛影產(chǎn)生,對源圖像信息的保存相對完整。

    腦萎縮融合圖中:基于DWT的算法圖像整體偏暗,對比度不高,視覺效果不好;基于PSR的算法中骨骼信息組織體現(xiàn)不明顯,不利于醫(yī)生對病灶的判斷;本文算法融合效果較好,圖像亮度提升,對比度較高,紋理信息與邊緣信息的保存程度較高,可以獲得更好的視覺質(zhì)量,具有更小的亮度失真和對比度失真。

    從融合效果對比綜合來看,本文算法都成功地將腦部骨骼和軟組織信息進(jìn)行了融合,相較于四種傳統(tǒng)融合方法,本文算法的融合效果更優(yōu)。

    從圖8可以看出,針對MR/SPECT圖像失智癥和膠質(zhì)瘤的融合圖中:基于DWT算法在細(xì)節(jié)特征信息的表示上性能較差,存在水平和垂直遮擋問題;基于NSCT算法在邊緣細(xì)節(jié)表示方面,與原始MR圖像相比,邊緣細(xì)節(jié)模糊;基于SR算法相較其他算法在右上角對比度較低,輪廓不明顯;基于PSR算法邊緣細(xì)節(jié)相對明顯,但整體對比度較低;本文算法融合效果明顯優(yōu)于其他算法,具有更清晰的細(xì)節(jié)表現(xiàn)力,對源圖像特征信息保留完整,沒有暗線并保持了較高的對比度,充分表明了本文算法可以在邊緣銳度和對比度等方面獲得更好的融合性能。

    3.2 評價(jià)指標(biāo)

    為了更加全面地對融合結(jié)果進(jìn)行評估,本文對測試集圖像進(jìn)行融合并計(jì)算客觀評價(jià)指標(biāo)MI、IE、SSIM、SF、AG平均值得到評價(jià)數(shù)據(jù)。MI表示融合圖像中包含源圖像的信息量,MI越大,表明融合圖像中包含的源圖像信息量越多;IE用來衡量圖像的信息豐富程度, IE越大,表明融合效果越好;SSIM從亮度、對比度和結(jié)構(gòu)三個(gè)方面衡量融合圖像與源圖像的相似程度,其值在[0,1]之間,SSIM越大,表明融合圖像與源圖像結(jié)構(gòu)越相似;SF體現(xiàn)圖像整體的活躍程度,SF越大,表示圖像的邊緣信息越多;AG反映圖像細(xì)節(jié)和紋理等邊緣信息的豐富程度,AG越大,表明圖像越清晰。

    從表1中可以看出:本文算法在大部分客觀評價(jià)指標(biāo)上達(dá)到了最佳值,在MI、IE、SSIM三個(gè)客觀評價(jià)指標(biāo)上均有良好的表現(xiàn),對于正常腦部、腦膜瘤、腦萎縮三種類型,在MI上相較性能相對較好且穩(wěn)定的基于SR算法分別提升了2.61%、2.54%和20.37%,表明本文算法具有能較好的提取邊緣和紋理信息的能力;IE解決了信息的量化度量問題,本文算法在實(shí)驗(yàn)中均是最優(yōu)值,對于正常腦部、腦膜瘤、腦萎縮三種類型,與基于SR算法相比分別提升了16.7%、24.9%和5.9%,客觀地表明了本文算法在圖像融合效果上的優(yōu)越性;SSIM是衡量兩幅圖像相似度的指標(biāo),在該指標(biāo)上本文算法在正常腦部和腦萎縮的實(shí)驗(yàn)中是最優(yōu)的,在腦膜瘤實(shí)驗(yàn)中次優(yōu)?;贒WT和NSCT的算法存在低對比度和結(jié)構(gòu)失真的問題,基于SR和PSR的算法和本文算法在亮度和對比度方面有更好的效果,但基于SR算法中存在細(xì)節(jié)丟失,綜上可以看出,本文所提的算法在針對CT/MR圖像進(jìn)行融合時(shí)可以更好地保留邊緣、紋理和細(xì)節(jié)信息。

    從表2中可以看出:本文算法在MI和SSIM上的性能均優(yōu)于其他四種對比算法,平均提高了34%和21.9%。在失智癥實(shí)驗(yàn)中,本文算法的IE達(dá)到最優(yōu)值,其SF和AG均為次優(yōu);在膠質(zhì)瘤實(shí)驗(yàn)中,本文算法在SF上達(dá)到最優(yōu),相較其他算法平均提高了4.5%,本文算法雖然沒有達(dá)到每個(gè)單項(xiàng)評價(jià)指標(biāo)均最優(yōu),但均可保持良好。綜上可以看出,本文算法融合效果最好,可以提供更好的融合醫(yī)學(xué)圖像,在保持源圖像的細(xì)節(jié)特征信息上表現(xiàn)較優(yōu)。

    由于醫(yī)學(xué)圖像具有隱私性和特殊性,在醫(yī)學(xué)圖像融合領(lǐng)域沒有完整的開源數(shù)據(jù)庫,融合過程中的測試集需要自己手動構(gòu)造,測試集的質(zhì)量很大程度上限制了訓(xùn)練網(wǎng)絡(luò)模型的性能,在實(shí)際應(yīng)用中,若有更準(zhǔn)確的數(shù)據(jù)集,可以進(jìn)一步提升融合效果,達(dá)到更好的客觀指標(biāo)。總體考慮,本文算法較好地保留了源圖像的輪廓以及細(xì)節(jié)信息,客觀評價(jià)與主觀觀察結(jié)果相符,為精確的病灶定位及手術(shù)治療提供了有利的影像依據(jù)。

    為了驗(yàn)證本文算法的時(shí)間效率,記錄了正常腦部實(shí)驗(yàn)中各個(gè)算法的運(yùn)行時(shí)間,結(jié)果如表3所示。

    算法運(yùn)行時(shí)間算法運(yùn)行時(shí)間基于DWT算法47.5基于NSCT算法74.6基于SR算法95.8基于PSR算法178.3本文算法64.7

    通過表3可以看出:由于基于DWT算法沒有參數(shù)尋優(yōu)的過程,直接計(jì)算區(qū)域能量,運(yùn)行最快,但得到的融合結(jié)果并不理想;基于PSR算法需要將源圖像進(jìn)行分塊并訓(xùn)練稀疏字典使得其運(yùn)行時(shí)間較長;本文算法相較基于PSR算法運(yùn)行時(shí)間減少了許多,表明采用網(wǎng)絡(luò)模型省去很多不必要的參數(shù)尋優(yōu),使得融合過程變得簡單和高效。本文實(shí)驗(yàn)采用了傳統(tǒng)融合方法對目標(biāo)圖進(jìn)行了構(gòu)造,耗費(fèi)的時(shí)間主要用于構(gòu)造數(shù)據(jù)集和網(wǎng)絡(luò)訓(xùn)練及測試,將網(wǎng)絡(luò)運(yùn)用于醫(yī)學(xué)圖像融合領(lǐng)域,得到訓(xùn)練成熟的網(wǎng)絡(luò)模型后,直接將源圖像輸入網(wǎng)絡(luò)模型,可以在較短的時(shí)間內(nèi)得到效果優(yōu)良的融合圖像。

    4 結(jié)語

    基于GAN強(qiáng)大的圖像生成特性以及殘差塊能提取更深層次特征的能力,本文提出了Res-GAN網(wǎng)絡(luò)并應(yīng)用于醫(yī)學(xué)圖像融合領(lǐng)域。實(shí)驗(yàn)結(jié)果表明,本文算法較好地保留了源圖像的邊緣、區(qū)域邊界及紋理等細(xì)節(jié)信息,避免了邊緣部分產(chǎn)生虛影,達(dá)到了較好的融合效果。但醫(yī)學(xué)圖像開源的數(shù)據(jù)集不足,即只有源圖像但沒有融合的目標(biāo)圖,本文實(shí)驗(yàn)是選取了優(yōu)秀的傳統(tǒng)方法,手動構(gòu)造目標(biāo)圖,從而造成了時(shí)間上的耗費(fèi)并影響了模型訓(xùn)練的優(yōu)劣。在實(shí)際應(yīng)用中,若取得質(zhì)量較好的完整數(shù)據(jù)集,直接輸入網(wǎng)絡(luò)對模型進(jìn)行訓(xùn)練,將會大幅減少實(shí)驗(yàn)中的工作量,得到訓(xùn)練好的模型便可直接將醫(yī)學(xué)圖像進(jìn)行融合,且由于訓(xùn)練集的質(zhì)量得到保證,融合效果將會大幅提升。在后續(xù)的工作中,需要對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行進(jìn)一步的改進(jìn),尋求更優(yōu)性能的多模態(tài)圖像融合算法,在實(shí)驗(yàn)中對目標(biāo)圖的構(gòu)造進(jìn)行進(jìn)一步的探索,減少其對實(shí)驗(yàn)結(jié)果的限制。

    參考文獻(xiàn) (References)

    [1]SHEN R, CHENG I, BASU A. Cross-scale coefficient selection for volumetric medical image fusion [J]. IEEE Transactions on Biomedical Engineering, 2013, 60(4): 1069-1079.

    [2]TAO L, QIAN Z. An improved medical image fusion algorithm based on wavelet transform [C]// Proceedings of the 7th International Conference on Natural Computation. Piscataway: IEEE, 2011: 76-78.

    [3]江澤濤,楊陽,郭川.基于提升小波變換的圖像融合改進(jìn)算法的研究[J].圖像與信號處理,2015,4:11-19.(JANG Z T, YANG Y, GUO C. Study on the improvement of image fusion algorithm based on lifting wavelet transform [J]. Journal of Image and Signal Processing, 2015, 4: 11-19.)

    [4]曹義親,雷章明,黃曉生.基于區(qū)域的非下采樣形態(tài)小波醫(yī)學(xué)圖像融合算法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(6):2379-2381.(CAO Y Q, LEI Z M, HUANG X S. Region-based algorithm for non-sampling morphological wavelet medical image fusion [J]. Application Research of Computers, 2012, 29(6): 2379-2381.)

    [5]LI S, YANG B, HU J. Performance comparison of different multi-resolution transforms for image fusion [J]. Information Fusion, 2011, 12(2): 74-84.

    [6]WANG J, PENG J, FENG X, et al. Fusion method for infrared and visible images by using non-negative sparse representation [J]. Infrared Physics and Technology, 2014, 67: 477-489.

    [7]XIANG T, YAN L, GAO R. A fusion algorithm for infrared and visible images based on adaptive dual-channel unit-linking PCNN in NSCT domain [J]. Infrared Physics and Technology, 2015, 69: 53-61.

    [8]MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization [J]. Infrared Physics and Technology, 2017, 82: 8-17.

    [9]HE G, XING S, HE X, et al. Image fusion method based on simultaneous sparse representation with non-subsampled contourlet transform [J]. IET Computer Vision, 2019, 13(2): 240-248.

    [10]DING S, ZHAO X, XU H, et al. NSCT-PCNN image fusion based on image gradient motivation [J]. IET Computer Vision, 2018, 12(4): 377-383.

    [11]藺素珍,韓澤.基于深度堆疊卷積神經(jīng)網(wǎng)絡(luò)的圖像融合[J].計(jì)算機(jī)學(xué)報(bào),2017,40(11):2506-2518.(LIN S Z, HAN Z. Images fusion based on deep stack convolutional neural network [J]. Chinese Journal of Computers, 2017, 40(11): 2506-2518.)

    [12]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [C]// Proceedings of the 25th International Conference on Neural Information Processing Systems. Red Hook: Curran Associates Inc., 2012: 1097-1105.

    [13]RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks [EB/OL]. [2019-01-20]. https://arxiv.org/pdf/1511.06434.pdf.

    [14]PATHAK D, KRHENBHL P, DONAHUE J, et al. Context encoders: feature learning by inpainting [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 2536-2544.

    [15]ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 5967-5976.

    [16]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets [C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2014: 2672-2680.

    猜你喜歡
    殘差醫(yī)學(xué)算法
    預(yù)防新型冠狀病毒, 你必須知道的事
    2019中國整合醫(yī)學(xué)大會光影
    Travellng thg World Full—time for Rree
    小心這些美麗陷阱!
    基于二階自相關(guān)過程殘差控制圖的改進(jìn)
    基于MVU降維的捕捉數(shù)據(jù)自動分割
    學(xué)習(xí)算法的“三種境界”
    算法框圖的補(bǔ)全
    算法初步知識盤點(diǎn)
    測量數(shù)據(jù)的殘差分析法
    免费人妻精品一区二区三区视频| 国产精品成人在线| 新久久久久国产一级毛片| 热99国产精品久久久久久7| 亚洲欧美精品专区久久| 亚洲第一区二区三区不卡| 久久鲁丝午夜福利片| 中文字幕人妻熟人妻熟丝袜美| 亚洲成人手机| 亚洲精品国产色婷婷电影| 自拍偷自拍亚洲精品老妇| 久久av网站| 熟妇人妻不卡中文字幕| 99九九线精品视频在线观看视频| 久久99精品国语久久久| 亚洲国产日韩一区二区| 十八禁高潮呻吟视频 | 一边亲一边摸免费视频| 永久免费av网站大全| 亚洲中文av在线| 欧美日韩亚洲高清精品| av国产久精品久网站免费入址| 久久午夜综合久久蜜桃| 久久免费观看电影| 尾随美女入室| 日韩视频在线欧美| 极品少妇高潮喷水抽搐| a级毛色黄片| 黄色毛片三级朝国网站 | 18禁在线无遮挡免费观看视频| 成人国产av品久久久| 狠狠精品人妻久久久久久综合| 久久人人爽人人片av| 69精品国产乱码久久久| 欧美精品一区二区大全| 国产探花极品一区二区| 日韩欧美一区视频在线观看 | 欧美三级亚洲精品| 国产又色又爽无遮挡免| tube8黄色片| 啦啦啦啦在线视频资源| 亚洲成人手机| 多毛熟女@视频| 亚洲怡红院男人天堂| 成人国产麻豆网| 一区二区三区精品91| 久久免费观看电影| 一区二区av电影网| 只有这里有精品99| 高清午夜精品一区二区三区| 成人免费观看视频高清| 夫妻性生交免费视频一级片| 亚洲av二区三区四区| 五月开心婷婷网| h日本视频在线播放| 中文字幕人妻丝袜制服| 纵有疾风起免费观看全集完整版| 永久免费av网站大全| av网站免费在线观看视频| 国产精品福利在线免费观看| 国产精品一区二区性色av| 日本免费在线观看一区| 欧美日韩一区二区视频在线观看视频在线| 人体艺术视频欧美日本| 亚洲欧美一区二区三区黑人 | 久久久久久久久大av| 免费不卡的大黄色大毛片视频在线观看| 大码成人一级视频| 伦理电影免费视频| 91在线精品国自产拍蜜月| 精品少妇内射三级| 欧美 亚洲 国产 日韩一| 日韩 亚洲 欧美在线| 建设人人有责人人尽责人人享有的| 性色av一级| 男人狂女人下面高潮的视频| 亚洲精品456在线播放app| 在线亚洲精品国产二区图片欧美 | 51国产日韩欧美| 麻豆乱淫一区二区| 香蕉精品网在线| 日日啪夜夜爽| 午夜影院在线不卡| 亚洲精品一二三| 九草在线视频观看| 日本免费在线观看一区| 日韩人妻高清精品专区| 亚洲欧美精品专区久久| 黑人高潮一二区| 大片电影免费在线观看免费| 精品久久久久久电影网| 亚洲国产欧美在线一区| 国产高清国产精品国产三级| 久久午夜综合久久蜜桃| 亚洲,一卡二卡三卡| 亚洲婷婷狠狠爱综合网| 99久久精品国产国产毛片| 一级毛片我不卡| 国产 精品1| 丝袜在线中文字幕| 国产91av在线免费观看| 老女人水多毛片| 国产一区有黄有色的免费视频| 在线观看免费视频网站a站| 中国美白少妇内射xxxbb| 国产精品99久久久久久久久| 国产精品99久久久久久久久| 久久久久国产网址| 人妻一区二区av| 80岁老熟妇乱子伦牲交| 欧美一级a爱片免费观看看| 成年女人在线观看亚洲视频| 色5月婷婷丁香| 亚洲久久久国产精品| 免费av不卡在线播放| 欧美97在线视频| 国产成人午夜福利电影在线观看| 国产成人freesex在线| 亚洲成人av在线免费| 中文天堂在线官网| 69精品国产乱码久久久| 久久99一区二区三区| 熟女电影av网| 久久久久国产网址| 日韩一区二区视频免费看| 又黄又爽又刺激的免费视频.| 国产午夜精品一二区理论片| 欧美日本中文国产一区发布| 国产黄片美女视频| 亚洲av欧美aⅴ国产| 深夜a级毛片| 一本—道久久a久久精品蜜桃钙片| 亚洲精品,欧美精品| 如日韩欧美国产精品一区二区三区 | 夜夜看夜夜爽夜夜摸| 大香蕉久久网| 边亲边吃奶的免费视频| av免费观看日本| 日本午夜av视频| 免费播放大片免费观看视频在线观看| 女人精品久久久久毛片| 另类亚洲欧美激情| 精品视频人人做人人爽| 高清视频免费观看一区二区| 欧美日本中文国产一区发布| 人体艺术视频欧美日本| 美女脱内裤让男人舔精品视频| 国产淫语在线视频| 亚洲国产欧美日韩在线播放 | 成人综合一区亚洲| 亚洲精品国产av蜜桃| 亚洲人与动物交配视频| 国语对白做爰xxxⅹ性视频网站| 午夜激情久久久久久久| 又大又黄又爽视频免费| 日韩成人伦理影院| 亚洲国产精品国产精品| 国产无遮挡羞羞视频在线观看| 成年人午夜在线观看视频| 高清不卡的av网站| 国产在视频线精品| 亚洲av免费高清在线观看| 精品一区二区三区视频在线| 五月天丁香电影| 欧美日韩av久久| a 毛片基地| 欧美xxxx性猛交bbbb| 麻豆精品久久久久久蜜桃| 国产精品久久久久久精品古装| 国产一级毛片在线| 91精品国产九色| 欧美成人精品欧美一级黄| 内地一区二区视频在线| 18禁动态无遮挡网站| 亚洲美女搞黄在线观看| 国产乱人偷精品视频| 观看免费一级毛片| 国产免费又黄又爽又色| 久久这里有精品视频免费| 日韩精品免费视频一区二区三区 | 人妻夜夜爽99麻豆av| 久久免费观看电影| 久久99蜜桃精品久久| 久久精品国产自在天天线| 九九久久精品国产亚洲av麻豆| 七月丁香在线播放| 国产一区二区在线观看av| 亚洲国产精品专区欧美| 爱豆传媒免费全集在线观看| 精品久久久久久久久av| 久久久久人妻精品一区果冻| 青青草视频在线视频观看| 啦啦啦视频在线资源免费观看| 少妇猛男粗大的猛烈进出视频| 久久97久久精品| 午夜老司机福利剧场| 热99国产精品久久久久久7| 91精品伊人久久大香线蕉| av国产久精品久网站免费入址| 久久97久久精品| 在线观看美女被高潮喷水网站| 黄色毛片三级朝国网站 | 日日摸夜夜添夜夜添av毛片| av专区在线播放| 精品人妻熟女毛片av久久网站| 亚洲经典国产精华液单| av福利片在线观看| 大话2 男鬼变身卡| 在线观看免费日韩欧美大片 | 人人妻人人澡人人看| 日韩制服骚丝袜av| 有码 亚洲区| 精品少妇久久久久久888优播| 欧美日韩国产mv在线观看视频| 简卡轻食公司| 日本欧美视频一区| 国产成人精品福利久久| 男的添女的下面高潮视频| 欧美日韩综合久久久久久| 交换朋友夫妻互换小说| 我的女老师完整版在线观看| 久久精品国产亚洲av涩爱| 男女无遮挡免费网站观看| 欧美+日韩+精品| 九九在线视频观看精品| 亚洲av中文av极速乱| 久久精品久久久久久噜噜老黄| 国产精品人妻久久久影院| 观看美女的网站| 国模一区二区三区四区视频| 最近的中文字幕免费完整| 中文字幕制服av| 久久狼人影院| 亚洲欧美日韩东京热| 大话2 男鬼变身卡| 精华霜和精华液先用哪个| 又粗又硬又长又爽又黄的视频| 色视频在线一区二区三区| 亚洲婷婷狠狠爱综合网| 日韩 亚洲 欧美在线| 亚洲国产日韩一区二区| av天堂中文字幕网| 成年美女黄网站色视频大全免费 | 日韩人妻高清精品专区| 亚洲国产av新网站| 欧美少妇被猛烈插入视频| 王馨瑶露胸无遮挡在线观看| 久久精品夜色国产| av黄色大香蕉| 国产精品99久久久久久久久| 三级国产精品欧美在线观看| 国产一区二区在线观看日韩| 国国产精品蜜臀av免费| 99久久综合免费| 秋霞在线观看毛片| 亚洲图色成人| 亚洲电影在线观看av| av在线观看视频网站免费| 夫妻午夜视频| 免费观看无遮挡的男女| 男人爽女人下面视频在线观看| 男人狂女人下面高潮的视频| 国产高清三级在线| 亚洲,欧美,日韩| 免费观看在线日韩| 国产午夜精品久久久久久一区二区三区| 亚洲欧洲国产日韩| 精品久久久久久久久av| 日日摸夜夜添夜夜爱| 欧美日韩av久久| 熟妇人妻不卡中文字幕| 日韩欧美一区视频在线观看 | 亚洲av电影在线观看一区二区三区| 18禁在线无遮挡免费观看视频| 亚洲欧美一区二区三区国产| 黑人巨大精品欧美一区二区蜜桃 | 91久久精品国产一区二区成人| 成人二区视频| 丁香六月天网| 国产精品人妻久久久久久| 伦理电影大哥的女人| 人妻夜夜爽99麻豆av| 亚洲美女黄色视频免费看| 日韩不卡一区二区三区视频在线| 中文精品一卡2卡3卡4更新| 久久久久人妻精品一区果冻| 91精品伊人久久大香线蕉| 麻豆成人午夜福利视频| 日日啪夜夜爽| 中文字幕人妻丝袜制服| 大码成人一级视频| 久久午夜福利片| 建设人人有责人人尽责人人享有的| 日本91视频免费播放| 少妇被粗大的猛进出69影院 | 亚洲内射少妇av| 好男人视频免费观看在线| 妹子高潮喷水视频| 人妻 亚洲 视频| 全区人妻精品视频| 免费观看a级毛片全部| 欧美少妇被猛烈插入视频| 午夜老司机福利剧场| 亚洲国产欧美日韩在线播放 | 一本色道久久久久久精品综合| 久久精品久久精品一区二区三区| 亚洲精品成人av观看孕妇| 日韩视频在线欧美| 国产av精品麻豆| 欧美bdsm另类| 一级二级三级毛片免费看| 日韩免费高清中文字幕av| 97精品久久久久久久久久精品| 亚洲国产欧美日韩在线播放 | 国产av码专区亚洲av| 熟女电影av网| 国产精品一区二区三区四区免费观看| 国产成人精品无人区| 看非洲黑人一级黄片| av又黄又爽大尺度在线免费看| 99九九线精品视频在线观看视频| 国产 精品1| 美女中出高潮动态图| 色网站视频免费| 国产成人91sexporn| 日韩成人av中文字幕在线观看| 国产真实伦视频高清在线观看| 国产精品无大码| 成人影院久久| 久久久久精品性色| 精品久久久噜噜| 九九在线视频观看精品| 草草在线视频免费看| 亚洲,一卡二卡三卡| 丝袜在线中文字幕| 国产伦在线观看视频一区| 汤姆久久久久久久影院中文字幕| 国产精品欧美亚洲77777| 色婷婷久久久亚洲欧美| 国产高清三级在线| 插逼视频在线观看| 亚洲av男天堂| 日韩欧美精品免费久久| 国产在线一区二区三区精| 国产又色又爽无遮挡免| 亚洲国产欧美日韩在线播放 | 精品少妇黑人巨大在线播放| 日本与韩国留学比较| 一级毛片电影观看| 欧美日韩av久久| 午夜影院在线不卡| 制服丝袜香蕉在线| av又黄又爽大尺度在线免费看| 久久国内精品自在自线图片| 丁香六月天网| 久久久久久久久久人人人人人人| 日韩不卡一区二区三区视频在线| 91精品伊人久久大香线蕉| 久久精品久久久久久久性| 人人妻人人爽人人添夜夜欢视频 | 日韩大片免费观看网站| 99九九在线精品视频 | 中文欧美无线码| 青青草视频在线视频观看| 婷婷色av中文字幕| 人人妻人人爽人人添夜夜欢视频 | 男女国产视频网站| 亚洲精品久久午夜乱码| 啦啦啦啦在线视频资源| a级片在线免费高清观看视频| 久久免费观看电影| 午夜激情久久久久久久| 免费在线观看成人毛片| 伦理电影大哥的女人| 中国三级夫妇交换| 亚洲国产色片| 99久久精品一区二区三区| 国内少妇人妻偷人精品xxx网站| 丰满乱子伦码专区| 自线自在国产av| av.在线天堂| 亚洲欧洲日产国产| 国产精品蜜桃在线观看| 人人妻人人澡人人爽人人夜夜| 国产伦精品一区二区三区视频9| 日韩强制内射视频| 另类精品久久| 女人久久www免费人成看片| 亚洲综合色惰| 欧美日韩av久久| 亚洲性久久影院| 久久精品国产自在天天线| 亚洲四区av| 人人妻人人看人人澡| 国产一区二区在线观看日韩| videossex国产| 国产av一区二区精品久久| 黄片无遮挡物在线观看| 久久 成人 亚洲| 中文字幕人妻熟人妻熟丝袜美| 三级国产精品欧美在线观看| 免费av中文字幕在线| 在线观看www视频免费| 国产精品.久久久| 亚洲av.av天堂| 亚洲欧美一区二区三区国产| 精品少妇黑人巨大在线播放| 久久精品国产自在天天线| 日韩免费高清中文字幕av| a级一级毛片免费在线观看| 亚洲精品日韩av片在线观看| 国产精品久久久久久av不卡| 在线观看一区二区三区激情| 交换朋友夫妻互换小说| 一级毛片久久久久久久久女| 久久精品国产亚洲av天美| 亚洲精品aⅴ在线观看| 亚洲av电影在线观看一区二区三区| 极品教师在线视频| 成年美女黄网站色视频大全免费 | 欧美精品国产亚洲| a级毛色黄片| 人人妻人人澡人人爽人人夜夜| 国产亚洲91精品色在线| 久久99热6这里只有精品| 亚洲av二区三区四区| 在线观看三级黄色| a级毛色黄片| 老司机影院毛片| 大片电影免费在线观看免费| 人妻系列 视频| 国产精品一区二区在线观看99| 九色成人免费人妻av| 在线观看www视频免费| 国产精品.久久久| 色哟哟·www| 中文字幕亚洲精品专区| 免费观看av网站的网址| 国国产精品蜜臀av免费| 国产精品蜜桃在线观看| 寂寞人妻少妇视频99o| 成人特级av手机在线观看| 如何舔出高潮| 男女免费视频国产| 黄色怎么调成土黄色| 丝袜喷水一区| 只有这里有精品99| 一本久久精品| 男女无遮挡免费网站观看| 亚洲精品日韩av片在线观看| 色婷婷久久久亚洲欧美| 亚洲欧美一区二区三区黑人 | 人人澡人人妻人| 亚洲精品国产av蜜桃| 在线看a的网站| 成人18禁高潮啪啪吃奶动态图 | 大片免费播放器 马上看| av专区在线播放| av福利片在线| 久久久久精品性色| 岛国毛片在线播放| 精品久久久久久久久av| 色视频www国产| 国产高清不卡午夜福利| a级毛片免费高清观看在线播放| 精品亚洲成国产av| 精华霜和精华液先用哪个| 亚洲高清免费不卡视频| 国产成人午夜福利电影在线观看| 2022亚洲国产成人精品| 国产国拍精品亚洲av在线观看| 国产欧美日韩一区二区三区在线 | 大话2 男鬼变身卡| 综合色丁香网| 精品久久久噜噜| 日韩制服骚丝袜av| 97精品久久久久久久久久精品| 色网站视频免费| 久久韩国三级中文字幕| 国产精品人妻久久久久久| 亚洲精品色激情综合| 纯流量卡能插随身wifi吗| 日韩av不卡免费在线播放| 午夜福利影视在线免费观看| 人人妻人人爽人人添夜夜欢视频 | 丰满少妇做爰视频| 高清视频免费观看一区二区| 一级片'在线观看视频| av线在线观看网站| 国产真实伦视频高清在线观看| av女优亚洲男人天堂| 亚洲经典国产精华液单| 国产精品女同一区二区软件| 午夜影院在线不卡| 九九久久精品国产亚洲av麻豆| 热re99久久精品国产66热6| 91久久精品电影网| 久久国内精品自在自线图片| 国产精品.久久久| 国产精品女同一区二区软件| 青春草视频在线免费观看| 精品久久久久久电影网| 在线观看www视频免费| 欧美精品一区二区大全| 精品卡一卡二卡四卡免费| 人人妻人人爽人人添夜夜欢视频 | 国产 精品1| 在线天堂最新版资源| 99九九在线精品视频 | 欧美性感艳星| 久久狼人影院| 日韩三级伦理在线观看| 中文字幕制服av| 国产精品福利在线免费观看| 丝袜脚勾引网站| 午夜福利在线观看免费完整高清在| 亚洲成人手机| 精品人妻熟女毛片av久久网站| 噜噜噜噜噜久久久久久91| av专区在线播放| 日韩三级伦理在线观看| 高清在线视频一区二区三区| 亚洲精品日韩av片在线观看| 国产黄色视频一区二区在线观看| 欧美xxⅹ黑人| 精品国产国语对白av| 国产一区二区三区综合在线观看 | 欧美变态另类bdsm刘玥| 国产一区亚洲一区在线观看| 又爽又黄a免费视频| 国产熟女午夜一区二区三区 | 乱系列少妇在线播放| 永久网站在线| 一本久久精品| 老司机影院毛片| 美女福利国产在线| 精品人妻熟女毛片av久久网站| 搡老乐熟女国产| 久久久精品免费免费高清| 亚洲自偷自拍三级| 日本91视频免费播放| 亚洲怡红院男人天堂| 18禁动态无遮挡网站| 亚洲熟女精品中文字幕| 99热这里只有是精品在线观看| 在线观看av片永久免费下载| 成年人午夜在线观看视频| 天堂中文最新版在线下载| 免费观看的影片在线观看| 色网站视频免费| 日韩欧美精品免费久久| 99精国产麻豆久久婷婷| 美女内射精品一级片tv| 亚洲经典国产精华液单| 精品少妇内射三级| 久久久国产精品麻豆| 久久韩国三级中文字幕| 欧美激情极品国产一区二区三区 | 国产精品99久久久久久久久| 国产精品一区二区在线不卡| 国产av一区二区精品久久| 亚洲欧洲日产国产| 亚洲丝袜综合中文字幕| 国产国拍精品亚洲av在线观看| 成人美女网站在线观看视频| 一级毛片 在线播放| av黄色大香蕉| 久久久久久久久大av| 中文字幕人妻熟人妻熟丝袜美| 99热网站在线观看| 国产乱人偷精品视频| 国内揄拍国产精品人妻在线| 99久久人妻综合| www.色视频.com| 国产在线一区二区三区精| 日本vs欧美在线观看视频 | 哪个播放器可以免费观看大片| 日本黄色片子视频| 亚洲精品,欧美精品| 日本黄色片子视频| 亚洲欧美精品专区久久| 久久精品久久久久久久性| av播播在线观看一区| 婷婷色av中文字幕| 欧美亚洲 丝袜 人妻 在线| 啦啦啦啦在线视频资源| 日韩中字成人| 高清毛片免费看| 日韩制服骚丝袜av| 好男人视频免费观看在线| 中文字幕人妻丝袜制服| 夜夜骑夜夜射夜夜干| 国产免费一级a男人的天堂| 国产69精品久久久久777片| 久久精品久久久久久噜噜老黄| 免费黄频网站在线观看国产| 国产成人精品婷婷| 亚洲,欧美,日韩| 午夜福利影视在线免费观看| 在线天堂最新版资源| 人妻少妇偷人精品九色| 日日啪夜夜撸| 欧美成人午夜免费资源| www.色视频.com| 成人美女网站在线观看视频| 有码 亚洲区| 人人妻人人爽人人添夜夜欢视频 | 国产乱来视频区| 日本与韩国留学比较| 嘟嘟电影网在线观看| 免费播放大片免费观看视频在线观看| av线在线观看网站| 一本—道久久a久久精品蜜桃钙片| 成人美女网站在线观看视频| 国产精品欧美亚洲77777|