• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于卷積神經(jīng)網(wǎng)絡(luò)的弱光照?qǐng)D像增強(qiáng)算法

    2019-08-01 01:54:12程宇鄧德祥顏佳范賜恩
    計(jì)算機(jī)應(yīng)用 2019年4期
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

    程宇 鄧德祥 顏佳 范賜恩

    摘 要:針對(duì)現(xiàn)有的弱光照?qǐng)D像增強(qiáng)算法強(qiáng)烈依賴于Retinex理論、需人工調(diào)整參數(shù)等問(wèn)題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的弱光照?qǐng)D像增強(qiáng)算法。首先,利用四種圖像增強(qiáng)手段處理弱光照?qǐng)D像得到四張派生圖,分別為:限制對(duì)比度自適應(yīng)直方圖均衡派生圖、伽馬變換派生圖、對(duì)數(shù)變換派生圖、亮通道增強(qiáng)派生圖;然后,將弱光照?qǐng)D像及其四張派生圖輸入到CNN中;最后經(jīng)過(guò)CNN的激活,輸出增強(qiáng)圖像。所提算法直接端到端地實(shí)現(xiàn)弱光照?qǐng)D像到正常光照?qǐng)D像的映射,不需要按照Retinex模型先估計(jì)光照?qǐng)D像或反射率圖像,也無(wú)需調(diào)整任何參數(shù)。所提算法與NPEA(Naturalness Preserved Enhancement Algorithm for non-uniform illumination images)、LIME(Low-light image enhancement via Illumination Map Estimation)、LNET(LightenNet)等算法進(jìn)行了對(duì)比。在合成弱光照?qǐng)D像的實(shí)驗(yàn)中,所提算法的均方誤差(MSE)、峰值信噪比(PSNR)、結(jié)構(gòu)相似度(SSIM)指標(biāo)均優(yōu)于對(duì)比算法。在真實(shí)弱光照?qǐng)D像實(shí)驗(yàn)中,所提算法的平均自然圖像質(zhì)量評(píng)價(jià)度量(NIQE)、熵指標(biāo)為所有對(duì)比方法中最優(yōu),平均對(duì)比度增益指標(biāo)在所有方法中排名第二。實(shí)驗(yàn)結(jié)果表明:相對(duì)于對(duì)比算法,所提算法的魯棒性較好;經(jīng)所提算法增強(qiáng)后,圖像的細(xì)節(jié)更豐富,對(duì)比度更高,擁有更好的視覺(jué)效果和圖像質(zhì)量。

    關(guān)鍵詞:弱光照?qǐng)D像增強(qiáng);Retinex模型;派生圖;卷積神經(jīng)網(wǎng)絡(luò);自然圖像質(zhì)量評(píng)價(jià)

    中圖分類號(hào):TP391.4

    文獻(xiàn)標(biāo)志碼:A

    文章編號(hào):1001-9081(2019)04-1162-08

    0?引言

    在很多計(jì)算機(jī)視覺(jué)任務(wù)中,如目標(biāo)檢測(cè)、圖像檢索、圖像分割等,都要求輸入圖像亮度合適、細(xì)節(jié)清晰。然而,在弱光照或者曝光不足的情況下,采集到的圖像存在亮度低、色彩不飽和、細(xì)節(jié)模糊等缺點(diǎn),這些缺點(diǎn)將影響到后續(xù)的計(jì)算機(jī)視覺(jué)任務(wù)。因此,研究弱光照?qǐng)D像的增強(qiáng)很有必要。為了改善這類圖像的視覺(jué)效果,需要對(duì)其進(jìn)行增強(qiáng)處理,基本增強(qiáng)手段主要包括:1)通過(guò)調(diào)整對(duì)比度來(lái)增強(qiáng)圖像邊緣和細(xì)節(jié);

    2)通過(guò)調(diào)節(jié)動(dòng)態(tài)范圍抑制噪聲等手段來(lái)改善圖像清晰度;

    3)通過(guò)提高較暗區(qū)域的亮度,使圖像亮度保持均勻;

    4)通過(guò)調(diào)整圖像的顏色飽和度使其獲得良好的視覺(jué)效果等。

    近年來(lái),深度學(xué)習(xí)發(fā)展迅速,在高層次視覺(jué)任務(wù)中應(yīng)用非常廣泛,如圖像識(shí)別[1]、語(yǔ)義分割[2]等。

    與此同時(shí),也有一些研究人員嘗試用深度學(xué)習(xí)算法去解決低層次圖像領(lǐng)域問(wèn)題,如圖像去噪[3]、圖像去霧[4-5]、圖像超分辨率[6]等,這些算法也取得了較好的成績(jī)。相對(duì)于傳統(tǒng)算法,深度學(xué)習(xí)算法具有不需要人工設(shè)計(jì)特征提取方法,可直接端到端地訓(xùn)練和輸出結(jié)果等優(yōu)勢(shì)。

    因此,在深度學(xué)習(xí)廣泛應(yīng)用的背景下,本文嘗試用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)算法對(duì)傳統(tǒng)的弱光照?qǐng)D像增強(qiáng)問(wèn)題進(jìn)行改進(jìn)。

    1?Retinex理論和相關(guān)工作

    1.1?Retinex理論

    弱光照?qǐng)D像增強(qiáng)是圖像處理領(lǐng)域的一個(gè)經(jīng)典問(wèn)題。該問(wèn)題旨在從亮度偏暗、細(xì)節(jié)模糊、質(zhì)量較低的圖像中恢復(fù)出亮度適中、細(xì)節(jié)明顯、有良好視覺(jué)效果的圖像。

    Retinex理論模型[7]是弱光照?qǐng)D像增強(qiáng)領(lǐng)域的一個(gè)基礎(chǔ)理論模型。模型的基本假設(shè)是原始圖像是光照?qǐng)D像和反射率圖像的乘積,可表示為下式形式:

    其中:x表示像素點(diǎn);I(x)表示采集到的原始圖像;L(x)表示光照?qǐng)D像;R(x)表示反射率圖像?;赗etinex模型的圖像增強(qiáng)算法的一般處理順序是先從原始圖像中估計(jì)出光照?qǐng)D像L(x),進(jìn)而算出反射率圖像R(x),消除L(x)中弱光照的影響后得到亮度適中的增強(qiáng)光照?qǐng)D像Len(x),Len(x)與R(x)相乘得到增強(qiáng)圖像。目前大多數(shù)弱光照增強(qiáng)算法的研究都是基于Retinex理論模型,這類算法的主要難點(diǎn)在于利用人工提取的圖像特征和統(tǒng)計(jì)先驗(yàn)估計(jì)光照?qǐng)D像。

    1.2?相關(guān)工作

    弱光照?qǐng)D像增強(qiáng)算法的相關(guān)研究一直在進(jìn)行,從中發(fā)展出了許多不同類型的算法。例如,文獻(xiàn)[8-9]根據(jù)直方圖調(diào)整圖像的灰度動(dòng)態(tài)范圍來(lái)增強(qiáng)圖像,此類算法計(jì)算簡(jiǎn)單易于實(shí)現(xiàn),但在圖像較暗區(qū)域的增強(qiáng)效果不足,較亮區(qū)域又容易過(guò)度增強(qiáng),導(dǎo)致顏色失真。后來(lái),很多研究者提出基于Retinex模型的算法,這類算法的一般步驟都是先從弱光照?qǐng)D像中估計(jì)出光照?qǐng)D像,然后根據(jù)式(1)得到反射率圖像,通過(guò)一定的增強(qiáng)手段增強(qiáng)光照?qǐng)D像,最后與反射率圖像相乘得到增強(qiáng)圖像。Guo等[10]提出了LIME(Low-light image enhancement via Illumination Map Estimation)算法,該算法通過(guò)優(yōu)化弱光照?qǐng)D像的亮通道圖得到全局平滑且邊緣清晰的光照?qǐng)D像,光照?qǐng)D像經(jīng)伽馬變換后得到增強(qiáng)的光照?qǐng)D像。文獻(xiàn)[11-12]中均用高斯分布和拉普拉斯分布來(lái)擬合光照?qǐng)D像和反射率圖像的分布規(guī)律,以弱光照?qǐng)D像的V通道圖像為初始光照?qǐng)D像,經(jīng)ADMM(Alternating Direction Method of Multipliers)算法迭代求得光照?qǐng)D像和反射率圖像的最優(yōu)解;然后與文獻(xiàn)[10]一樣,使用伽馬變換得到增強(qiáng)的光照?qǐng)D像。文獻(xiàn)[13]中提出了NPEA(Naturalness Preserved Enhancement Algorithm for non-uniform illumination images)算法,該算法設(shè)計(jì)了一個(gè)光照敏感的濾波器,使用該濾波器對(duì)弱光照?qǐng)D像濾波得到光照?qǐng)D像,然后用改進(jìn)的對(duì)數(shù)變換對(duì)光照?qǐng)D像進(jìn)行調(diào)節(jié)得到增強(qiáng)的光照?qǐng)D像。然而,根據(jù)式(1)可知,在反射率圖像R(x)未知的條件下,根據(jù)原始圖像I(x)估計(jì)光照?qǐng)D像L(x)是一個(gè)病態(tài)問(wèn)題,估計(jì)的光照?qǐng)D像并不完全準(zhǔn)確,光照?qǐng)D像估計(jì)錯(cuò)誤會(huì)導(dǎo)致增強(qiáng)圖像中出現(xiàn)亮度不自然的問(wèn)題,這也是所有基于Retinex模型的算法的固有缺陷。

    圖1是個(gè)典型例子,文獻(xiàn)[11]算法因?yàn)楣庹請(qǐng)D像估計(jì)錯(cuò)誤導(dǎo)致增強(qiáng)失敗,本文算法則能得到視覺(jué)效果良好的增強(qiáng)圖像。

    Fu等[14]提出了基于多派生光照?qǐng)D像融合的算法MF(Multi-scale derived images Fusion)。首先根據(jù)亮通道方法得到光照?qǐng)D像和反射率圖像,使用引導(dǎo)濾波優(yōu)化光照?qǐng)D像;然后用三種增強(qiáng)手段處理光照?qǐng)D像得到三個(gè)派生光照?qǐng)D像;最后根據(jù)人工設(shè)計(jì)的權(quán)重參數(shù),融合三個(gè)派生光照?qǐng)D像得到增強(qiáng)的光照?qǐng)D像,反射率圖像和增強(qiáng)的光照?qǐng)D像相乘得到增強(qiáng)圖像。該算法能有效改善圖像較暗區(qū)域的視覺(jué)效果,同時(shí)保持明亮區(qū)域不出現(xiàn)失真現(xiàn)象;但是該算法的融合權(quán)重參數(shù)需要人工設(shè)計(jì),且融合權(quán)重參數(shù)不是基于學(xué)習(xí)的方法得到的,不具有統(tǒng)計(jì)規(guī)律,因而魯棒性不佳。

    此外,有研究者發(fā)現(xiàn)弱光照?qǐng)D像取反的結(jié)果類似于有霧圖片。

    Dong等[15]提出的快速有效低光照視頻增強(qiáng)算法,將弱光照?qǐng)D像取反后,用暗通道去霧算法對(duì)其進(jìn)行處理,然后將結(jié)果再次取反得到增強(qiáng)圖像。這類算法的增強(qiáng)效果取決于去霧處理中透射率圖估計(jì)的準(zhǔn)確程度。而由霧形成的物理模型可知,直接根據(jù)霧圖像估計(jì)透射率圖也是一個(gè)病態(tài)問(wèn)題[4],所以基于Retinex模型的算法的缺陷同樣也存在于這類方法中。

    有別于傳統(tǒng)增強(qiáng)算法,近年來(lái)發(fā)展出了一些基于學(xué)習(xí)的增強(qiáng)算法。Fotiadou等[16]提出一種基于稀疏表示的增強(qiáng)算法。首先,分別在暗光條件下和正常光照條件對(duì)相同場(chǎng)景采集圖像,將暗光圖像集和正常圖像集用于聯(lián)合字典學(xué)習(xí),得到兩個(gè)圖像集的聯(lián)合字典及具有匹配關(guān)系的暗光條件編碼與正常光照條件編碼;然后,用聯(lián)合字典對(duì)輸入的弱光照?qǐng)D像編碼,得到暗光條件編碼,根據(jù)匹配關(guān)系找到對(duì)應(yīng)正常光照條件下的編碼;最后,再由正常光照條件下的編碼和聯(lián)合字典恢復(fù)出增強(qiáng)圖像。在深度學(xué)習(xí)廣泛運(yùn)用于計(jì)算機(jī)視覺(jué)的各個(gè)領(lǐng)域的情況下,也有研究人員嘗試用深度學(xué)習(xí)來(lái)解決弱光照?qǐng)D像增強(qiáng)問(wèn)題。Li等[17]提出了卷積神經(jīng)網(wǎng)絡(luò)弱光照?qǐng)D像增強(qiáng)算法LNET(LightenNet),該算法使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)估計(jì)光照?qǐng)D像,然后使用引導(dǎo)濾波優(yōu)化光照?qǐng)D像,最后根據(jù)Retinex模型得到增強(qiáng)圖像。Lore等[18] 受到深度學(xué)習(xí)在圖像去噪中應(yīng)用的啟發(fā),將一個(gè)經(jīng)典的圖像去噪自編碼器SSDA(Stack Sparse Denoising Autoencoder)運(yùn)用在弱光照?qǐng)D像增強(qiáng)上。文獻(xiàn)[17-18]的嘗試表明深度學(xué)習(xí)算法在弱光照?qǐng)D像增強(qiáng)問(wèn)題上同樣適用,因此本文結(jié)合傳統(tǒng)圖像增強(qiáng)手段和卷積神經(jīng)網(wǎng)絡(luò),提出了基于卷積神經(jīng)網(wǎng)絡(luò)的弱光照?qǐng)D像增強(qiáng)算法。本文算法擺脫了Retinex模型的限制,不需要估計(jì)光照?qǐng)D像或反射率圖像,直接端到端地實(shí)現(xiàn)弱光照?qǐng)D像增強(qiáng)。

    2?本文算法

    本文提出的卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱為MDIIN(Multiple Derived Image Inputs Network)。MDIIN的作用是激活原始弱光照?qǐng)D像和由其生成的四張派生圖,輸出增強(qiáng)圖像。通過(guò)在合成數(shù)據(jù)集上的訓(xùn)練,MDIIN成功學(xué)習(xí)到了映射規(guī)律,有效地實(shí)現(xiàn)了弱光照?qǐng)D像的增強(qiáng)。

    2.1?派生圖

    弱光照條件下采集到的圖像存在以下問(wèn)題:圖像的對(duì)比度低,整體亮度偏低,暗處區(qū)域的細(xì)節(jié)不清晰。針對(duì)以上的問(wèn)題,本文算法首先采用傳統(tǒng)增強(qiáng)手段生成四種派生圖,這四種派生圖在對(duì)比度、亮度、顏色飽和度上均優(yōu)于原圖。

    1)限制對(duì)比度自適應(yīng)直方圖均衡派生圖:直方圖均衡可提升圖像的對(duì)比度,提高圖像中弱光照區(qū)域的亮度。直方圖均衡的方法有很多種,簡(jiǎn)單的直方圖均衡計(jì)算復(fù)雜度低、耗時(shí)短;但是由于這種方法是全局均衡,對(duì)于整體亮度偏低的圖像的增強(qiáng)效果有限,而且可能導(dǎo)致顏色失真。為了克服簡(jiǎn)單直方圖均衡的缺點(diǎn),文獻(xiàn)[9]中提出了限制對(duì)比度自適應(yīng)直方圖均衡算法CLAHE(Contrast Limited Adaptive Histogram Equalization),CLAHE的分塊操作使圖像的整體亮度得到提升,亮度分布也更加均勻。CLAHE算法中帶閾值限制的圖像子塊直方圖均衡可適當(dāng)?shù)卦鰪?qiáng)圖像的對(duì)比度。因此,本文選取CLAHE算法生成第一張派生圖Ich:Ich=CLAHE(I)(2)

    2)伽馬變換派生圖:伽馬變換是一種非線性地改變圖像亮度的方法。本文選用伽馬變換生成第二張派生圖Igm:Igm=αIγ(3)

    當(dāng)γ<1時(shí),伽馬變換可提升圖像的亮度,增強(qiáng)圖像暗處的細(xì)節(jié)。本文中α=1,γ=0.4。如圖2(c)所示,伽馬變換可有效提高圖像的整體亮度。

    3)對(duì)數(shù)變換派生圖:與伽馬變換一樣,對(duì)數(shù)變換也是一種非線性地改變圖像亮度的方法。兩者的區(qū)別是伽馬變換對(duì)低亮度區(qū)域的亮度提升作用更大,對(duì)數(shù)變換對(duì)高亮度區(qū)域的亮度提升作用更大。本文算法中,兩種變換互為補(bǔ)充,能夠更合理地提升圖像亮度。對(duì)數(shù)變換公式如下:Ilog=c·log(1+v)(1+I·v)(4)

    本文中c=1,v=10。

    4)亮通道增強(qiáng)派生圖:首先將原始弱光照?qǐng)D像的亮通道圖像當(dāng)作光照?qǐng)D像L[10],由式(1)可得到反射率圖像R。對(duì)原始圖像做α=1,γ=0.5的伽馬變換得到增強(qiáng)的光照?qǐng)D像Len,Len和R相乘得到亮通道增強(qiáng)派生圖Ile:

    如圖2(e)所示,相對(duì)于原圖,亮通道增強(qiáng)派生圖的顏色飽和度、亮度都有提升。

    2.2?網(wǎng)絡(luò)結(jié)構(gòu)

    MDIIN是一個(gè)基于Encoder-Decoder結(jié)構(gòu)的網(wǎng)絡(luò)。在圖像去噪[19]、顏色校正[20]、圖像去霧[21]、延時(shí)攝影視頻生成[22]等領(lǐng)域中,Encoder-Decoder結(jié)構(gòu)得到了廣泛的應(yīng)用,這說(shuō)明Encoder-Decoder結(jié)構(gòu)非常適用于圖像生成網(wǎng)絡(luò)。

    MDIIN在Encoder-Decoder結(jié)構(gòu)中增加了跳躍連接,將Encoder的特征圖和淺層Decoder的特征圖輸入到Decoder的最后一層。跳躍連接在網(wǎng)絡(luò)淺層和深層之間增加了通路,可以大幅加快網(wǎng)絡(luò)訓(xùn)練的收斂速度[19],而且跳躍連接讓每一層的特征圖得到了更充分的利用,有助于生成細(xì)節(jié)更清晰的增強(qiáng)圖像。

    圖3為MDIIN的結(jié)構(gòu)。MDIIN包含15個(gè)卷積層和3個(gè)反卷積層,卷積操作的步長(zhǎng)都為1,每個(gè)卷積層和反卷積層后面都連接著一個(gè)Leaky ReLU(Leaky Rectified Linear Unit)激活層,Leaky ReLU激活函數(shù)的負(fù)半?yún)^(qū)的斜率為0.1。MDIIN中的所有卷積操作都是空洞卷積,空洞卷積未增加網(wǎng)絡(luò)的計(jì)算量,卻能增大局部感受野的大小,利用更多的圖像信息。

    MDIIN的網(wǎng)絡(luò)參數(shù)設(shè)置如表1所示,其中:Block表示卷積塊類型,Layer表示層類型,conv表示卷積層,deconv表示反卷積層,Weight Dimension表示卷積核參數(shù)維度,Dilation表示空洞卷積的間隔像素點(diǎn)個(gè)數(shù),Padding表示卷積時(shí)邊緣補(bǔ)充像素的數(shù)量。網(wǎng)絡(luò)輸入為弱光照?qǐng)D像及其四張派生圖,因此Encoder1的輸入通道數(shù)為15,輸出為增強(qiáng)圖像,因此Decoder3輸出通道數(shù)為3。將Encoder1、Encoder2、Encoder3、Decoder1、Decoder2的輸出和Decoder3中第二個(gè)卷積層的輸出聚合,然后全部輸入到Decoder3的最后一個(gè)卷積層,因此Decoder3的最后一個(gè)卷積層的輸入通道數(shù)為192。

    2.3?損失函數(shù)

    本文采用均方誤差(Mean Square Error, MSE)和L1范數(shù)損失作為MDIIN的損失函數(shù)。在圖像生成類任務(wù)中,MSE是最常用的損失函數(shù)。近期有研究顯示,訓(xùn)練中使用復(fù)合形式的損失函數(shù)比使用單一的MSE損失函數(shù)能得到表現(xiàn)更好的網(wǎng)絡(luò)[23]。因此,除MSE外,本文還加入L1范數(shù)損失以提高增強(qiáng)結(jié)果的圖像質(zhì)量。最終的損失函數(shù)公式如下:L(w)=

    3?實(shí)驗(yàn)與結(jié)果分析

    3.1?實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

    MDIIN訓(xùn)練時(shí),輸入圖像塊大小設(shè)置為128×128,優(yōu)化算法為ADAM(Adaptive Moment Estimation)[24],批處理圖像塊數(shù)量為10,初始學(xué)習(xí)率為0.00001,每20000次迭代學(xué)習(xí)率衰減75%,總迭代次數(shù)為60000。訓(xùn)練使用的GPU型號(hào)為Nvidia K80,在該環(huán)境下,訓(xùn)練一次耗時(shí)12h。

    3.2?訓(xùn)練數(shù)據(jù)

    訓(xùn)練數(shù)據(jù)直接決定了卷積神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)到什么映射規(guī)律。在弱光照?qǐng)D像增強(qiáng)領(lǐng)域,目前還沒(méi)有既包含弱光照?qǐng)D像又包含其對(duì)應(yīng)正常光照?qǐng)D像的數(shù)據(jù)集,因此,本文利用正常清晰光照的圖像合成弱光照?qǐng)D像。

    圖4是一個(gè)合成弱光照?qǐng)D像的例子。首先,在互聯(lián)網(wǎng)和其他圖像數(shù)據(jù)集上找到600張光照正常對(duì)比度高的圖像;然后,將圖像轉(zhuǎn)換到HSV(Hue Saturation Value)空間,對(duì)V通道圖像V做伽馬變換得到合成弱光照?qǐng)D像的V通道圖像Vdark:Vdark=αVγ,其中α∈(0.8,1),γ∈(1.8,3.4);然后用Vdark替換V,其他兩個(gè)通道不變,轉(zhuǎn)換回RGB(Red Green Blue)空間得到合成弱光照?qǐng)D像。對(duì)每一張正常光照?qǐng)D像,隨機(jī)選取7組參數(shù),生成7張弱光照?qǐng)D像,最終一共得到4200張訓(xùn)練圖像。從中選取由100張正常光照?qǐng)D像合成的700張合成圖像作為測(cè)試集,剩余的作為訓(xùn)練集。

    3.3?實(shí)驗(yàn)結(jié)果分析

    為了驗(yàn)證本文算法的有效性,本文在真實(shí)弱光照?qǐng)D像和合成弱光照?qǐng)D像上均進(jìn)行了對(duì)比實(shí)驗(yàn)。對(duì)比的算法有:Dong算法[15]、LIME算法[10]、MF算法[14]、NPEA[13]、LNET算法[17]。各算法的參數(shù)值均為原文獻(xiàn)中的推薦值。

    3.3.1?合成弱光照?qǐng)D像增強(qiáng)對(duì)比實(shí)驗(yàn)

    首先,在合成弱光照?qǐng)D像上將本文算法與其他算法對(duì)比。合成弱光照?qǐng)D像的方法和3.2節(jié)中網(wǎng)絡(luò)訓(xùn)練集的合成方法相同,總共選取50張合成圖片。為了保證實(shí)驗(yàn)的公正性,這50張圖片都未在訓(xùn)練集中出現(xiàn)過(guò)。為了說(shuō)明本文算法在不同光照條件下的魯棒性,本文選取的合成圖像中場(chǎng)景包括室內(nèi)、野外、圖像的光照條件有整體光照偏弱、光照不均勻等。

    圖5是部分實(shí)驗(yàn)結(jié)果。觀察圖5可看出,Dong算法對(duì)圖像的亮度有一定提升,但是提升能力不足,圖像整體亮度仍然很低,細(xì)節(jié)仍然不清晰。LIME算法的增強(qiáng)效果非常明顯,增強(qiáng)后圖像的平均亮度也是所有算法中最高的,但是這也帶來(lái)了增強(qiáng)過(guò)度的問(wèn)題,圖像中出現(xiàn)過(guò)曝和失真現(xiàn)象,如圖5的station中火車頭左上角的光暈和ride中的石子路。LNET算法在station上增強(qiáng)效果較好,在owl上不明顯,owl增強(qiáng)后亮度仍然偏暗,在room中出現(xiàn)了過(guò)曝現(xiàn)象,如地板和窗簾的亮度。MF算法和NPEA的增強(qiáng)圖像的亮度介于Dong算法和LIME算法之間。由station的增強(qiáng)結(jié)果可看出,這兩種算法對(duì)光照不均勻但平均亮度較高的圖像的增強(qiáng)效果不錯(cuò),但是當(dāng)圖像整體亮度都偏暗時(shí),如owl和ride,增強(qiáng)后圖像亮度仍偏暗、視覺(jué)效果欠佳。這也說(shuō)明MF,NPEA的魯棒性不夠好,需要針對(duì)不同場(chǎng)景和光照情況調(diào)整參數(shù)才能得到較為理想的結(jié)果。而本文算法是基于學(xué)習(xí)的算法,在訓(xùn)練中學(xué)習(xí)了不同的場(chǎng)景和光照條件,對(duì)于光照各異的輸入圖片,無(wú)需調(diào)整任何參數(shù)就能輸出較理想的增強(qiáng)結(jié)果。圖5中也能看出,本文算法的增強(qiáng)結(jié)果最接近正常光照?qǐng)D像,增強(qiáng)后的圖像亮度適中、顏色自然、細(xì)節(jié)清晰、具有最好的視覺(jué)效果。所以,從主觀視覺(jué)感受上來(lái)說(shuō),本文算法比其他算法更有優(yōu)勢(shì)。

    除了主觀評(píng)判外,本文還在MSE、峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)、結(jié)構(gòu)相似度(Structural SIMilarity index, SSIM)三項(xiàng)客觀指標(biāo)上對(duì)幾種算法進(jìn)行對(duì)比。表2是幾種算法在50張合成樣本上實(shí)驗(yàn)結(jié)果的平均指標(biāo)。表2可看出,本文算法的平均MSE、PSNR指標(biāo)是所有算法中最優(yōu)的。而且,盡管本文算法在訓(xùn)練時(shí)使用的損失函數(shù)是MSE和L1范數(shù),但在SSIM指標(biāo)對(duì)比中,本文算法仍然是所有算法中最優(yōu)。在合成圖像上實(shí)驗(yàn)結(jié)果表明,無(wú)論是從主觀視覺(jué)感受還是客觀評(píng)價(jià)指標(biāo)來(lái)說(shuō),本文算法對(duì)弱光照?qǐng)D像的增強(qiáng)能力均優(yōu)于其他幾種算法。

    3.3.2?真實(shí)弱光照?qǐng)D像增強(qiáng)對(duì)比實(shí)驗(yàn)

    為了進(jìn)一步說(shuō)明本文算法的優(yōu)勢(shì),本文也在真實(shí)弱光照?qǐng)D像上進(jìn)行了對(duì)比實(shí)驗(yàn),圖6是實(shí)驗(yàn)結(jié)果。從圖6可看出,各算法在真實(shí)圖像上的增強(qiáng)表現(xiàn)跟合成圖像上的表現(xiàn)基本一致:Dong算法增強(qiáng)后圖像亮度整體偏暗,細(xì)節(jié)處的視覺(jué)效果提升不明顯,如girl中的車窗和mountain中的山體部分;MF算法的魯棒性一般,部分圖片增強(qiáng)后亮度較好,如girl、house、duck,其他剩余圖片仍然偏暗;NPEA的增強(qiáng)結(jié)果整體偏暗,且出現(xiàn)失真,如tower中右側(cè)樹枝的亮度不自然;從meeting和girl的增強(qiáng)結(jié)果可看出,LIME算法依然存在增強(qiáng)過(guò)度的問(wèn)題,增強(qiáng)后圖像的光照不自然;LNET中增強(qiáng)過(guò)度的現(xiàn)象更明顯,如tower、house中的天空與road中的馬路,都出現(xiàn)了過(guò)曝問(wèn)題;本文算法的增強(qiáng)結(jié)果較為自然,在提升原圖暗處的同時(shí),很好地保持了原圖亮度區(qū)域不過(guò)曝,增強(qiáng)后的圖像有良好的視覺(jué)觀感。

    為了更客觀地對(duì)比各算法的增強(qiáng)表現(xiàn),還需要測(cè)試實(shí)驗(yàn)結(jié)果的客觀評(píng)價(jià)指標(biāo)。不同于合成圖像,真實(shí)弱光照?qǐng)D像無(wú)對(duì)應(yīng)的正常光照?qǐng)D像,無(wú)法測(cè)試MSE、PSNR等指標(biāo)。本文以圖像的自然圖像質(zhì)量評(píng)價(jià)度量(Natural Image Quality Evaluator, NIQE)、熵(Entropy)、對(duì)比度增益(Contrast Gain)三項(xiàng)指標(biāo)來(lái)對(duì)比各算法。NIQE是一個(gè)根據(jù)圖像的自然統(tǒng)計(jì)特征得到的圖像質(zhì)量參考值,數(shù)值越小表示圖像質(zhì)量越高;熵是度量圖像中信息量多少的指標(biāo),可以反映圖像細(xì)節(jié)豐富程度,熵越大,說(shuō)明圖像包含信息越多,細(xì)節(jié)越豐富;對(duì)比度增益反映了圖像增強(qiáng)前后對(duì)比度提升的程度,值越大表示對(duì)比度提升越明顯。

    表3中記錄了圖6實(shí)驗(yàn)結(jié)果的三項(xiàng)指標(biāo)。具體分析如下:1)在NIQE的對(duì)比中,本文算法在其中的四張圖片上排名第一,在其中三張圖片上排名第二,在其中一張圖片上排名第四,平均排名第一。排名第四的圖片名為house,觀察圖6可知,本文算法增強(qiáng)后,house中整體亮度過(guò)于平均,未形成較高的對(duì)比度,這可能是影響該圖片NIQE指標(biāo)的因素。綜合比較NIQE指標(biāo)可以說(shuō)明,相對(duì)于其他方法,本文算法增強(qiáng)后圖像的有更高的圖像質(zhì)量。

    2)在熵的對(duì)比中,本文算法在其中的四張圖片上排名第一,在其中的兩張圖片上排名第二,另外兩張圖片mountain和tower分別排名第三和第四,平均排名第一。理論上熵最大的情況為圖像中每個(gè)像素的灰度值都不一樣,本文算法增強(qiáng)結(jié)果在圖片mountain中的山體部分和tower中的地面部分的灰度值分布變化很少,因此這兩張圖片的熵指標(biāo)相對(duì)較低。但是,在八張圖片上熵指標(biāo)的綜合比較中,本文算法仍然是最優(yōu)的。這說(shuō)明相對(duì)于其他方法,經(jīng)本文算法增強(qiáng)后圖像的細(xì)節(jié)更豐富。

    3)在對(duì)比度增益的對(duì)比中,本文算法的平均對(duì)比度增益排名第二,排名第一的為L(zhǎng)IME算法。前文的主觀視覺(jué)感受對(duì)比中可以發(fā)現(xiàn),LIME有過(guò)度增強(qiáng)的傾向,因此LIME算法的高對(duì)比度增益是建立在過(guò)度增強(qiáng)的基礎(chǔ)之上。

    通過(guò)對(duì)比NIQE、熵、對(duì)比度增益三項(xiàng)指標(biāo),可以說(shuō)明本文算法在真實(shí)弱光照?qǐng)D像上的增強(qiáng)表現(xiàn)更好,本文算法增強(qiáng)后的圖像有較高的圖像質(zhì)量與較豐富的細(xì)節(jié);而且,本文算法在保持增強(qiáng)效果自然性的前提下,能較好地提升圖像對(duì)比度。

    3.3.3?派生圖對(duì)增強(qiáng)結(jié)果的影響

    本文針對(duì)各派生圖對(duì)增強(qiáng)結(jié)果的影響進(jìn)行了分析。卷積神經(jīng)網(wǎng)絡(luò)的映射作用不可用解析表達(dá)式表示,因此無(wú)法直接通過(guò)公式分析各派生圖的作用。最終,本文選擇使用替換方法對(duì)此進(jìn)行分析。具體實(shí)施過(guò)程為:保持MDIIN的其他輸入不變,將其中一張派生圖用原始弱光照?qǐng)D像代替,得到增強(qiáng)結(jié)果。

    圖7中顯示了將四張派生圖依次用原始弱光照?qǐng)D像代替后的增強(qiáng)結(jié)果:由圖7(a)~(b)中球面的紋路及衣服上的褶皺可看出,限制對(duì)比度自適應(yīng)直方圖均衡派生圖影響到增強(qiáng)結(jié)果的局部對(duì)比度,將限制對(duì)比度自適應(yīng)直方圖均衡派生圖用原圖代替后,圖像的局部對(duì)比度降低;圖7(c)與圖7(a)相比,圖像的整體亮度降低,這說(shuō)明伽馬校正派生圖對(duì)增強(qiáng)結(jié)果的全局亮度有較大提升作用;圖7(d)與圖7(a)相比,顏色飽和度嚴(yán)重下降,這表明亮通道增強(qiáng)派生圖起到了提升增強(qiáng)結(jié)果顏色飽和度的作用,也間接影響到圖像的主觀視覺(jué)感受。圖7(e)是將對(duì)數(shù)變換派生圖用原圖替換后的增強(qiáng)結(jié)果,替換后,圖像出現(xiàn)過(guò)曝的現(xiàn)象,這說(shuō)明在MDIIN的映射中,對(duì)數(shù)變換派生圖與最終增強(qiáng)結(jié)果的亮度為負(fù)相關(guān)關(guān)系。

    3.3.4?時(shí)間復(fù)雜度分析

    此外,本文也對(duì)各算法的時(shí)間復(fù)雜度進(jìn)行了比較。表4中記錄了各算法分別處理mesh、meeting、girl、mountain四張圖片的時(shí)間。Dong算法、LIME、MF、NPEA、LNET算法均在Matlab2017中運(yùn)行,本文算法在深度學(xué)習(xí)框架Pytorch中運(yùn)行,代碼中使用GPU加速。電腦的CPU型號(hào)為Intel Core i7-7700HQ,GPU型號(hào)為Nvidia 1080TI。

    從表4可看出:NPEA的處理時(shí)間最長(zhǎng);LNET算法由于未使用GPU加速,因此時(shí)間也較長(zhǎng);Dong算法、LIME、MF算法的處理時(shí)間較短,均在1s以內(nèi);本文算法的處理時(shí)間最短,只需0.1s左右。因此,在算法處理速度上本文算法也具有優(yōu)勢(shì)。

    5?結(jié)語(yǔ)

    本文提出一種將傳統(tǒng)圖像增強(qiáng)手段與深度學(xué)習(xí)算法結(jié)合的弱光照?qǐng)D像增強(qiáng)算法。與原始圖像相比,四種傳統(tǒng)增強(qiáng)手段生成的派生圖在對(duì)比度、亮度、顏色飽和度上均有提升。卷積神經(jīng)網(wǎng)絡(luò)可充分激活各派生圖的優(yōu)點(diǎn)從而輸出光照明亮視覺(jué)效果良好的增強(qiáng)圖像。本文算法不受Retinex模型約束,無(wú)需估計(jì)光照?qǐng)D像和反射率圖像,直接端到端生成增強(qiáng)圖像。由于訓(xùn)練數(shù)據(jù)集中包含豐富的場(chǎng)景和光照條件,因此本文算法也無(wú)需調(diào)整任何參數(shù),在光照較弱和光照不均勻的情況下均表現(xiàn)突出。本文在合成弱光照?qǐng)D像和真實(shí)弱光照?qǐng)D像上均進(jìn)行了對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果從主觀感受和客觀評(píng)價(jià)指標(biāo)兩方面都驗(yàn)證了本文算法的有效性。與對(duì)比算法相比,本文算法的增強(qiáng)圖像在圖像質(zhì)量、圖像細(xì)節(jié)豐富程度、圖像對(duì)比度上均具有優(yōu)勢(shì)。

    在分析各派生圖作用時(shí),本文算法中對(duì)數(shù)變換派生圖與最終增強(qiáng)結(jié)果的亮度之間為負(fù)相關(guān)關(guān)系,這有可能是伽馬變換派生圖與對(duì)數(shù)變換派生圖作用重疊導(dǎo)致的。因此,在下一步研究中,嘗試保留伽馬變換派生圖和對(duì)數(shù)變換派生圖中的一個(gè)進(jìn)行實(shí)驗(yàn)。

    參考文獻(xiàn)(References)

    [1] 康曉東, 王昊, 郭軍, 等.無(wú)監(jiān)督深度學(xué)習(xí)彩色圖像識(shí)別方法[J]. 計(jì)算機(jī)應(yīng)用, 2015, 35(9): 2636-2639. (TANG X D, WANG H, GUO J, et al. Unsupervised deep learning method for color image recognition[J]. Journal of Computer Applications, 2015, 35(9): 2636-2639.)

    [2] 楊朔, 陳麗芳, 石瑀, 等.基于深度生成式對(duì)抗網(wǎng)絡(luò)的藍(lán)藻語(yǔ)義分割[J]. 計(jì)算機(jī)應(yīng)用, 2018, 38(6): 1554-1561. (YANG S, CHEN L F, SHI Y, et al. Semantic segmentation of blue-green algae based on deep generative adversarial net[J]. Journal of Computer Applications, 2018, 38(6): 1554-1561.)

    [3] LI H M. Deep learning for image denoising[J]. International Journal of Signal Processing, Image Processing and Pattern Recognition, 2014, 7(3): 171-180.

    [4] CAI B, XU X, JIA K, et al. DehazeNet: an end-to-end system for single image haze removal[J]. IEEE Transactions on Image Processing, 2016, 25(11): 5187-5198.

    [5] REN W, LIU S, ZHANG H, et al. Single image dehazing via multi-scale convolutional neural networks[C]// ECCV 2016: Proceedings of the 2016 European Conference on Computer Vision. Berlin: Springer, 2016: 154-169.

    [6] LIM B, SON S, KIM H, et al. Enhanced deep residual networks for single image super-resolution[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Piscataway, NJ: IEEE, 2017: 136-144.

    [7] LAND E H. The Retinex[J]. American Scientist, 1964, 52(2): 247-264.

    [8] LEE C, LEE C, KIM C S. Contrast enhancement based on layered difference representation of 2D histograms[J]. IEEE Transactions on Image Processing, 2013, 22(12): 5372-5384.

    [9] PISANO E D, ZONG S, HEMMINGER B M, et al. Contrast limited adaptive histogram equalization image processing to improve the detection of simulated spiculations in dense mammograms[J]. Journal of Digital Imaging, 1998, 11(4): 193-200.

    [10] GUO X, LI Y, LING H. LIME: low-light image enhancement via illumination map estimation[J]. IEEE Transactions on Image Processing, 2017, 26(2): 982-993.

    [11] FU X, LIAO Y, ZENG D, et al. A probabilistic method for image enhancement with simultaneous illumination and reflectance estimation[J]. IEEE Transactions on Image Processing, 2015, 24(12): 4965-4977.

    [12] FU X, ZENG D, HUANG Y, et al. A weighted variational model for simultaneous reflectance and illumination estimation[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 2782-2790.

    [13] WANG S, ZHENG J, HU H M, et al. Naturalness preserved enhancement algorithm for non-uniform illumination images[J]. IEEE Transactions on Image Processing, 2013, 22(9): 3538-3548.

    [14] FU X, ZENG D, HUANG Y, et al. A fusion-based enhancing method for weakly illuminated images[J]. Signal Processing, 2016, 129: 82-96.

    [15] DONG X, WANG G, PANG Y, et al. Fast efficient algorithm for enhancement of low lighting video[C]// Proceedings of the 2011 IEEE International Conference on Multimedia and Expo. Piscataway, NJ: IEEE, 2011: 1-6.

    [16] FOTIADOU K, TSAGKATAKIS G, TSAKALIDES P. Low light image enhancement via sparse representations[C]// ICIAR 2014: Proceedings of the 2014 International Conference on Image Analysis and Recognition. Berlin: Springer, 2014: 84-93.

    [17] LI C, GUO J, PORIKLI F, et al. LightenNet: a convolutional neural network for weakly illuminated image enhancement[J]. Pattern Recognition Letters, 2018, 104: 15-22.

    [18] LORE K G, AKINTAYO A, SARKAR S. LLNet: a deep autoencoder approach to natural low-light image enhancement[J]. Pattern Recognition, 2017, 61: 650-662.

    [19] MAO X J, SHEN C, YANG Y B. Image restoration using very deep convolutional encoder-decoder networks with symmetric skip connections[C]// Proceedings of the 30th International Conference on Neural Information Processing Systems. New York: Curran Associates, 2016: 2810-2818.

    [20] TSAI Y H, SHEN X, LIN Z, et al. Deep image harmonization[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 2799-2807.

    [21] REN W, MA L, ZHANG J, et al. Gated fusion network for single image dehazing[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 3253-3261.

    [22] XIONG W, LUO W, MA L, et al. Learning to generate time-lapse videos using multi-stage dynamic generative adversarial networks[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 2364-2373.

    [23] LIU Y, ZHAO G, GONG B, et al. Improved techniques for learning to dehaze and beyond: a collective study [EB/OL]. [2018-07-26]. https://arxiv.org/pdf/1807.00202.

    [24] KINGMA D P, BA J L. ADAM: a method for stochastic optimization [EB/OL]. [2018-05-10]. https://simplecore.intel.com/nervana/wp-content/uploads/sites/53/2017/06/1412.6980.pdf.

    [25] 王一寧, 秦品樂(lè), 李傳朋, 等.基于殘差神經(jīng)網(wǎng)絡(luò)的圖像超分辨率改進(jìn)算法[J]. 計(jì)算機(jī)應(yīng)用, 2018, 38(1): 246-254. (WANG Y N, QIN P L, LI C P, et al. Improved algorithm of image super resolution based on residual neural network[J]. Journal of Computer Applications, 2018, 38(1): 246-254.)

    [26] 梁中豪, 彭德巍, 金彥旭, 等.基于交通場(chǎng)景區(qū)域增強(qiáng)的單幅圖像去霧方法[J]. 計(jì)算機(jī)應(yīng)用, 2018, 38(5): 1420-1426. (LIANG Z H, PENG D W, JIN Y X, et al. Single image dehazing algorithm based on traffic scene region enhancement[J]. Journal of Computer Applications, 2018, 38(5): 1420-1426.)

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)
    基于深度神經(jīng)網(wǎng)絡(luò)的微表情識(shí)別
    卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時(shí)間方法研究
    卷積神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型研究
    基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
    軟件(2016年5期)2016-08-30 06:27:49
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
    国产av不卡久久| 非洲黑人性xxxx精品又粗又长| 99riav亚洲国产免费| 国产精品一及| 成人高潮视频无遮挡免费网站| 特级一级黄色大片| 午夜福利高清视频| 狂野欧美激情性xxxx在线观看| 美女cb高潮喷水在线观看| 欧美3d第一页| 18+在线观看网站| 成人特级黄色片久久久久久久| 少妇人妻一区二区三区视频| 亚洲七黄色美女视频| 日本撒尿小便嘘嘘汇集6| 国产精品一区二区免费欧美| 悠悠久久av| 国产精品免费一区二区三区在线| 免费观看的影片在线观看| 国产久久久一区二区三区| 国产精品99久久久久久久久| 18禁黄网站禁片免费观看直播| 俄罗斯特黄特色一大片| 成年女人毛片免费观看观看9| 久久久欧美国产精品| 国产高清视频在线播放一区| 成人特级av手机在线观看| 老司机影院成人| 最近最新中文字幕大全电影3| h日本视频在线播放| 亚洲成人中文字幕在线播放| 国产成人a∨麻豆精品| 99久国产av精品| 天天一区二区日本电影三级| 在线观看一区二区三区| 亚洲欧美日韩卡通动漫| 国产单亲对白刺激| 老熟妇乱子伦视频在线观看| 国产不卡一卡二| 日本a在线网址| 啦啦啦啦在线视频资源| 人妻制服诱惑在线中文字幕| 日本 av在线| 超碰av人人做人人爽久久| 秋霞在线观看毛片| av专区在线播放| 成人特级黄色片久久久久久久| 色吧在线观看| 久久久色成人| 欧美高清成人免费视频www| ponron亚洲| 九色成人免费人妻av| 国产欧美日韩一区二区精品| 中文字幕av在线有码专区| 91午夜精品亚洲一区二区三区| 变态另类丝袜制服| 99热全是精品| 亚洲欧美日韩东京热| 亚洲精品日韩av片在线观看| 亚洲精品影视一区二区三区av| 日本在线视频免费播放| 国产一级毛片七仙女欲春2| 精品乱码久久久久久99久播| 日本一二三区视频观看| 国产高清三级在线| 又粗又爽又猛毛片免费看| 少妇的逼好多水| 人妻少妇偷人精品九色| 18+在线观看网站| 国产男靠女视频免费网站| 国产亚洲精品久久久久久毛片| 日本色播在线视频| 亚洲精品影视一区二区三区av| 久久精品国产鲁丝片午夜精品| 网址你懂的国产日韩在线| 一区福利在线观看| 亚洲av免费高清在线观看| 亚洲在线自拍视频| 两个人的视频大全免费| 欧美性猛交黑人性爽| 国产精品一区www在线观看| 亚洲av成人精品一区久久| 九九在线视频观看精品| 床上黄色一级片| 国产精品美女特级片免费视频播放器| 久久亚洲国产成人精品v| 无遮挡黄片免费观看| 欧美日韩乱码在线| 观看免费一级毛片| 天天躁夜夜躁狠狠久久av| 亚洲国产欧美人成| 中出人妻视频一区二区| 日韩精品中文字幕看吧| 亚洲av免费在线观看| 一本一本综合久久| 久久久久久久久久成人| 美女大奶头视频| 一区二区三区四区激情视频 | 97超级碰碰碰精品色视频在线观看| 91在线观看av| 国产高清激情床上av| 亚洲精品影视一区二区三区av| 老师上课跳d突然被开到最大视频| 插逼视频在线观看| 亚洲自偷自拍三级| 在线看三级毛片| 国产免费男女视频| 男人舔女人下体高潮全视频| 夜夜爽天天搞| 国产探花在线观看一区二区| 亚洲成人中文字幕在线播放| 禁无遮挡网站| 日日摸夜夜添夜夜添av毛片| av国产免费在线观看| 亚洲国产精品成人综合色| 亚洲国产精品久久男人天堂| 永久网站在线| 成人漫画全彩无遮挡| 男人狂女人下面高潮的视频| 亚洲色图av天堂| 亚洲av.av天堂| 亚洲四区av| 一级毛片aaaaaa免费看小| 日韩av不卡免费在线播放| 俄罗斯特黄特色一大片| 久久人妻av系列| 亚洲成人久久性| 久久久精品94久久精品| 亚洲人成网站在线播| 精品不卡国产一区二区三区| 久久精品综合一区二区三区| 午夜精品国产一区二区电影 | 欧美一区二区精品小视频在线| 99久久精品热视频| 婷婷六月久久综合丁香| 色综合站精品国产| 免费看日本二区| 网址你懂的国产日韩在线| 国产精品国产三级国产av玫瑰| 久99久视频精品免费| 国产精品99久久久久久久久| 99热网站在线观看| 在线免费观看不下载黄p国产| 亚洲中文日韩欧美视频| 国产伦精品一区二区三区视频9| 春色校园在线视频观看| 欧美日本视频| 国产私拍福利视频在线观看| 少妇熟女欧美另类| 婷婷精品国产亚洲av| 日韩三级伦理在线观看| 一级黄片播放器| 国产精品一区二区三区四区免费观看 | 欧美在线一区亚洲| 中文字幕人妻熟人妻熟丝袜美| 国产精品综合久久久久久久免费| 亚洲欧美日韩卡通动漫| 国产激情偷乱视频一区二区| 一区福利在线观看| 亚洲国产精品成人久久小说 | 亚洲成人精品中文字幕电影| 午夜老司机福利剧场| 日日摸夜夜添夜夜添小说| 午夜影院日韩av| av卡一久久| 国产av麻豆久久久久久久| av天堂在线播放| 丝袜美腿在线中文| 国产激情偷乱视频一区二区| 亚洲综合色惰| 桃色一区二区三区在线观看| 亚洲欧美精品自产自拍| 亚洲av一区综合| 午夜久久久久精精品| 久久精品人妻少妇| 在线观看午夜福利视频| 色5月婷婷丁香| 3wmmmm亚洲av在线观看| 亚洲四区av| 国产伦一二天堂av在线观看| 精品午夜福利在线看| 成年免费大片在线观看| 色哟哟哟哟哟哟| 99九九线精品视频在线观看视频| av在线老鸭窝| 国产男靠女视频免费网站| 18禁在线无遮挡免费观看视频 | 午夜亚洲福利在线播放| 国产色婷婷99| 久久精品国产自在天天线| 精品欧美国产一区二区三| 特级一级黄色大片| 十八禁网站免费在线| 欧美色欧美亚洲另类二区| 免费无遮挡裸体视频| 国产欧美日韩精品亚洲av| 极品教师在线视频| 我的老师免费观看完整版| 69人妻影院| 天堂网av新在线| 色在线成人网| 亚洲欧美日韩高清专用| 少妇高潮的动态图| 欧美性猛交黑人性爽| 久久精品国产亚洲av天美| 91久久精品电影网| 午夜福利在线观看吧| 看片在线看免费视频| 热99在线观看视频| 夜夜夜夜夜久久久久| 中文亚洲av片在线观看爽| 日韩三级伦理在线观看| 欧洲精品卡2卡3卡4卡5卡区| 波多野结衣高清无吗| 一边摸一边抽搐一进一小说| 国产成人一区二区在线| 久久99热这里只有精品18| 可以在线观看的亚洲视频| 亚洲最大成人中文| 噜噜噜噜噜久久久久久91| 久久久久久久久久久丰满| 日韩av不卡免费在线播放| 精品久久久久久久末码| 免费看光身美女| 国产精品一区二区三区四区久久| 99热这里只有精品一区| 人人妻人人澡欧美一区二区| 久久天躁狠狠躁夜夜2o2o| 国产精品人妻久久久久久| 国产私拍福利视频在线观看| 精品99又大又爽又粗少妇毛片| 精品人妻偷拍中文字幕| 美女内射精品一级片tv| 搞女人的毛片| 久久久久久大精品| 老女人水多毛片| 自拍偷自拍亚洲精品老妇| 午夜福利视频1000在线观看| .国产精品久久| 久久久久久大精品| 中文在线观看免费www的网站| av在线观看视频网站免费| 插阴视频在线观看视频| 国产精品国产高清国产av| 国产一区二区亚洲精品在线观看| 丝袜喷水一区| 亚洲欧美成人综合另类久久久 | 亚洲精品国产av成人精品 | 99riav亚洲国产免费| 伦精品一区二区三区| 亚洲自偷自拍三级| 亚洲久久久久久中文字幕| 中文字幕av成人在线电影| 久久韩国三级中文字幕| 欧美激情国产日韩精品一区| 狂野欧美激情性xxxx在线观看| 国产色爽女视频免费观看| 欧美日韩精品成人综合77777| 在线免费十八禁| 搡老熟女国产l中国老女人| 日产精品乱码卡一卡2卡三| 国产成人影院久久av| 又黄又爽又刺激的免费视频.| 人妻夜夜爽99麻豆av| 色播亚洲综合网| 中国美白少妇内射xxxbb| 亚洲av美国av| 九九爱精品视频在线观看| 日本五十路高清| 好男人在线观看高清免费视频| 国产黄片美女视频| а√天堂www在线а√下载| 成人欧美大片| 精品午夜福利在线看| 亚洲美女搞黄在线观看 | 午夜久久久久精精品| 日本色播在线视频| 成人二区视频| 亚洲精品亚洲一区二区| 麻豆成人午夜福利视频| av在线蜜桃| av卡一久久| 国产精品99久久久久久久久| 18禁在线播放成人免费| 亚洲精华国产精华液的使用体验 | 在线免费十八禁| 在线观看免费视频日本深夜| 一夜夜www| 老师上课跳d突然被开到最大视频| 亚洲专区国产一区二区| 日韩欧美精品v在线| 久久久精品欧美日韩精品| 国产日本99.免费观看| 免费看光身美女| 久久精品国产清高在天天线| 亚洲欧美中文字幕日韩二区| 欧美日本视频| 免费av毛片视频| 欧美色视频一区免费| 国产亚洲精品综合一区在线观看| 国产一区二区三区av在线 | 韩国av在线不卡| 黄色配什么色好看| 久久久久久伊人网av| 春色校园在线视频观看| 国产欧美日韩精品一区二区| 成人三级黄色视频| 国产精品久久视频播放| 啦啦啦韩国在线观看视频| 人人妻,人人澡人人爽秒播| 夜夜爽天天搞| 青春草视频在线免费观看| 久久欧美精品欧美久久欧美| 69人妻影院| 日本一本二区三区精品| 人人妻,人人澡人人爽秒播| 女人十人毛片免费观看3o分钟| 亚洲在线观看片| 99国产极品粉嫩在线观看| 女人十人毛片免费观看3o分钟| 国产精品一区二区免费欧美| 亚洲av中文av极速乱| 性插视频无遮挡在线免费观看| 啦啦啦韩国在线观看视频| 欧美日韩精品成人综合77777| 日本一二三区视频观看| 欧美最新免费一区二区三区| 午夜福利在线观看吧| 99久久九九国产精品国产免费| 天美传媒精品一区二区| 欧美人与善性xxx| 中国国产av一级| av专区在线播放| 久久人人爽人人爽人人片va| 淫妇啪啪啪对白视频| 亚洲综合色惰| 真实男女啪啪啪动态图| 国产精品人妻久久久影院| 亚洲图色成人| 精品一区二区免费观看| 乱码一卡2卡4卡精品| 国产精品久久久久久精品电影| 内地一区二区视频在线| 精品国产三级普通话版| 在线播放国产精品三级| 一进一出好大好爽视频| 又爽又黄a免费视频| 午夜a级毛片| 午夜精品国产一区二区电影 | 久久人人爽人人爽人人片va| 欧美潮喷喷水| 男女边吃奶边做爰视频| 波多野结衣巨乳人妻| 男女边吃奶边做爰视频| 久久久久久久久中文| 一级毛片电影观看 | 午夜激情欧美在线| 午夜福利高清视频| 精品人妻熟女av久视频| av天堂在线播放| 99热全是精品| av天堂在线播放| 麻豆乱淫一区二区| 欧美日韩在线观看h| 欧美3d第一页| 色噜噜av男人的天堂激情| 久久久国产成人精品二区| 蜜臀久久99精品久久宅男| 在线看三级毛片| 日本五十路高清| 久久99热6这里只有精品| 日本与韩国留学比较| 国产精品电影一区二区三区| 国产精品免费一区二区三区在线| 免费观看精品视频网站| 亚州av有码| 久久人妻av系列| 亚洲av免费在线观看| 精品久久久噜噜| 久久精品影院6| 啦啦啦观看免费观看视频高清| 五月玫瑰六月丁香| 天堂av国产一区二区熟女人妻| 一级毛片电影观看 | 欧美色欧美亚洲另类二区| 亚洲精品一区av在线观看| 久久人人爽人人片av| 日韩一本色道免费dvd| 热99re8久久精品国产| 日日啪夜夜撸| 国产精品伦人一区二区| 男人舔女人下体高潮全视频| 中文在线观看免费www的网站| 日韩欧美三级三区| 国产精品野战在线观看| 噜噜噜噜噜久久久久久91| 久久久久免费精品人妻一区二区| 成人午夜高清在线视频| 亚洲av二区三区四区| 六月丁香七月| 亚洲中文字幕一区二区三区有码在线看| 精品欧美国产一区二区三| 国产高清视频在线播放一区| 欧美色欧美亚洲另类二区| 无遮挡黄片免费观看| 精品午夜福利视频在线观看一区| 免费av毛片视频| 亚洲人成网站高清观看| 成年女人永久免费观看视频| 成人永久免费在线观看视频| 狠狠狠狠99中文字幕| 亚洲色图av天堂| 欧美成人a在线观看| 国产亚洲精品久久久久久毛片| 在线观看午夜福利视频| 一区二区三区高清视频在线| 成年免费大片在线观看| 看非洲黑人一级黄片| 国产av一区在线观看免费| 日韩三级伦理在线观看| 亚洲人成网站在线观看播放| 校园人妻丝袜中文字幕| 成人亚洲欧美一区二区av| 亚洲四区av| 在线观看av片永久免费下载| 免费看av在线观看网站| 久久99热这里只有精品18| 男女那种视频在线观看| 亚洲自偷自拍三级| 在线国产一区二区在线| 午夜亚洲福利在线播放| 成人亚洲欧美一区二区av| 午夜精品在线福利| 蜜臀久久99精品久久宅男| 99久国产av精品| 日韩欧美一区二区三区在线观看| 欧美最黄视频在线播放免费| 超碰av人人做人人爽久久| 国产精品国产高清国产av| 插阴视频在线观看视频| 久久精品人妻少妇| 特大巨黑吊av在线直播| 国产蜜桃级精品一区二区三区| 国产成人a区在线观看| 97在线视频观看| 国产亚洲精品av在线| 一个人免费在线观看电影| 国产毛片a区久久久久| 插阴视频在线观看视频| 日韩av不卡免费在线播放| 成人二区视频| 我的女老师完整版在线观看| 99精品在免费线老司机午夜| a级毛片a级免费在线| 日韩,欧美,国产一区二区三区 | 免费观看人在逋| 国语自产精品视频在线第100页| 免费观看的影片在线观看| 国产乱人视频| 老司机福利观看| 久久精品国产清高在天天线| 波多野结衣巨乳人妻| 久久精品国产亚洲av涩爱 | 日日撸夜夜添| 51国产日韩欧美| 我的老师免费观看完整版| 少妇裸体淫交视频免费看高清| 日本三级黄在线观看| 亚洲第一区二区三区不卡| 一个人免费在线观看电影| 欧美国产日韩亚洲一区| 三级国产精品欧美在线观看| 欧美xxxx黑人xx丫x性爽| 国产探花极品一区二区| 日本精品一区二区三区蜜桃| 久久久久精品国产欧美久久久| 黄片wwwwww| 秋霞在线观看毛片| 国产免费一级a男人的天堂| 免费人成视频x8x8入口观看| 亚洲中文字幕一区二区三区有码在线看| 非洲黑人性xxxx精品又粗又长| 久久精品国产自在天天线| 国产高清三级在线| 听说在线观看完整版免费高清| 国内精品一区二区在线观看| 国产精品嫩草影院av在线观看| 波多野结衣高清无吗| 国产91av在线免费观看| 少妇的逼好多水| 熟妇人妻久久中文字幕3abv| 一边摸一边抽搐一进一小说| 男女啪啪激烈高潮av片| 99热这里只有精品一区| 精品久久久久久久久av| 又黄又爽又免费观看的视频| 日本欧美国产在线视频| 日本五十路高清| 午夜精品国产一区二区电影 | a级毛片a级免费在线| 大香蕉久久网| 别揉我奶头~嗯~啊~动态视频| 精品人妻视频免费看| 最近最新中文字幕大全电影3| 综合色av麻豆| 在线观看66精品国产| 国产成人aa在线观看| 看非洲黑人一级黄片| 午夜精品一区二区三区免费看| 欧美性猛交╳xxx乱大交人| 在线a可以看的网站| 午夜福利视频1000在线观看| 99国产极品粉嫩在线观看| 亚洲久久久久久中文字幕| 国产成人福利小说| 伊人久久精品亚洲午夜| 18禁在线无遮挡免费观看视频 | 欧美极品一区二区三区四区| 国产av不卡久久| 天天一区二区日本电影三级| 国产精品嫩草影院av在线观看| 国产精品无大码| 天堂影院成人在线观看| 九九热线精品视视频播放| 国语自产精品视频在线第100页| 简卡轻食公司| 久久亚洲精品不卡| 少妇的逼水好多| 18禁在线无遮挡免费观看视频 | 九九爱精品视频在线观看| 国产一区二区在线av高清观看| 日韩精品中文字幕看吧| 国产精品一区www在线观看| 少妇丰满av| 日韩大尺度精品在线看网址| 亚洲av熟女| 麻豆久久精品国产亚洲av| 成人鲁丝片一二三区免费| 一进一出好大好爽视频| 亚洲无线观看免费| 99riav亚洲国产免费| 自拍偷自拍亚洲精品老妇| 最近最新中文字幕大全电影3| 欧美一区二区亚洲| 午夜福利在线观看免费完整高清在 | 欧美极品一区二区三区四区| 国产精品三级大全| 黄色日韩在线| 麻豆乱淫一区二区| 97超视频在线观看视频| 免费看光身美女| 在线免费十八禁| 日本 av在线| 午夜日韩欧美国产| 俺也久久电影网| 亚洲欧美日韩无卡精品| 国内精品久久久久精免费| 女人十人毛片免费观看3o分钟| 欧美一区二区精品小视频在线| 成熟少妇高潮喷水视频| 九色成人免费人妻av| 亚洲色图av天堂| 99热6这里只有精品| 菩萨蛮人人尽说江南好唐韦庄 | 久久精品国产99精品国产亚洲性色| 亚洲18禁久久av| 日韩精品中文字幕看吧| 最近的中文字幕免费完整| 99热网站在线观看| 国产精品99久久久久久久久| 久久久国产成人免费| 搡女人真爽免费视频火全软件 | 我要看日韩黄色一级片| 日本成人三级电影网站| 欧美3d第一页| 床上黄色一级片| av天堂中文字幕网| 久久精品国产亚洲网站| 久久久久久久久久黄片| 欧美绝顶高潮抽搐喷水| 亚洲欧美日韩高清专用| 国产高清激情床上av| 日韩成人伦理影院| 在现免费观看毛片| 热99在线观看视频| 久久亚洲国产成人精品v| 午夜精品在线福利| 久久精品夜夜夜夜夜久久蜜豆| 国产亚洲精品综合一区在线观看| 中国美女看黄片| 日本与韩国留学比较| 欧美最黄视频在线播放免费| 18禁在线无遮挡免费观看视频 | 国产aⅴ精品一区二区三区波| 久久综合国产亚洲精品| 12—13女人毛片做爰片一| 亚洲人成网站在线播| 国产一区二区三区在线臀色熟女| 午夜福利在线观看免费完整高清在 | 欧美成人精品欧美一级黄| 久久精品综合一区二区三区| 全区人妻精品视频| 午夜福利成人在线免费观看| 噜噜噜噜噜久久久久久91| 国产午夜福利久久久久久| 国产精品久久电影中文字幕| 99九九线精品视频在线观看视频| 人妻夜夜爽99麻豆av| 亚洲第一电影网av| 搡老妇女老女人老熟妇| 国产精品综合久久久久久久免费| 一本精品99久久精品77| 一个人免费在线观看电影| 大型黄色视频在线免费观看| 久久人妻av系列|