• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多模態(tài)傳感器的近紅外與可見光圖像自適應(yīng)融合模型

    2024-12-10 00:00:00李振偉施文灶付強(qiáng)苑俊茹
    現(xiàn)代信息科技 2024年24期

    摘" 要:針對(duì)現(xiàn)有的圖像融合方法在特征提取和融合策略上的不足,提出了一種基于頻域分解的近紅外與可見光圖像自適應(yīng)融合模型STAFuse。通過引入Transformer與CNN的特征提取模塊,以及自適應(yīng)融合模塊,實(shí)現(xiàn)不同模態(tài)圖像特征的有效融合。在多模態(tài)圖像的獲取上,為解決傳統(tǒng)多傳感器系統(tǒng)體積大、校準(zhǔn)復(fù)雜等問題,設(shè)計(jì)了一種新型多模態(tài)傳感器,可同時(shí)獲取高分辨率的可見光圖像和低分辨率的近紅外圖像。實(shí)驗(yàn)結(jié)果表明,STAFuse在多個(gè)指標(biāo)上優(yōu)于現(xiàn)有模型,在結(jié)構(gòu)相似性上比DenseFuse模型提升了102.7%,在視覺信息保真度上比DIDFuse模型提升了25%,在保持視覺質(zhì)量和圖像細(xì)節(jié)方面表現(xiàn)突出。

    關(guān)鍵詞:近紅外與可見光融合;自適應(yīng)融合;Transformer;CNN;多模態(tài)傳感器;頻域分解

    中圖分類號(hào):TP212;TP183" 文獻(xiàn)標(biāo)識(shí)碼:A" 文章編號(hào):2096-4706(2024)24-0163-08

    Adaptive Fusion Model for Near-infrared and Visible Light Images Based on Multimodal Sensors

    LI Zhenwei1,3,4,5, SHI Wenzao1,3,4,5, FU Qiang2, YUAN Junru1,3,4,5

    (1.College of Photonic and Electronic Engineering, Fujian Normal University, Fuzhou" 350117, China; 2.Tucsen Photonics Co., Ltd., Fuzhou" 350003, China; 3.Fujian Provincial Engineering Technology Research Center of Photoelectric Sensing Application, Fujian Normal University, Fuzhou" 350117, China; 4.Key Laboratory of Optoelectronic Science and Technology for Medicine (Ministry of Education), Fujian Normal University, Fuzhou" 350117, China; 5.Fujian Provincial Key Laboratory for Photonics Technology, Fujian Normal University, Fuzhou" 350117, China)

    Abstract: Aiming at the shortcomings of feature extraction and fusion strategies in the existing image fusion methods, this paper proposes an adaptive fusion model for near-infrared and visible light images, called STAFuse, based on frequency domain decomposition. It realizes the effective fusion of different modal image features, by introducing feature extraction modules of Transformer and CNN and the adaptive fusion modules. To address the issues of large size and complex calibration in traditional multi-sensor systems on the acquisition of the multimodal images , a novel multimodal sensor is designed, capable of simultaneously capturing high-resolution visible light images and low-resolution near-infrared images. Experimental results demonstrate that STAFuse outperforms existing models in multiple metrics, which improves by 102.7% compared with DenseFuse model in Structural Similarity (SSIM), improves by 25% compared with DIDFuse model in Visual Information Fidelity (VIF), and is outstanding in maintaining visual quality and image details.

    Keywords: near-infrared and visible light fusion; adaptive fusion; Transformer; CNN; multimodal sensor; frequency domain decomposition

    0" 引" 言

    圖像融合在各個(gè)領(lǐng)域都有著廣泛的應(yīng)用[1-3]。由于硬件設(shè)備的限制,單一傳感器成像常面臨信息不完全的問題,影響圖像質(zhì)量和應(yīng)用[4]。可見光傳感器雖然分辨率較高,但容易受到光照和天氣的影響;近紅外傳感器則能在惡劣光照下工作,但其空間分辨率較低,紋理和細(xì)節(jié)信息匱乏。圖像融合技術(shù)通過結(jié)合兩者優(yōu)勢(shì),生成的融合圖像不僅具備了更加全面的場(chǎng)景信息,還提高了視覺感知的準(zhǔn)確性。

    為了解決圖像融合的問題,這些年來學(xué)者們已經(jīng)提出了許多方法。這些方法大致可以分為傳統(tǒng)方法[5-6]和深度學(xué)習(xí)方法[7-11]。盡管現(xiàn)有方法已經(jīng)取得了不錯(cuò)的效果,但仍存在特征提取效率低、融合策略復(fù)雜等問題。此外,多模態(tài)圖像通常來自捕獲不同波段信息的雙傳感器,但在體積和成本受限的應(yīng)用場(chǎng)景(如微型無人機(jī))中,雙傳感器配置會(huì)增加系統(tǒng)復(fù)雜性和維護(hù)成本。針對(duì)目前方法存在的缺點(diǎn),我們提出了一個(gè)基于頻域分解的近紅外與可見光圖像自適應(yīng)融合模型STAFuse。我們的方法的主要功能如下:

    1)針對(duì)現(xiàn)有方法在圖像特征提取方面的局限性,引入了一種結(jié)合Transformer與CNN的模塊,用于增強(qiáng)圖像的全局特征提取能力。

    2)針對(duì)現(xiàn)有方法在融合策略上的不足,我們引入了Pag(Pixel-attention-guided fusion module)模塊[12]。Pag模塊通過自適應(yīng)地調(diào)整不同特征圖之間的權(quán)重分配,能夠根據(jù)特征圖的語義信息有效融合,從而避免了傳統(tǒng)方法中人工設(shè)計(jì)策略的復(fù)雜性。

    3)針對(duì)多傳感器系統(tǒng)在體積、重量和維護(hù)成本上的問題,在獲取多模態(tài)源圖像的途徑上,提出了一種多模態(tài)傳感器的改進(jìn)方案。該傳感器可以在同一塊芯片上同時(shí)獲取高分辨率的可見光圖像和低分辨率的近紅外圖像。這種多模態(tài)傳感器的設(shè)計(jì)不僅降低了系統(tǒng)的體積和重量,還減少了對(duì)多傳感器校準(zhǔn)的需求,從而降低了維護(hù)成本。

    1" 相關(guān)工作

    1.1" 基于頻域分解的圖像融合原理

    頻域分解是圖像處理中的一種重要方法,通過將圖像從空間域轉(zhuǎn)換到頻域,能夠有效地分離圖像中的不同特征。在頻域中,圖像被分解為低頻、中頻和高頻分量,分別代表圖像中的不同信息:低頻分量通常包含全局結(jié)構(gòu)和亮度信息,中頻分量包含邊緣和紋理等細(xì)節(jié)信息,而高頻分量則主要是噪聲及微小的細(xì)節(jié)[13]。對(duì)于一幅圖像I(x,y),通過二維傅里葉變換可以得到其頻域F(u,v):

    (1)

    在頻域中,圖像可以進(jìn)一步分解為低頻、中頻和高頻分量:

    (2)

    其中Fl(u,v)表示低頻部分,F(xiàn)m(u,v)表示中頻部分,F(xiàn)h(u,v)表示高頻部分。通過對(duì)圖像有霧圖像和無霧圖像的觀察發(fā)現(xiàn):在一小塊無霧圖像中,RGB圖像和近紅外圖像的高頻分量相似;相比之下,在模糊圖像的一小塊區(qū)域中,它們彼此不同[14]。基于這一點(diǎn),我們將圖像的分解為相似的低中頻部分和不相似的高頻部分,再通過自適應(yīng)的融合策略進(jìn)行融合。

    1.2" 多模態(tài)傳感器的設(shè)計(jì)

    在源圖像的獲取上,本文采用了多模態(tài)傳感器的設(shè)計(jì),在一個(gè)傳感器上同時(shí)得到了可見光和近紅外光的信息,再通過后續(xù)的處理得到可見光和近紅外光圖像對(duì)。

    為了模擬這種多模態(tài)傳感器得到的圖像,我們?cè)O(shè)計(jì)了一個(gè)軟件模擬流程,在MATLAB上完成了模擬,該流程的核心步驟如下:

    1)多模態(tài)傳感器像素排列定義。本文設(shè)計(jì)的多模態(tài)傳感器的像素排列方式為以四個(gè)像素為一組,右下角像素為近紅外像素,其他三個(gè)像素為可見光像素,如圖1所示。

    2)獲得多模態(tài)傳感器的模擬圖像。為了模擬得到圖1所示的多模態(tài)傳感器的圖像,選取RGB-NIR Scene Dataset[15]下的若干對(duì)近紅外和可見光圖像對(duì),通過循環(huán)遍歷可見光和近紅外圖像,將可見光圖像和近紅外圖像的像素按多模態(tài)傳感器的像素排列方式重新組合。以多模態(tài)傳感器的一組四個(gè)像素為例,右下角的像素來自近紅外圖像,其余三個(gè)像素來自可見光圖像,模擬圖像的成長過程如圖2所示,模擬圖像的生成結(jié)果如圖3所示。

    3)對(duì)多模態(tài)傳感器圖像的處理。為了適應(yīng)圖像融合模型的輸入,對(duì)模擬生成的多模態(tài)傳感器圖像進(jìn)行處理。將可見光像素和近紅外像素分離。近紅外像素直接提取出來,組成一個(gè)低分辨率的近紅外圖像。在多模態(tài)傳感器的像素排列中,已經(jīng)提取了近紅外像素組成了低分辨的近紅外圖像,因此剩下的像素排列中,原本近紅外像素的位置為空,采取插值法進(jìn)行了填充,得到了一個(gè)高分辨的可見光圖像。最終得到了一個(gè)低分辨率的近紅外圖像和高分辨率的可見光圖像,對(duì)多模態(tài)傳感器圖像的處理過程如圖4所示,處理得到的圖像如圖5所示。

    1.3" 特征提取模塊

    近年來,Vision Transformer在圖像處理領(lǐng)域中取得了顯著的成功,尤其是在分類[16]、目標(biāo)檢測(cè)[17]和分割[18]等任務(wù)中表現(xiàn)出色。然而其對(duì)局部信息的捕捉能力相對(duì)較弱,且由于其對(duì)空間自注意力機(jī)制的依賴,計(jì)算開銷較大。

    為了克服傳統(tǒng)方法在圖像特征提取方面的局限性,受到ConvFormer模塊[19]的啟發(fā),本文提出了MultiScaleTransformer模塊,該模塊結(jié)合了Transformer與CNN的優(yōu)勢(shì),在標(biāo)準(zhǔn)Transformer架構(gòu)中引入了多尺度特征提取機(jī)制,使得模型能夠在不同尺度上提取特征,增強(qiáng)了對(duì)圖像局部和全局信息的捕捉能力,尤其適合處理高分辨率圖像。相比傳統(tǒng)的CNN和Vision Transformer,MultiScaleTransformer在結(jié)構(gòu)上更好地平衡了計(jì)算效率與特征提取能力,不僅能捕捉圖像中的全局依賴關(guān)系,還能有效保留空間細(xì)節(jié)信息。

    在高頻特征提取模塊上,本文提出了DEN模塊,該模塊在INN模塊[20]的基礎(chǔ)上引入了動(dòng)態(tài)特征處理節(jié)點(diǎn)和批歸一化層,增強(qiáng)了特征提取的靈活性和穩(wěn)定性,提高了對(duì)不同輸入數(shù)據(jù)的適應(yīng)能力和細(xì)節(jié)特征的捕捉精度。

    1.4" Pag模塊

    在多模態(tài)圖像處理任務(wù)中,傳統(tǒng)的融合策略如簡單的加法或加權(quán)平均,往往未能充分挖掘不同模態(tài)特征之間的互補(bǔ)性,導(dǎo)致融合效果不佳。針對(duì)這一問題,本文引入了Pag模塊。

    Pag模塊的核心思想是利用特征圖之間的語義信息,動(dòng)態(tài)調(diào)整每個(gè)特征圖的權(quán)重,以提高融合結(jié)果的準(zhǔn)確性。與傳統(tǒng)的固定融合策略不同,Pag模塊通過計(jì)算特征圖的相似度,自適應(yīng)地調(diào)整每個(gè)特征圖的權(quán)重,使得模型能夠根據(jù)輸入數(shù)據(jù)動(dòng)態(tài)優(yōu)化融合方式,避免了固定策略的局限性。此外,Pag模塊還可以選擇性地引入通道注意力機(jī)制,進(jìn)一步提升特征融合的精度,充分挖掘不同模態(tài)特征的互補(bǔ)性。更重要的是,Pag模塊能夠與模型的其他部分一起參與訓(xùn)練,使得融合策略在訓(xùn)練過程中自動(dòng)優(yōu)化,簡化了手動(dòng)調(diào)整參數(shù)的復(fù)雜性,并顯著提升了多模態(tài)圖像融合任務(wù)的表現(xiàn)。

    2" 近紅外與可見光圖像自適應(yīng)融合模型

    本節(jié)詳細(xì)介紹了所提出的近紅外與可見光圖像自適應(yīng)融合模型STAFuse的細(xì)節(jié),包括編碼器的中低頻特征和高頻特征提取模塊、自適應(yīng)融合模塊、損失函數(shù)。這里為了表示方便,將中低頻特征和高頻特征分別用結(jié)構(gòu)特征和紋理特征來表示。首先分別將可見光圖像和近紅外圖像輸入編碼器得到結(jié)構(gòu)特征和紋理特征,通過自適應(yīng)融合模塊得到融合特征,再將融合特征輸入到解碼其中得到輸出,其中將特征提取模塊中的多尺度特征與注意力融合后的特征在特征重建模塊中進(jìn)行連接,來補(bǔ)償卷積操作后的信息丟失,從而保留更多的圖像細(xì)節(jié)信息,提高圖像融合的質(zhì)量。

    2.1" STAFuse模型結(jié)構(gòu)

    在STAFuse中,受到Li等[21]提出的RFN-Nest模型的啟發(fā),模型訓(xùn)練過程采用二階段訓(xùn)練法,并在兩階段中加入了跳躍連接以充分利用編碼器、Pag自適應(yīng)融合模塊和解碼器的能力。在第一階段主要集中于優(yōu)化編碼器和解碼器的性能。編碼器從輸入的近紅外和可見光圖像中提取多尺度的特征,并通過跳躍連接將低層次特征直接傳遞到解碼器。解碼器負(fù)責(zé)從編碼器傳遞的特征中重建出圖像。第一階段訓(xùn)練的結(jié)構(gòu)如圖6所示。

    第二階段訓(xùn)練中,自適應(yīng)融合模塊Pag與編碼器和解碼器共同參與訓(xùn)練,并且繼續(xù)利用跳躍連接以保留多尺度特征。Pag模塊負(fù)責(zé)動(dòng)態(tài)調(diào)整不同模態(tài)圖像的特征權(quán)重,結(jié)合這些特征生成融合圖像。在此階段,編碼器繼續(xù)優(yōu)化其特征提取能力,解碼器則通過跳躍連接增強(qiáng)其對(duì)低層次細(xì)節(jié)特征的重建能力。第二階段訓(xùn)練的結(jié)構(gòu)如圖7所示,測(cè)試階段的結(jié)構(gòu)如圖8所示。

    2.2" 編碼器模塊

    如圖6所示,本文的編碼器模塊由三個(gè)主要部分構(gòu)成:公共卷積層、中低頻特征提取模塊MultiScale Transformer和高頻特征提取模塊DEN。

    首先,公共卷積層有兩個(gè)卷積層Conv1和Conv2,卷積核大小為3,使用零填充。如圖1在第一階段的訓(xùn)練中,對(duì)于可見光圖像的輸入,公共卷積層的計(jì)算過程可以表示:

    (3)

    其中,F(xiàn)shared表示公共卷積層的輸出,Ivis表示輸入的可見光圖像。

    之后,在編碼器中的第二部分引入了MultiScale Transformer模塊和DEN模塊。如圖1在第一階段的訓(xùn)中,對(duì)于可見光圖像的輸入,MultiScale Transformer和DEN的計(jì)算過程可以表示:

    (4)

    其中,表示經(jīng)過MultiScale Transformer得到的結(jié)構(gòu)特征,表示經(jīng)過DEN得到的紋理特征。

    2.3" 融合策略

    在多模態(tài)圖像融合任務(wù)中,本文引入了Pag模塊作為融合策略的核心組件,實(shí)現(xiàn)了更加有效的特征融合。如圖7所示,在第二階段訓(xùn)練中,Pag模塊的計(jì)算過程如下:

    對(duì)于輸入的特征圖x和y,分別通過卷積層進(jìn)行特征變換:

    (5)

    其中,fx和fy分別表示特征圖x和y的卷積變換。

    之后通過逐通道求和計(jì)算特征圖xk和yq的相似度:

    (6)

    其中,σ表示Sigmoid激活函數(shù),sim_map表示求得的權(quán)重圖。

    最后根據(jù)求得的相似度映射,將兩個(gè)特征圖進(jìn)行加權(quán)融合:

    (7)

    其中,xfused表示最后融合得到的特征圖。

    2.4" 解碼器模塊

    在STAFuse模型中,解碼器模塊的作用是將編碼器和自適應(yīng)融合模塊Pag處理后的特征圖進(jìn)行上采樣和重建,以生成最終的融合圖像。如圖6所示的第一階段的訓(xùn)練中,解碼器模塊由三個(gè)卷積層構(gòu)成分別為Conv3、Conv4和Conv5。Conv3、Conv4和Conv5都采用3×3的卷積核和邊緣填充,Conv3的目的是對(duì)融合的特征圖進(jìn)行初步的上采樣和特征融合,為后續(xù)的重建過程提供基礎(chǔ)。Conv4進(jìn)一步處理經(jīng)過Conv3層的特征圖,增強(qiáng)圖像的細(xì)節(jié)和紋理信息,同時(shí)通過跳躍連接接收來自編碼器的Conv2層的輸出,增強(qiáng)圖像的全局結(jié)構(gòu)信息。Conv5負(fù)責(zé)最終的圖像重建,該層通過跳躍連接接收來自編碼器的Conv1層的輸出,確保最終輸出的融合圖像能夠保留豐富的細(xì)節(jié)和紋理信息。

    2.5" 損失函數(shù)

    如圖6所示,在第一階段的訓(xùn)練中,第一步將近紅外和可見光圖像對(duì)Inir和Ivis分別輸入共享的公共卷積層中得到初始特征fnir和fvis。第二步將得到的初始特征分別輸入獨(dú)立的特征提取模塊中,這個(gè)特征模塊由MultiScale Transformer和DEN組成,fnir經(jīng)過MultiScale Transformer和DEN分別得到結(jié)構(gòu)特征和紋理特征,fvis經(jīng)過MultiScale Transformer和DEN得到結(jié)構(gòu)特征和紋理特征。第三步將和、和分別在通道上做拼接之后送入解碼器得到輸出Onir和Ovis。第一階段的損失函數(shù):

    (8)

    其中Lvis表示:

    (9)

    其中表示圖像之間的L2范數(shù),表示兩個(gè)圖像在像素值上的差異。SSIM(Ivis,Ovis)表示結(jié)構(gòu)相似度函數(shù),用于衡量兩個(gè)圖像在結(jié)構(gòu)、亮度和對(duì)比度上的相似性。Lgrad表示梯度損失:

    (10)

    其中∥?Ivis-Ovis∥使用的是L1范數(shù),?表示梯度算子,這一項(xiàng)的作用是度量Ivis和Ovis在邊緣和細(xì)節(jié)上的相似性。

    如圖7所示,在第二階段的訓(xùn)練,將近紅外圖像的結(jié)構(gòu)特征和可見光圖像的結(jié)構(gòu)特征作為Pag模塊的輸入,得到融合的結(jié)構(gòu)特征,將近紅外圖像的紋理特征和可見光圖像的紋理特征作為Pag模塊的輸入,得到融合的紋理特征,最后將和在通道上做拼接后作為解碼器的輸入得到融合圖像。第二階段訓(xùn)練的損失函數(shù)表示為:

    (11)

    其中表示:

    (12)

    表示:

    (13)

    代表融合模塊的損失,表示:

    (14)

    3" 實(shí)驗(yàn)及結(jié)果分析

    在本節(jié)中對(duì)所提出的模型進(jìn)行了實(shí)驗(yàn)驗(yàn)證。首先介紹對(duì)多模態(tài)傳感器分離后得到的圖像對(duì)的預(yù)處理,接著介紹了訓(xùn)練階段的參數(shù)設(shè)置,之后將融合網(wǎng)絡(luò)和現(xiàn)有的其他算法進(jìn)行了定性比較和定量分析,最后提出了幾項(xiàng)消融實(shí)驗(yàn),用于研究融合網(wǎng)絡(luò)中一些因素的影響。

    本文所提出的融合網(wǎng)絡(luò)是使用PyTorch作為編程環(huán)境,在NVIDIA GeForce RTX 3060上實(shí)現(xiàn)的。

    3.1 圖像預(yù)處理

    在2.3小節(jié)中提到,為了適應(yīng)融合網(wǎng)絡(luò)的輸入,對(duì)多模態(tài)傳感器的圖像進(jìn)行了預(yù)處理得到了低分辨率的近紅外圖像和高分辨率的可見光圖像,且可見光圖像的分辨率是近紅外圖像的4倍。本文設(shè)計(jì)的STAFuse需要相同分辨率的圖像對(duì)輸入,為了解決這個(gè)問題,引入了預(yù)訓(xùn)練的超分辨模塊VDSR[22],該模塊可以實(shí)現(xiàn)多種尺度的圖像超分辨,本文選擇了將低分辨的近紅外圖像分辨率變?yōu)樵瓉淼?倍,實(shí)驗(yàn)結(jié)果如圖9所示。

    3.2" 參數(shù)設(shè)置

    在訓(xùn)練階段,使用了RGB-NIR Scene Dataset的477對(duì)近紅外和可見光圖像對(duì)中的380對(duì)圖像對(duì)。在2.3節(jié)中先將這380對(duì)圖像對(duì)用于多模態(tài)傳感器模擬圖像的生成,在4.1節(jié)中將多模態(tài)傳感器生成的低分辨率近紅外圖像和高分辨的可見光圖像進(jìn)行預(yù)處理得到380對(duì)圖像對(duì)。對(duì)著380對(duì)圖像對(duì)進(jìn)行裁剪,裁剪的大小為256×256,得到4 128對(duì)近紅外和可見光的圖像對(duì)。

    在第一階段的訓(xùn)練中,設(shè)λ1 = 5,訓(xùn)練輪次為60輪,學(xué)習(xí)率設(shè)置為10-4且每隔20輪學(xué)習(xí)率降低為原來的一半,batch_size = 8。在第二階段的訓(xùn)練中,設(shè)λ2 = 1,λ3 = 1,λ4 = 2,訓(xùn)練輪次為80輪,學(xué)習(xí)率也設(shè)置為10-4且每隔20輪學(xué)習(xí)率降低為原來的一半。

    3.3" 實(shí)驗(yàn)結(jié)果

    在測(cè)試階段中,使用了RGB-NIR Scene Dataset中來自不同場(chǎng)景的97對(duì)近紅外和可見光圖像對(duì)作為測(cè)試集用于測(cè)試STAFuse的性能,并將融合結(jié)果與最先進(jìn)的方法進(jìn)行比較,包括Shallow CNN[10]、DenseFuse[9]、DIDFuse[4]和DDcGAN[11]。

    3.3.1" 定性比較和定量分析

    本節(jié)中將STAFuse模型的融合結(jié)果與幾種最先進(jìn)的圖像融合方法進(jìn)行了定性比較和定量比較。

    在圖10中展示了多對(duì)近紅外和可見光源圖像及其通過不同方法生成的融合圖像,并將部分關(guān)鍵區(qū)域進(jìn)行了放大比較。從圖10中可以看到,Shallow CNN在細(xì)節(jié)保留上表現(xiàn)欠佳,特別是在復(fù)雜場(chǎng)景中,生成的圖像較為模糊。DenseFuse在細(xì)節(jié)和對(duì)比度上有一定提升,但在邊緣處理上仍顯不足。DIDFuse雖然在邊緣清晰度和全局結(jié)構(gòu)還原上表現(xiàn)較好,但細(xì)節(jié)豐富度和對(duì)比度仍有所欠缺。相比之下,STAFuse能夠更好地結(jié)合近紅外圖像在低光或復(fù)雜環(huán)境中的表現(xiàn)和可見光圖像的細(xì)節(jié)信息。特別是復(fù)雜場(chǎng)景下的細(xì)節(jié),例如樹木的紋理或人行道的細(xì)微特征,STAFuse生成的融合圖像在亮度、對(duì)比度和邊緣清晰度方面均有顯著提升,呈現(xiàn)出更好的視覺效果。

    為了評(píng)估STAFuse模型的融合性能,本文采用了熵(EN)、標(biāo)準(zhǔn)差(SD)、互信息(MI)、差值相關(guān)總和(SCD)、視覺信息保真度(VIF)、邊緣保持指數(shù)(Qabf)和結(jié)構(gòu)相似性指數(shù)(SSIM)這7個(gè)指標(biāo)進(jìn)行評(píng)估。定量比較結(jié)果如表1所示,STAFuse模型在多數(shù)指標(biāo)上均表現(xiàn)出色,尤其是在EN、SD、MI和VIF方面,取得了明顯的提升。

    表1" 定量比較結(jié)果及消融實(shí)驗(yàn)分析

    具體而言,STAFuse在熵值和標(biāo)準(zhǔn)差上表現(xiàn)優(yōu)異,分別達(dá)到了7.29和51.97,這表明其融合圖像包含了較多信息量,并且保留了豐富的細(xì)節(jié)。相比之下,DenseFuse和DDcGAN在標(biāo)準(zhǔn)差上的得分分別為63.76和51.76,雖然稍高,但STAFuse在其他指標(biāo)上的優(yōu)勢(shì)更加明顯。例如,STAFuse的VIF達(dá)到了1.10,相比于DenseFuse的0.72和DDcGAN的0.88,提升了約53%和25%。這表明STAFuse生成的融合圖像在視覺質(zhì)量上更接近于人類的視覺感知。在Qabf和SSIM上,STAFuse也表現(xiàn)突出,分別取得了0.67和0.75的較高得分。相較于DIDFuse的0.49和DenseFuse的0.37,STAFuse的Qabf提升了約37%和81%。同樣,STAFuse在SSIM上也有顯著提升,達(dá)到了0.75,較DenseFuse的0.37提高了102.7%。這些結(jié)果表明,STAFuse不僅能在融合過程中保持圖像結(jié)構(gòu)的一致性,還能更好地保留邊緣信息和關(guān)鍵特征。此外,盡管DDcGAN在熵值上達(dá)到了7.43,略高于STAFuse的7.29,但其在MI和SSIM上的表現(xiàn)欠佳,無法充分結(jié)合來自不同模態(tài)圖像的互補(bǔ)信息。

    綜上所述,STAFuse在多個(gè)關(guān)鍵指標(biāo)上優(yōu)于現(xiàn)有方法,特別是在細(xì)節(jié)保留、視覺質(zhì)量和融合圖像的結(jié)構(gòu)完整性方面表現(xiàn)出色。這證明了STAFuse自適應(yīng)融合策略的有效性和魯棒性。

    3.3.2" 消融實(shí)驗(yàn)

    為了驗(yàn)證STAFuse中自適應(yīng)融合策略的有效性,本文設(shè)計(jì)了消融實(shí)驗(yàn),分別將自適應(yīng)融合模塊替換為平均融合(Average)和殘差融合策略(RFN)。表1展示了不同融合策略下模型的性能。結(jié)果表明,自適應(yīng)融合策略能夠顯著提升融合圖像的質(zhì)量,尤其在VIF和SSIM等關(guān)鍵指標(biāo)上表現(xiàn)更佳。具體來說,使用自適應(yīng)融合策略時(shí),模型的VIF指標(biāo)達(dá)到1.10,相較于平均融合策略(1.08)提升了約1.9%,相較于殘差融合策略(1.09)提升了約0.9%。此外,SSIM從平均融合策略的0.72提升到0.75,增幅為4.2%;相較于殘差融合策略(0.72),SSIM也提升了約4.2%。這些結(jié)果證明了自適應(yīng)融合策略在不同模態(tài)圖像融合中的優(yōu)勢(shì),能夠更好地保留圖像的結(jié)構(gòu)和細(xì)節(jié)信息,顯著提升了融合圖像的整體質(zhì)量。

    4" 結(jié)" 論

    本文提出了一種基于頻域分解的近紅外與可見光圖像自適應(yīng)融合模型STAFuse,利用結(jié)合Transformer與CNN的特征提取模塊,以及自適應(yīng)融合模塊Pag,實(shí)現(xiàn)了不同模態(tài)圖像特征的有效融合。在多模態(tài)數(shù)據(jù)的獲取上,提出了一種多模態(tài)傳感器的改進(jìn)方案,為圖像融合技術(shù)的發(fā)展提供了新的思路。實(shí)驗(yàn)結(jié)果表明,STAFuse在多個(gè)評(píng)估指標(biāo)上均取得了較為優(yōu)異的成績,能夠在復(fù)雜環(huán)境下生成具有高細(xì)節(jié)保留、良好對(duì)比度和視覺質(zhì)量的融合圖像。此外,通過消融實(shí)驗(yàn)驗(yàn)證了自適應(yīng)融合策略在提升融合圖像質(zhì)量方面的有效性。

    在未來的工作中,計(jì)劃將STAFuse模型部署到FPGA上,結(jié)合新型多模態(tài)傳感器,構(gòu)建一個(gè)集成化的圖像采集和處理系統(tǒng)。通過將模型部署到FPGA上,一方面可以充分利用硬件加速的優(yōu)勢(shì),提升圖像融合處理的實(shí)時(shí)性和效率,特別是在低功耗和資源受限的場(chǎng)景下。另一方面,F(xiàn)PGA作為獨(dú)立的硬件平臺(tái),可以實(shí)現(xiàn)系統(tǒng)的高度集成,使圖像處理系統(tǒng)不再依賴PC端的GPU處理器,從而具備更高的可移植性和靈活性,適合于嵌入式應(yīng)用場(chǎng)景,特別是在無人機(jī)、自動(dòng)駕駛、智能監(jiān)控等對(duì)體積、功耗和實(shí)時(shí)性要求嚴(yán)格的應(yīng)用中,F(xiàn)PGA的硬件加速特性將為此類產(chǎn)品提供更具競(jìng)爭力的解決方案。

    參考文獻(xiàn):

    [1] LAHOUD F,SUSSTRUNK S. Ar in VR: Simulating Infrared Augmented Vision [C]//2018 25th IEEE International Conference on Image Processing (ICIP).Athens:IEEE,2018:3893-3897.

    [2] HU H M,WU J W,LI B,et al. An Adaptive Fusion Algorithm for Visible and Infrared Videos Based on Entropy and the Cumulative Distribution of Gray Levels [J].IEEE Transactions on Multimedia,2017,19(12):2706-2719.

    [3] MA J Y,ZHOU Y. Infrared and Visible Image Fusion Via Gradientlet Filter [J].Computer Vision and Image Understanding,2020,197/198:12.

    [4] ZHAO Z X,XU S,ZHANG C X,et al. DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion [J/OL].arXiv:2003.09210 [eess.IV].[2024-10-08].https://arxiv.org/abs/2003.09210?context=eess.

    [5] LI S T,YANG B,HU J W. Performance Comparison of Different Multi-Resolution Transforms for Image Fusion [J].Information Fusion,2011,12(2):74-84.

    [6] ZONG J J,QIU T S. Medical Image Fusion Based on Sparse Representation of Classified Image Patches [J].Biomedical Signal Processing and Control,2017,34:195-205.

    [7] LI H,WU X J,KITTLER J. Infrared and Visible Image Fusion Using A Deep Learning Framework [C]//2018 24th international conference on pattern recognition (ICPR).Beijing:IEEE,2018:2705-2710.

    [8] MA J Y,YU W,LIANG P,et al. FusionGAN: A Generative Adversarial Network for Infrared and Visible Image Fusion [J].Information Fusion,2018,48:11-26.

    [9] LI H,WU X J. DenseFuse: A Fusion Approach to Infrared and Visible Images [J].IEEE Transactions on Image Processing,2019,28(5):2614-2623.

    [10] LI L,XIA Z Q,HAN H J,et al. Infrared and Visible Image Fusion Using a Shallow CNN and Structural Similarity Constraint [J].IET Image Processing,2020,14(14):3562-3571.

    [11] MA J Y,XU H,JIANG J J,et al. DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion [J].IEEE Transactions on Image Processing,2020,29:4980-4995.

    [12] XU J C,XIONG Z X,BHATTACHARYYA S P. PIDNet: A real-time Semantic Segmentation Network Inspired by PID Controllers [C]//2023 IEEE/CVF conference on computer vision and pattern recognition.Vancouver:IEEE,2023:19529-19539.

    [13] XU L L,LIANG P X,HAN J,et al. Global Filter of Fusing Near-Infrared and Visible Images in Frequency Domain for Defogging [J].IEEE Signal Processing Letters,2022,29:1953-1957.

    [14] JANG D W,PARK R H. Colour Image Dehazing Using near-Infrared Fusion [J].IET Image Processing,2017,11(8):587-594.

    [15] ROWN M,SüSSTRUNK S. Multi-Spectral SIFT for Scene Category Recognition [C]//CVPR 2011.Colorado Springs:IEEE,2011:177-184.

    [16] DOSOVITSKIY A,BEYER L,KOLESNIKOV A,et al. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale [J/OL].arXiv:2010.11929 [cs.CV].[2024-10-08].https://arxiv.org/abs/2010.11929v2.

    [17] CARION N,MASSA F,SYNNAEVE G,et al. End-to-End Object Detection with Transformers [C]//16th European conference on computer vision.Glasgow:Springer,2020:213-229.

    [18] ZHENG S X,LU J C,ZHAO H S,et al. Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers [C]//2021 IEEE/CVF conference on computer vision and pattern recognition.Nashville:IEEE,2021:6877-6886.

    [19] LIN X,YAN Z Q,DENG X B,et al. Conv Former: Plug-and-play CNN-style transformers for improving medical image segmentation [C]//26th International Conference on Medical Image Computing and Computer-Assisted Intervention.Vancouver:Springer,2023:642-651.

    [20] ARDIZZONE L,KRUSE J,WIRKERT S,et al. Analyzing Inverse Problems with Invertible Neural Networks [J/OL].arXiv:1808.04730 [cs.LG].[2024-10-09].https://arxiv.org/abs/1808.04730.

    [21] LI H,WU X J,KITTLER J. RFN-Nest: An end-to-End Residual Fusion Network for Infrared and Visible Images [J].Information Fusion,2021,73:72-86.

    [22] KIM J,LEE J K,LEE K M. Accurate Image Super-Resolution Using Very Deep Convolutional Networks [C]//2016 IEEE conference on computer vision and pattern recognition.Las Vegas:IEEE,2016:1646-1654.

    作者簡介:李振偉(2000—),男,漢族,福建福鼎人,碩士在讀,研究方向:深度學(xué)習(xí)、圖像融合。

    成人国产一区最新在线观看| 久久久久久久久久成人| 国产精品伦人一区二区| 国产欧美日韩一区二区精品| 最近在线观看免费完整版| 欧美+日韩+精品| 国产精品电影一区二区三区| 黄色配什么色好看| 麻豆久久精品国产亚洲av| 中文字幕av成人在线电影| 午夜福利18| 国产真实伦视频高清在线观看 | 美女免费视频网站| 国产亚洲91精品色在线| 亚洲熟妇熟女久久| 欧美性猛交黑人性爽| 舔av片在线| 亚洲综合色惰| 欧美性猛交黑人性爽| 亚洲av熟女| 春色校园在线视频观看| 一级黄片播放器| 亚洲欧美激情综合另类| 级片在线观看| 免费看光身美女| 国产精品1区2区在线观看.| av在线蜜桃| 最好的美女福利视频网| 欧美黑人欧美精品刺激| 一区二区三区四区激情视频 | 韩国av一区二区三区四区| 国产在线男女| 欧美高清成人免费视频www| 老师上课跳d突然被开到最大视频| 国产色爽女视频免费观看| 国产精品一区二区免费欧美| 午夜福利成人在线免费观看| 中文字幕免费在线视频6| 国产在线精品亚洲第一网站| 国内精品一区二区在线观看| 日韩一本色道免费dvd| 午夜福利18| 国产精品免费一区二区三区在线| 天堂动漫精品| 色播亚洲综合网| 免费搜索国产男女视频| 国产真实乱freesex| 韩国av在线不卡| 精品久久久噜噜| 国产免费男女视频| 2021天堂中文幕一二区在线观| 午夜a级毛片| 超碰av人人做人人爽久久| а√天堂www在线а√下载| 一级黄片播放器| 99热精品在线国产| 成年女人看的毛片在线观看| 免费看a级黄色片| 日本 av在线| 日本 av在线| 成年女人永久免费观看视频| 最近最新免费中文字幕在线| 日韩欧美精品免费久久| 熟女人妻精品中文字幕| 狂野欧美白嫩少妇大欣赏| 非洲黑人性xxxx精品又粗又长| 成年免费大片在线观看| 能在线免费观看的黄片| 日本a在线网址| 欧美性猛交黑人性爽| 美女高潮喷水抽搐中文字幕| 99热网站在线观看| 午夜福利欧美成人| 国产探花极品一区二区| 亚洲不卡免费看| 午夜福利在线观看吧| 日本免费a在线| 久久99热这里只有精品18| 免费在线观看影片大全网站| av天堂中文字幕网| av在线亚洲专区| av专区在线播放| 欧美中文日本在线观看视频| 真人一进一出gif抽搐免费| 日本一二三区视频观看| 亚洲专区国产一区二区| 亚洲四区av| 国产伦精品一区二区三区视频9| 亚洲成人久久性| 免费av观看视频| 啦啦啦韩国在线观看视频| 天堂影院成人在线观看| 国产v大片淫在线免费观看| 又爽又黄无遮挡网站| 免费大片18禁| 最近视频中文字幕2019在线8| 少妇的逼好多水| 久久中文看片网| 国产私拍福利视频在线观看| 精品国产三级普通话版| 免费大片18禁| 国产成人av教育| 级片在线观看| av天堂中文字幕网| 村上凉子中文字幕在线| 天堂网av新在线| 麻豆一二三区av精品| 午夜精品一区二区三区免费看| 精品久久久久久久久久久久久| 欧美+亚洲+日韩+国产| 国产一区二区三区视频了| 一个人看的www免费观看视频| 国产探花极品一区二区| 亚洲av二区三区四区| 日韩国内少妇激情av| 国产高清不卡午夜福利| 欧美+亚洲+日韩+国产| 村上凉子中文字幕在线| 91精品国产九色| 真实男女啪啪啪动态图| 国产激情偷乱视频一区二区| 永久网站在线| 男女做爰动态图高潮gif福利片| 18禁在线播放成人免费| 少妇猛男粗大的猛烈进出视频 | 国产精品久久久久久精品电影| 香蕉av资源在线| 九色成人免费人妻av| 免费观看人在逋| 精品一区二区三区视频在线| 国产精品伦人一区二区| 亚洲av成人精品一区久久| 大又大粗又爽又黄少妇毛片口| 精品国内亚洲2022精品成人| 久久精品国产99精品国产亚洲性色| 午夜激情福利司机影院| 在线看三级毛片| 18禁黄网站禁片午夜丰满| 久久精品国产亚洲网站| 春色校园在线视频观看| 国产欧美日韩精品一区二区| 小蜜桃在线观看免费完整版高清| 亚洲最大成人手机在线| 91精品国产九色| 日韩欧美在线乱码| 97碰自拍视频| 九色成人免费人妻av| 男人和女人高潮做爰伦理| 免费看av在线观看网站| 国产伦在线观看视频一区| 老熟妇仑乱视频hdxx| 国产私拍福利视频在线观看| 观看美女的网站| 久久九九热精品免费| 亚洲一区高清亚洲精品| 国产精品野战在线观看| 黄色一级大片看看| 永久网站在线| 欧美精品国产亚洲| 午夜福利视频1000在线观看| 久久精品国产鲁丝片午夜精品 | 欧美+亚洲+日韩+国产| 99久久精品热视频| 欧美激情在线99| 久久久国产成人精品二区| 国产亚洲精品综合一区在线观看| 日本免费一区二区三区高清不卡| 91麻豆精品激情在线观看国产| 亚洲精品国产成人久久av| 大型黄色视频在线免费观看| 少妇的逼好多水| 夜夜看夜夜爽夜夜摸| 免费看光身美女| h日本视频在线播放| 亚洲第一区二区三区不卡| 亚洲中文日韩欧美视频| 春色校园在线视频观看| 午夜免费激情av| a在线观看视频网站| 欧美色视频一区免费| 亚洲人成伊人成综合网2020| 如何舔出高潮| 亚洲美女搞黄在线观看 | 一区二区三区高清视频在线| 日韩人妻高清精品专区| 国产不卡一卡二| 国产伦精品一区二区三区视频9| 99九九线精品视频在线观看视频| 一进一出抽搐动态| 日日夜夜操网爽| 午夜福利高清视频| a级毛片a级免费在线| 免费观看人在逋| 久久99热6这里只有精品| 亚洲精华国产精华液的使用体验 | 在线观看午夜福利视频| 国产在视频线在精品| 一个人看的www免费观看视频| 男人舔女人下体高潮全视频| 欧美xxxx黑人xx丫x性爽| 亚洲国产精品久久男人天堂| h日本视频在线播放| 国产高清激情床上av| 欧美性猛交黑人性爽| 伦精品一区二区三区| 91午夜精品亚洲一区二区三区 | 亚洲人与动物交配视频| 国产精品野战在线观看| 白带黄色成豆腐渣| 国产精品一区二区免费欧美| 精品乱码久久久久久99久播| www.色视频.com| 亚洲国产欧洲综合997久久,| 久久精品综合一区二区三区| 18禁在线播放成人免费| 男女视频在线观看网站免费| av女优亚洲男人天堂| 美女 人体艺术 gogo| 美女高潮的动态| 尤物成人国产欧美一区二区三区| 国产精品久久久久久av不卡| 男女之事视频高清在线观看| 女人十人毛片免费观看3o分钟| 夜夜爽天天搞| 男人和女人高潮做爰伦理| 亚洲七黄色美女视频| 亚洲性夜色夜夜综合| 亚洲欧美激情综合另类| 国产精品人妻久久久久久| 在线观看免费视频日本深夜| 国产一级毛片七仙女欲春2| 亚洲国产精品成人综合色| 两个人的视频大全免费| 此物有八面人人有两片| 日韩一本色道免费dvd| 国产精品一区二区性色av| 亚洲精品日韩av片在线观看| 国产精品av视频在线免费观看| 国产av不卡久久| 综合色av麻豆| 一本久久中文字幕| 久99久视频精品免费| 干丝袜人妻中文字幕| 欧美日韩亚洲国产一区二区在线观看| 亚洲人成网站高清观看| 欧美日韩瑟瑟在线播放| 久久久久久九九精品二区国产| 人妻夜夜爽99麻豆av| 91av网一区二区| 3wmmmm亚洲av在线观看| 岛国在线免费视频观看| 久久久精品欧美日韩精品| 啪啪无遮挡十八禁网站| 久久久久久久久久久丰满 | 色综合亚洲欧美另类图片| bbb黄色大片| 白带黄色成豆腐渣| 制服丝袜大香蕉在线| 精品久久久噜噜| 97人妻精品一区二区三区麻豆| a在线观看视频网站| 成人综合一区亚洲| 国产精品亚洲一级av第二区| 国产精品伦人一区二区| 国产又黄又爽又无遮挡在线| 99久久九九国产精品国产免费| 精品一区二区三区视频在线观看免费| 免费电影在线观看免费观看| 欧美成人性av电影在线观看| 免费看日本二区| 老熟妇乱子伦视频在线观看| 久久精品国产亚洲av香蕉五月| 久久亚洲真实| 色尼玛亚洲综合影院| 又紧又爽又黄一区二区| 国产私拍福利视频在线观看| 给我免费播放毛片高清在线观看| 丰满的人妻完整版| 国内精品宾馆在线| 成人国产综合亚洲| 国内毛片毛片毛片毛片毛片| 免费观看精品视频网站| 日韩欧美三级三区| 精品人妻一区二区三区麻豆 | 日本成人三级电影网站| 亚洲aⅴ乱码一区二区在线播放| 欧美潮喷喷水| 久久久久久久久久黄片| 亚洲精品乱码久久久v下载方式| 亚洲 国产 在线| 18禁裸乳无遮挡免费网站照片| 色5月婷婷丁香| 国产精品一区二区三区四区久久| 国产精品伦人一区二区| 欧美日韩瑟瑟在线播放| 婷婷六月久久综合丁香| 男人狂女人下面高潮的视频| 国产男靠女视频免费网站| 好男人在线观看高清免费视频| 看十八女毛片水多多多| 亚洲av熟女| 国产精品不卡视频一区二区| 97超视频在线观看视频| 天堂影院成人在线观看| 黄色女人牲交| 欧美极品一区二区三区四区| 国产真实伦视频高清在线观看 | 又爽又黄a免费视频| 精品久久久久久,| 日韩高清综合在线| av天堂中文字幕网| 男女视频在线观看网站免费| 国产精品一区二区三区四区免费观看 | 老司机深夜福利视频在线观看| 久久精品国产亚洲av涩爱 | 极品教师在线视频| 亚洲最大成人中文| 99热网站在线观看| 国产亚洲av嫩草精品影院| 免费在线观看日本一区| 又粗又爽又猛毛片免费看| 少妇裸体淫交视频免费看高清| 午夜福利成人在线免费观看| 久久香蕉精品热| 波多野结衣高清作品| 美女 人体艺术 gogo| 伊人久久精品亚洲午夜| 日日撸夜夜添| 国产美女午夜福利| 欧美激情久久久久久爽电影| 99热网站在线观看| 亚洲成人久久爱视频| 欧美+日韩+精品| 免费电影在线观看免费观看| 熟女电影av网| 美女黄网站色视频| 久久久久九九精品影院| 亚洲久久久久久中文字幕| 天天一区二区日本电影三级| 国内少妇人妻偷人精品xxx网站| 99九九线精品视频在线观看视频| 亚洲人成网站在线播| 乱人视频在线观看| 日韩亚洲欧美综合| netflix在线观看网站| 中文字幕av成人在线电影| 男女之事视频高清在线观看| 级片在线观看| 嫩草影视91久久| 亚洲aⅴ乱码一区二区在线播放| 国产精品一区二区免费欧美| 日韩欧美国产一区二区入口| av视频在线观看入口| 天堂网av新在线| 18禁黄网站禁片免费观看直播| 午夜福利视频1000在线观看| 国产精品99久久久久久久久| 美女黄网站色视频| 特大巨黑吊av在线直播| 一级a爱片免费观看的视频| 国产亚洲欧美98| 午夜福利在线在线| 桃色一区二区三区在线观看| 亚洲成人精品中文字幕电影| 麻豆av噜噜一区二区三区| 中文字幕av成人在线电影| 亚洲国产色片| 免费在线观看影片大全网站| 久久午夜亚洲精品久久| 亚洲国产精品合色在线| 噜噜噜噜噜久久久久久91| 啦啦啦韩国在线观看视频| 亚洲国产精品sss在线观看| 麻豆成人午夜福利视频| 亚洲 国产 在线| 日韩 亚洲 欧美在线| 三级国产精品欧美在线观看| 午夜爱爱视频在线播放| 亚洲第一区二区三区不卡| 色精品久久人妻99蜜桃| 亚洲中文字幕日韩| 最近中文字幕高清免费大全6 | 免费人成在线观看视频色| 欧美xxxx性猛交bbbb| 成人美女网站在线观看视频| 国产男靠女视频免费网站| 性色avwww在线观看| 欧美高清成人免费视频www| 亚洲综合色惰| 午夜激情欧美在线| 伦理电影大哥的女人| 国产精品一区二区三区四区久久| 国产精品久久久久久久久免| 色哟哟哟哟哟哟| 成人午夜高清在线视频| 日日夜夜操网爽| 男女做爰动态图高潮gif福利片| 99热6这里只有精品| 一级黄色大片毛片| 一级毛片久久久久久久久女| 老师上课跳d突然被开到最大视频| 国产午夜精品久久久久久一区二区三区 | 亚洲国产精品合色在线| 色综合站精品国产| 免费av观看视频| 国产精品精品国产色婷婷| 亚洲精华国产精华液的使用体验 | 久久久成人免费电影| 亚洲第一电影网av| 色吧在线观看| 成人一区二区视频在线观看| 久久久久久大精品| av在线亚洲专区| 日本免费a在线| 人妻制服诱惑在线中文字幕| 日本 欧美在线| 国产视频一区二区在线看| 桃红色精品国产亚洲av| 国产精品综合久久久久久久免费| 成人性生交大片免费视频hd| 又粗又爽又猛毛片免费看| 久久久久性生活片| 美女免费视频网站| 久久久久精品国产欧美久久久| 日韩欧美三级三区| 99久久精品一区二区三区| or卡值多少钱| 日韩国内少妇激情av| 亚洲aⅴ乱码一区二区在线播放| 国产精品1区2区在线观看.| 亚洲精华国产精华精| 亚洲成人免费电影在线观看| 久99久视频精品免费| 午夜免费成人在线视频| 亚洲av电影不卡..在线观看| 99久久精品热视频| 人妻丰满熟妇av一区二区三区| 国产一区二区在线av高清观看| 人人妻人人看人人澡| 我要搜黄色片| 伦理电影大哥的女人| 精品人妻偷拍中文字幕| 国产视频内射| 亚洲成人精品中文字幕电影| 国产久久久一区二区三区| www.色视频.com| 亚洲在线自拍视频| 91久久精品国产一区二区三区| 级片在线观看| 成人国产麻豆网| 老熟妇仑乱视频hdxx| 精品久久久久久久久av| 人妻久久中文字幕网| 999久久久精品免费观看国产| 91麻豆精品激情在线观看国产| 精品午夜福利视频在线观看一区| 91久久精品电影网| 午夜亚洲福利在线播放| 精品国内亚洲2022精品成人| 一a级毛片在线观看| 国产日本99.免费观看| av.在线天堂| 69av精品久久久久久| 熟妇人妻久久中文字幕3abv| 美女黄网站色视频| 亚洲久久久久久中文字幕| 日韩欧美精品v在线| bbb黄色大片| 日本与韩国留学比较| 亚洲男人的天堂狠狠| 国内揄拍国产精品人妻在线| 成人二区视频| 欧美又色又爽又黄视频| 两人在一起打扑克的视频| 美女大奶头视频| 欧美高清性xxxxhd video| 美女高潮喷水抽搐中文字幕| 国产精品人妻久久久久久| av视频在线观看入口| 在线a可以看的网站| 国内精品宾馆在线| 国产男靠女视频免费网站| 色av中文字幕| 亚洲18禁久久av| 亚洲精华国产精华液的使用体验 | 国产一区二区三区av在线 | xxxwww97欧美| 亚洲美女视频黄频| 欧美一级a爱片免费观看看| 中文字幕熟女人妻在线| 一个人看的www免费观看视频| 男插女下体视频免费在线播放| 日韩人妻高清精品专区| 色av中文字幕| 国产欧美日韩精品亚洲av| 国产午夜精品论理片| 欧美成人a在线观看| 在线天堂最新版资源| 无人区码免费观看不卡| avwww免费| 国产色婷婷99| 天美传媒精品一区二区| 又黄又爽又免费观看的视频| 一本一本综合久久| av天堂在线播放| 国产久久久一区二区三区| 久久人人爽人人爽人人片va| 搞女人的毛片| 毛片女人毛片| 亚洲自拍偷在线| 日本在线视频免费播放| 亚洲熟妇熟女久久| 91狼人影院| 亚洲精华国产精华精| 国产高清视频在线播放一区| 如何舔出高潮| 长腿黑丝高跟| 少妇熟女aⅴ在线视频| 国产成人影院久久av| 老熟妇仑乱视频hdxx| 如何舔出高潮| 亚洲18禁久久av| 国产精品亚洲美女久久久| www.www免费av| 22中文网久久字幕| 欧美3d第一页| 国产91精品成人一区二区三区| 亚洲三级黄色毛片| 亚洲av一区综合| 在线a可以看的网站| 午夜激情欧美在线| 国产蜜桃级精品一区二区三区| 天堂av国产一区二区熟女人妻| 国产伦人伦偷精品视频| 九九在线视频观看精品| 中文字幕精品亚洲无线码一区| 国产高清激情床上av| 久久久久久久亚洲中文字幕| 少妇裸体淫交视频免费看高清| 在线天堂最新版资源| 97超级碰碰碰精品色视频在线观看| avwww免费| 亚洲av成人精品一区久久| 亚洲内射少妇av| 国产激情偷乱视频一区二区| 国产午夜精品久久久久久一区二区三区 | 日本与韩国留学比较| 久久精品国产亚洲网站| av中文乱码字幕在线| 美女高潮的动态| 搡老岳熟女国产| 免费黄网站久久成人精品| 黄色女人牲交| 色尼玛亚洲综合影院| 久久精品国产清高在天天线| 亚洲人成网站高清观看| 床上黄色一级片| 看黄色毛片网站| 日韩欧美免费精品| 国产精品久久视频播放| 欧美日韩综合久久久久久 | 久久久国产成人精品二区| 亚洲自拍偷在线| 午夜福利成人在线免费观看| 精华霜和精华液先用哪个| 亚洲av成人精品一区久久| 一个人免费在线观看电影| 日韩中文字幕欧美一区二区| 成人二区视频| 国产国拍精品亚洲av在线观看| 伊人久久精品亚洲午夜| 内地一区二区视频在线| 久久精品久久久久久噜噜老黄 | 国产精品福利在线免费观看| 亚洲天堂国产精品一区在线| 我要搜黄色片| 国产免费一级a男人的天堂| 干丝袜人妻中文字幕| 波多野结衣高清作品| 不卡视频在线观看欧美| 真人一进一出gif抽搐免费| 97人妻精品一区二区三区麻豆| 联通29元200g的流量卡| 女人十人毛片免费观看3o分钟| 日本免费一区二区三区高清不卡| 直男gayav资源| 俄罗斯特黄特色一大片| 国产午夜福利久久久久久| 色av中文字幕| 91久久精品国产一区二区三区| 久久香蕉精品热| 老司机午夜福利在线观看视频| 久久久久久伊人网av| 国产成人a区在线观看| 国产成人福利小说| 亚洲,欧美,日韩| 国产黄色小视频在线观看| 欧美精品啪啪一区二区三区| 中国美女看黄片| av天堂在线播放| 天堂网av新在线| 一个人观看的视频www高清免费观看| 精品人妻偷拍中文字幕| 午夜久久久久精精品| 精品免费久久久久久久清纯| 悠悠久久av| 黄色丝袜av网址大全| 国产伦精品一区二区三区视频9| 韩国av一区二区三区四区| 禁无遮挡网站| 色噜噜av男人的天堂激情| 欧美高清成人免费视频www| 国内精品宾馆在线| 久久亚洲精品不卡| 色5月婷婷丁香|