• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)

    2023-10-21 07:09:02虞資興瞿紹軍何鑫王卓
    計(jì)算機(jī)應(yīng)用 2023年10期
    關(guān)鍵詞:池化語(yǔ)義像素

    虞資興,瞿紹軍*,何鑫,王卓

    高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)

    虞資興1,瞿紹軍1*,何鑫2,王卓1

    (1.湖南師范大學(xué) 信息科學(xué)與工程學(xué)院,長(zhǎng)沙 410081; 2.湖南華諾星空電子技術(shù)有限公司,長(zhǎng)沙 410221)( ? 通信作者電子郵箱qshj@hunnu.edu.cn)

    多數(shù)語(yǔ)義分割網(wǎng)絡(luò)利用雙線性插值將高級(jí)特征圖的分辨率恢復(fù)至與低級(jí)特征圖一樣的分辨率再進(jìn)行融合操作,導(dǎo)致部分高級(jí)語(yǔ)義信息在空間上無(wú)法與低級(jí)特征圖對(duì)齊,進(jìn)而造成語(yǔ)義信息的丟失。針對(duì)以上問(wèn)題,改進(jìn)雙邊分割網(wǎng)絡(luò)(BiSeNet),并基于此提出一種高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)(HLFGNet)。首先,提出高低維特征引導(dǎo)模塊(HLFGM)來(lái)通過(guò)低級(jí)特征圖的空間位置信息引導(dǎo)高級(jí)語(yǔ)義信息在上采樣過(guò)程中的位移;同時(shí),利用高級(jí)特征圖來(lái)獲取強(qiáng)特征表達(dá),并結(jié)合注意力機(jī)制來(lái)消除低級(jí)特征圖中冗余的邊緣細(xì)節(jié)信息以及減少像素誤分類的情況。其次,引入改進(jìn)后的金字塔池化引導(dǎo)模塊(PPGM)來(lái)獲取全局上下文信息并加強(qiáng)不同尺度局部上下文信息的有效融合。在Cityscapes驗(yàn)證集和CamVid測(cè)試集上的實(shí)驗(yàn)結(jié)果表明,HLFGNet的平均交并比(mIoU)分別為76.67%與70.90%,每秒傳輸幀數(shù)分別為75.0、96.2;而相較于BiSeNet,HLFGNet的mIoU分別提高了1.76和3.40個(gè)百分點(diǎn)??梢?jiàn),HLFGNet能夠較為準(zhǔn)確地識(shí)別場(chǎng)景信息,并能滿足實(shí)時(shí)性要求。

    實(shí)時(shí)語(yǔ)義分割;上采樣;注意力機(jī)制;金字塔池化;上下文信息

    0 引言

    語(yǔ)義分割(semantic segmentation)是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)之一,它的主要價(jià)值是能夠?qū)D像分割成幾組具有某種特定語(yǔ)義的像素區(qū)域,并識(shí)別每個(gè)區(qū)域的類別,最終獲得幾幅具有像素語(yǔ)義標(biāo)注的圖像。因此語(yǔ)義分割在室內(nèi)導(dǎo)航、地理信息系統(tǒng)、自動(dòng)駕駛、虛擬增強(qiáng)現(xiàn)實(shí)系統(tǒng)和場(chǎng)景理解等領(lǐng)域有著重要的應(yīng)用價(jià)值[1]。傳統(tǒng)語(yǔ)義分割利用圖像灰度、空間紋理、顏色和幾何形狀等低級(jí)特征將圖像分割成不同部分,主要有基于閾值的分割方法[2]、基于邊緣的分割方法[3]、基于區(qū)域的分割方法[4-5]和基于圖的分割方法[6]等。雖然這些方法分割速度快,但需要人為設(shè)計(jì)特征提取器,同時(shí)對(duì)復(fù)雜場(chǎng)景的分割效果不佳?;谏疃葘W(xué)習(xí)的語(yǔ)義分割方法表現(xiàn)出強(qiáng)大的特征提取能力,Long等[7]提出全卷積網(wǎng)絡(luò)(Fully Convolutional Network, FCN),將卷積神經(jīng)網(wǎng)(Convolutional Neural Network, CNN)[8]中的全連接層替換為全卷積層以實(shí)現(xiàn)像素級(jí)的密集預(yù)測(cè),使用反卷積對(duì)特征圖上采樣,并提出跳躍連接充分融合全局語(yǔ)義信息和局部位置信息,實(shí)現(xiàn)精確分割[9],為語(yǔ)義分割的快速發(fā)展奠定了基礎(chǔ)。

    盡管FCN模型強(qiáng)大且普適,但它固有的空間不變性導(dǎo)致它沒(méi)有考慮有用的全局上下文信息;同時(shí),隨著圖像不斷的下采樣操作,分辨率不斷縮小,導(dǎo)致部分像素丟失,嚴(yán)重影響了最終的分割精準(zhǔn)性。針對(duì)前者,金字塔場(chǎng)景解析網(wǎng)絡(luò)(Pyramid Scene Parsing Network, PSPNet)[10]使用金字塔池化(Pyramid Pooling)模塊抽取多尺度的上下文信息,以解決物體多尺度的問(wèn)題從而提升精度;DeepLab-v2[11]提出了一種新的空洞卷積(Atrous Convolution),以抽取多尺度上下文信息。針對(duì)后者,Ronneberger等[12]提出了一種編碼器?解碼器的網(wǎng)絡(luò)模型U-Net,U-Net由收縮路徑和擴(kuò)展路徑組成:收縮路徑利用下采樣捕捉上下文信息,提取特征;擴(kuò)展路徑是一個(gè)解碼器,使用上采樣操作還原原始圖像的位置信息,逐步恢復(fù)物體細(xì)節(jié)和圖像分辨率。Yu等[13]利用雙分支結(jié)構(gòu)設(shè)計(jì)了雙邊分割網(wǎng)絡(luò)(Bilateral Segmentation Network, BiSeNet),主要思想是用一個(gè)帶有小步長(zhǎng)的空間路徑保留空間位置信息,生成低級(jí)的高分辨率的特征圖;再用輕量特征提取網(wǎng)絡(luò)結(jié)合全局池化操作,合并不同層(level)的中間特征與全局池化的輸出,得到高級(jí)的低分辨率的語(yǔ)義信息,最后將兩者融合得到高級(jí)的高分辨率特征圖。但是,上述方法并沒(méi)有考慮多尺度特征融合過(guò)程中語(yǔ)義信息丟失的問(wèn)題。語(yǔ)義流網(wǎng)絡(luò)(Semantic Flow Network, SFNet)[14]將光流法的思想應(yīng)用在特征對(duì)齊中,提出了流對(duì)齊模塊以加強(qiáng)特征表示;但是它的計(jì)算成本太高,導(dǎo)致網(wǎng)絡(luò)并不適用于實(shí)時(shí)應(yīng)用。

    針對(duì)語(yǔ)義分割模型在多尺度特征融合過(guò)程中出現(xiàn)語(yǔ)義信息丟失、細(xì)節(jié)信息冗余的問(wèn)題,提出一種高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)(High-Low dimensional Feature Guided real-time semantic segmentation Network, HLFGNet)。

    本文的主要工作如下:

    1)提出高低維特征引導(dǎo)模塊(High-Low dimensional Feature Guided Module, HLFGM),解決BiSeNet在合并不同level的中間特征時(shí),由于特征圖尺寸不同出現(xiàn)的語(yǔ)義信息丟失問(wèn)題。

    2)提出金字塔池化引導(dǎo)模塊(Pyramid Pooling Guided Module, PPGM)。改進(jìn)金字塔池化模塊(Pyramid Pooling Module,PPM),利用原始特征圖引導(dǎo)不同尺度的池化特征圖,加強(qiáng)不同尺度局部信息的有效融合,增強(qiáng)全局上下文信息提取能力。

    在公開(kāi)數(shù)據(jù)集Cityscapes[15]和CamVid[16]上的實(shí)驗(yàn)結(jié)果顯示,HLFGNet具有較好的分割效果。

    1 相關(guān)工作

    1.1 基于卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)義分割

    DeepLab-v1使用空洞卷積[17]解決編碼過(guò)程中因?yàn)樾盘?hào)不斷被下采樣導(dǎo)致細(xì)節(jié)丟失的問(wèn)題;使用全連接條件隨機(jī)場(chǎng)(Fully-connected Conditional Random Field)提高模型捕獲結(jié)構(gòu)信息的能力,從而擴(kuò)大感受野和捕捉邊緣細(xì)節(jié),但并未注意多尺度信息。DeepLab-v2[11]提出空洞空間金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)模塊,在給定的特征層上使用不同擴(kuò)展率(dilation rate)的空洞卷積,可以有效地重采樣。通過(guò)構(gòu)建不同感受野的卷積核獲取多尺度物體信息,解決不同檢測(cè)目標(biāo)大小差異的問(wèn)題。隨著空洞率的增大,卷積核的有效參數(shù)越來(lái)越少,最終會(huì)退化成1×1的卷積核。DeepLab-v3[18]將ASPP模塊中尺寸為3×3、膨脹率=24的空洞卷積替換成一個(gè)普通的1×1卷積,以保留濾波器中間部分的有效權(quán)重;最后的特征圖通過(guò)16倍雙線性插值上采樣變?yōu)榕c輸入圖像相同大小的分辨率,但這種方法無(wú)法獲得分割目標(biāo)的細(xì)節(jié)。DeepLab-v3+[19]在DeepLab-v3的基礎(chǔ)上引入解碼網(wǎng)絡(luò)以恢復(fù)丟失的邊界信息,提高了物體邊界分割的準(zhǔn)確度。PSPNet[10]采用4路并行的不同尺度自適應(yīng)平均池化,分別獲取不同尺度劃分下的局部上下文信息后在通道上合并,提高全局信息的獲取能力。

    1.2 實(shí)時(shí)語(yǔ)義分割

    實(shí)時(shí)語(yǔ)義分割算法需要一種快速生成高質(zhì)量預(yù)測(cè)的方法,即推理速度要達(dá)到30 frame/s。現(xiàn)階段的算法主要通過(guò)裁剪或限定圖像大小降低計(jì)算復(fù)雜度,或通過(guò)分解卷積提高實(shí)時(shí)性。用于實(shí)時(shí)語(yǔ)義分割的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)——高效神經(jīng)網(wǎng)絡(luò)(Efficient neural Network, ENet)[20]通過(guò)早期下采樣策略,裁剪模型通道,減少運(yùn)算和降低內(nèi)存占用,但裁剪會(huì)丟失細(xì)節(jié)信息;圖像級(jí)聯(lián)網(wǎng)絡(luò)(Image Cascade Network, ICNet)[21]使用圖像級(jí)聯(lián)加速語(yǔ)義分割方法;BiSeNet[13]利用一條淺層分支獲取空間細(xì)節(jié),另一條分支獲取深層的語(yǔ)義信息,再將兩條分支融合輸出;BiSeNet V2[22]去掉了舊版本中耗時(shí)的跨層連接,深化細(xì)節(jié)路徑以編碼更多細(xì)節(jié),設(shè)計(jì)了基于深度卷積的輕量級(jí)語(yǔ)義路徑組件;Fan等[23]重新設(shè)計(jì)網(wǎng)絡(luò)架構(gòu),將空間邊界信息的學(xué)習(xí)集成到低層級(jí)部分,同時(shí)設(shè)計(jì)短期密集連接(Short-Term Dense Concatenate, STDC)模塊,融合連續(xù)若干個(gè)不同感受野的卷積核以彌補(bǔ)語(yǔ)義分支感受野的不足,有效提取語(yǔ)義邊界區(qū)域特征;Peng等[24]提出一種高效的實(shí)時(shí)語(yǔ)義分割模型PP-LiteSeg,在解碼器的部分逐步減少特征通道并恢復(fù)分辨率,保證深層階段語(yǔ)義信息的完整,同時(shí)減少淺層階段的冗余計(jì)算。

    1.3 注意力機(jī)制

    注意力可以有效地捕獲不同位置(像素)之間的長(zhǎng)程相關(guān)性,所有位置的加權(quán)和得到每個(gè)位置的特征;因此,每個(gè)位置(像素)都可以獲得全局視野,并且不降低特征映射(分辨率降低)。壓縮激勵(lì)網(wǎng)絡(luò)(Squeeze-and-Excitation Network, SENet)[25]通過(guò)全局平均池化(Global Average Pooling, GAP)和全連接層獲得通道注意圖;卷積塊注意模塊(Convolutional Block Attention Module, CBAM)[26]將GAP和全局最大池化結(jié)合1×1卷積操作,得到一個(gè)帶有注意力的特征圖。雙重注意網(wǎng)絡(luò)(Dual Attention Network, DANet)[27]提出整合局部信息和全局信息以捕捉上下文信息,再由注意力機(jī)制獲得特征表達(dá)。雙邊注意力網(wǎng)絡(luò)(Bilateral Attention Network, BANet)[28]利用通道相關(guān)系數(shù)注意模塊學(xué)習(xí)通道映射之間的正負(fù)依賴關(guān)系,并利用所有通道映射的加權(quán)和更新每個(gè)通道映射。全局上下文注意力模塊(Global Context Attention Module, GCAM)[29]由注意力細(xì)化模塊分別對(duì)平均池化和最大池化后的特征進(jìn)行通道加權(quán),重新調(diào)整特征權(quán)重,得到與它們大小對(duì)應(yīng)的權(quán)重圖,再由元素加法操作融合特征,以極少的計(jì)算量獲得更加豐富的全局上下文信息,最后利用3×3卷積進(jìn)一步增強(qiáng)特征的表達(dá)能力。注意力網(wǎng)絡(luò)(ATTention Network, ATTNet)[30]提出空間?條形注意力模塊,采用1×和×1的條形池化核提取特征,避免傳統(tǒng)池化核帶來(lái)的無(wú)關(guān)信息和額外參數(shù)計(jì)算,從而有效捕獲局部區(qū)域的長(zhǎng)距離依賴關(guān)系?;谧⒁饬Ω兄娜矸e網(wǎng)絡(luò)CANet(Context Attention Network)[31]提出空洞空間金字塔注意力模塊,在空洞空間金字塔中嵌入像素相似注意力模塊,增強(qiáng)像素之間的聯(lián)系,解決像素丟失的問(wèn)題。輕量級(jí)注意力引導(dǎo)的非對(duì)稱網(wǎng)絡(luò)(Lightweight Attention-guided Asymmetric Network, LAANet)[32]提出注意力引導(dǎo)的擴(kuò)展金字塔池化(Attention-guided Dilated Pyramid Pooling, ADPP)模塊和注意力引導(dǎo)的特征融合上采樣(Attention-guided Feature Fusion Upsampling, AFFU)模塊,分別用于聚合多尺度上下文信息和融合不同層的特征。殘差高效學(xué)習(xí)和注意期望融合網(wǎng)絡(luò)(Residual Efficient Learning and Attention Expected fusion Network, RELAXNet)[33]將注意力機(jī)制引入編碼器和解碼器之間的跳躍連接中,促進(jìn)高層特征和低層特征的合理融合。

    1.4 特征融合

    特征融合模塊(Feature Fusion Module, FFM)常用于語(yǔ)義分割,加強(qiáng)特征表示。除了逐元素求和外,研究人員還提出了以下幾種方法。在BiSeNet中,F(xiàn)FM采用element-wise mul方法融合自空間和上下文分支的特征。為了增強(qiáng)具有高級(jí)上下文的特征,深層特征聚合網(wǎng)絡(luò)(Deep Feature Aggregation Network, DFANet)[34]提出了一個(gè)具有多次連接結(jié)構(gòu)的語(yǔ)義分割模塊,最大化多尺度的感受野。為了解決錯(cuò)位問(wèn)題,SFNet和特征對(duì)齊分割網(wǎng)絡(luò)(feature-Aligned Segmentation network, AlignSeg)[35]首先通過(guò)CNN卷積學(xué)習(xí)變換偏移量,其次利用變換偏移量引導(dǎo)低級(jí)特征和高級(jí)特征的融合。特征金字塔聚合網(wǎng)絡(luò)(Feature Pyramid Aggregation Network, FPANet)[36]利用可學(xué)習(xí)的向量進(jìn)行加權(quán)以平衡兩個(gè)特征的級(jí)聯(lián),再使用一個(gè)1×1卷積和三個(gè)不同速率的空洞卷積組成金字塔特征融合模塊。

    2 高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)

    BiSeNet是一個(gè)端到端的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò),通過(guò)雙分支結(jié)構(gòu)獲取高分辨率的高級(jí)特征圖。本文借鑒該思想,改進(jìn)該網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)了基于高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)(HLFGNet)。

    2.1 網(wǎng)絡(luò)整體結(jié)構(gòu)

    本文網(wǎng)絡(luò)的整體結(jié)構(gòu)如圖1所示,由一個(gè)提取高級(jí)語(yǔ)義特征的語(yǔ)義分支(Semantic Branch)、一個(gè)提取空間細(xì)節(jié)信息的細(xì)節(jié)分支(Detail Branch)和FFM構(gòu)成。注意力細(xì)化模塊(Attention Refinement Module, ARM)和FFM模塊為BiSeNet中的兩個(gè)模塊,后文不再介紹。

    圖1 高低維特征引導(dǎo)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)

    在語(yǔ)義分支中,主干網(wǎng)絡(luò)采用在ImageNet上預(yù)先訓(xùn)練并去掉最后全連接層的殘差網(wǎng)絡(luò)ResNet-18(Residual Network-18)[37],即圖1中的第1個(gè)卷積(Conv)池化操作和后續(xù)的4個(gè)殘差(Res)塊,它的詳細(xì)結(jié)構(gòu)如表1所示。

    表1 ResNet-18的詳細(xì)結(jié)構(gòu)

    注:“7×7”表示卷積核大小為7×7,“64”為卷積核數(shù)(輸出通道數(shù)),“stride=2”表示步長(zhǎng)為2,Maxpool表示最大池化,“×2”表示輸入數(shù)據(jù)將會(huì)執(zhí)行該矩陣結(jié)構(gòu)2次,后續(xù)結(jié)構(gòu)以此類推。

    每個(gè)Res(=1,2,3,4)都包含一個(gè)基本結(jié)構(gòu)(包含殘差(residual)結(jié)構(gòu)),具體結(jié)構(gòu)如表1中Res塊的矩陣所示。首先,Res3塊經(jīng)過(guò)ARM得到Out3,Res4塊經(jīng)過(guò)PPGM獲取具有全局上下文信息的Out4,此時(shí)特征映射的大小減小到原始圖像的1/32。其次,Out3與Out4經(jīng)過(guò)HLFGM得到原始圖像1/16大小的特征圖,該特征圖再和Res2塊一起作為輸入,經(jīng)過(guò)HLFGM得到語(yǔ)義分支的最終輸出,此時(shí)特征映射的大小為原始圖像的1/8。

    在細(xì)節(jié)分支中,原始圖像經(jīng)過(guò)4個(gè)淺層的Stage得到原始圖像1/8大小的特征圖,它的詳細(xì)結(jié)構(gòu)如表2所示。其中,Conv2d代表Conv+BN(Batch Normalization)+ReLU(Rectified Linear Unit)組合操作。

    表2 細(xì)節(jié)分支的詳細(xì)結(jié)構(gòu)

    最后將兩個(gè)分支的輸出經(jīng)過(guò)FFM融合,再經(jīng)過(guò)上采樣恢復(fù)成最終的預(yù)測(cè)分割圖。

    2.2 高低維特征引導(dǎo)模塊

    語(yǔ)義分割的最終目的是獲得一幅高分辨率的高級(jí)語(yǔ)義特征圖。但是在卷積網(wǎng)絡(luò)中,圖像通過(guò)不斷的下采樣操作擴(kuò)大感受野和獲取語(yǔ)義特征,降低了圖像的分辨率,導(dǎo)致空間細(xì)節(jié)信息丟失。一些網(wǎng)絡(luò)利用空洞卷積加強(qiáng)特征提取,同時(shí)保持高分辨率,但空洞卷積需要耗費(fèi)較多的計(jì)算力,導(dǎo)致推理速度變慢;另外一些網(wǎng)絡(luò)將高級(jí)語(yǔ)義特征圖雙線性插值上采樣后再與對(duì)應(yīng)分辨率的低級(jí)特征圖融合,逐步將分辨率恢復(fù)至原圖大小,但高層特征在經(jīng)過(guò)padding、卷積等操作后和低層特征之間的精確位置對(duì)應(yīng)關(guān)系已經(jīng)丟失,而簡(jiǎn)單的雙線性插值并不能解決該問(wèn)題。SFNet[14]提出同一張圖像任意分辨率的兩個(gè)特征圖之間的關(guān)系,可以用一個(gè)特征圖到另一個(gè)特征圖的每個(gè)像素的“運(yùn)動(dòng)”表示,借助該運(yùn)動(dòng)關(guān)系引導(dǎo)高級(jí)特征圖的擴(kuò)張可以有效減少語(yǔ)義信息的丟失。根據(jù)這一思想,結(jié)合SENet[25]中的通道注意力機(jī)制,提出高低維特征引導(dǎo)模塊(HLFGM),利用低級(jí)特征圖中的空間位置信息引導(dǎo)高級(jí)語(yǔ)義信息在上采樣過(guò)程中的位移,同時(shí)利用高級(jí)特征圖中的強(qiáng)特征表達(dá)消除低級(jí)特征圖中冗余的細(xì)節(jié)特征。HLFGM的詳細(xì)結(jié)構(gòu)如圖2所示,計(jì)算方法如下:

    其中:,為低級(jí)特征圖;,為高級(jí)特征圖;×為矩陣的乘法;δ為Sigmoid激活函數(shù);BN為批標(biāo)準(zhǔn)化操作;為標(biāo)準(zhǔn)的卷積操作,即圖2中的Conv1,卷積核大小為1×1,采樣步長(zhǎng)為1,d為空洞率,默認(rèn)為1,不做任何填充,卷積操作不改變特征圖的尺寸;AvgPool為順著空間維度平均池化;,用來(lái)指導(dǎo)低級(jí)特征圖上采樣的位移圖;為標(biāo)準(zhǔn)的卷積操作,即圖2中的Conv3,卷積核大小為3×3,采樣步長(zhǎng)為1,在特征圖外側(cè)進(jìn)行尺度為1的全1填充;Cat表示級(jí)聯(lián)拼接操作;Up為雙線性插值操作;GU為指導(dǎo)上采樣的對(duì)齊操作;為ReLU激活函數(shù);為權(quán)重系數(shù),值為0.7。

    圖3(a)和圖3(c)分別為經(jīng)過(guò)HLFGM得到的8倍和16倍下采樣可視化圖,圖3(b)和圖3(d)為未經(jīng)過(guò)HLFGM得到的8倍和16倍下采樣可視化圖。對(duì)比圖3(a)和圖3(b)可以看出,前者獲取的細(xì)節(jié)信息和語(yǔ)義信息更加豐富,如第1行圖中車的輪廓、第3行圖中左側(cè)樹(shù)的輪廓和右側(cè)建筑的細(xì)節(jié),而第2行圖中后者丟失遠(yuǎn)處路桿特征;對(duì)比圖3(c)和圖3(d)可以看出,后者的整體效果較為模糊,細(xì)節(jié)信息丟失嚴(yán)重,而且第3行圖中的街邊和左側(cè)車底輪廓出現(xiàn)重影。另外圖3(b)和圖3(d)的第1行圖都出現(xiàn)了較為明顯的條狀紋理。

    圖3 高層特征圖的可視化對(duì)比

    2.3 金字塔池化引導(dǎo)模塊

    全局上下文信息和子區(qū)域上下文信息有助于區(qū)分各種類別。大感受野可以提升大尺寸目標(biāo)的分割效果,對(duì)網(wǎng)絡(luò)的性能具有重要意義。隨著卷積層越來(lái)越多,感受野也隨之變大,但Zhou等[38]證明CNN的經(jīng)驗(yàn)感受野遠(yuǎn)小于理論感受野。BiSeNet使用GAP解決這一問(wèn)題。雖然GAP廣泛應(yīng)用于圖像分類中,并且它的計(jì)算量和內(nèi)存消耗量低,但是對(duì)于復(fù)雜場(chǎng)景的圖像,GAP不足以覆蓋必要的信息,而且直接將圖像信息融合形成單個(gè)向量的形式可能會(huì)失去空間關(guān)系并導(dǎo)致歧義,影響最終的分割效果。因此本文采用改進(jìn)的金字塔池化引導(dǎo)模塊(PPGM)獲取全局上下文信息,擴(kuò)大感受野。PPGM的詳細(xì)結(jié)構(gòu)如圖4所示,計(jì)算方法如下:

    圖4 金字塔池化引導(dǎo)模塊

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    Cityscapes[15]是一個(gè)街道場(chǎng)景語(yǔ)義分割數(shù)據(jù)集,每一張圖像從行駛中的汽車的角度拍攝,從全世界50個(gè)不同的城市街道場(chǎng)景中收集5 000張高質(zhì)量的像素級(jí)標(biāo)注圖,其中訓(xùn)練集、驗(yàn)證集和測(cè)試集的圖像數(shù)分別為2 975、500和1 525張。5 000張圖像標(biāo)注的類別有33類,本文訓(xùn)練中只關(guān)心其中的19類。大類包括地面、建筑、人、天空、自然、背景、道路標(biāo)志和車輛,小類將大類類別再細(xì)分(如車輛分為小汽車、公交等)。圖像分辨率大小均為2 048×1 024像素的RGB通道的彩色圖像,數(shù)據(jù)集還提供了20 000張粗略標(biāo)注的圖像用于訓(xùn)練弱監(jiān)督分類網(wǎng)絡(luò)的性能。

    CamVid[16]是來(lái)自劍橋的道路與駕駛場(chǎng)景圖像分割數(shù)據(jù)集,圖像數(shù)據(jù)自視頻幀提取,原始分辨率大小為960×720像素,包括32個(gè)類別。分為367張訓(xùn)練圖像、100張驗(yàn)證圖像和233張測(cè)試圖像。

    3.2 評(píng)估指標(biāo)

    在分割評(píng)價(jià)方面,采用平均交并比(mean Intersection over Union, mIoU)和每秒傳輸幀數(shù),即幀率作為評(píng)價(jià)指標(biāo)。mIoU為圖像像素每個(gè)類的交并比(Intersection over Union, IoU)值累加后的平均值,如式(10)所示:

    3.3 實(shí)驗(yàn)細(xì)節(jié)

    本文深度學(xué)習(xí)框架為PyTorch1.4,訓(xùn)練時(shí)將圖像大小調(diào)整為1 024×1 024像素作為網(wǎng)絡(luò)輸入,損失函數(shù)采用交叉熵?fù)p失函數(shù),驗(yàn)證時(shí)圖像輸入大小為1 024×2 048像素。在兩塊Tesla-T4 GPU上訓(xùn)練,在一塊Tesla-T4上測(cè)試模型。在訓(xùn)練過(guò)程中,采用帶動(dòng)量的隨機(jī)梯度下降法(Stochastic Gradient Descent, SGD)用于模型訓(xùn)練,學(xué)習(xí)率下降公式為:

    3.4 實(shí)驗(yàn)分析和比較

    為了驗(yàn)證所HLFGM和PPGM的有效性,驗(yàn)證HLFGNet的改進(jìn)效果,使用3.1.3節(jié)的參數(shù)和配置,采用ResNet-18作為網(wǎng)絡(luò)主干,在Cityscapes數(shù)據(jù)集上展開(kāi)消融和對(duì)比實(shí)驗(yàn),結(jié)果如表3所示。

    表3分別為HLFGM和UP(采用雙線性插值上采樣的方式)的對(duì)比,以及PPGM和AVG(采用全局平局池化操作的方式)、PPM的對(duì)比。將AVG改為PPM后,網(wǎng)絡(luò)的參數(shù)量降低,這是因?yàn)锳VG中卷積操作多,而PPM中池化和上采樣操作多。相較于UP+AVG,HLFGM+AVG的mIoU僅提升0.19個(gè)百分點(diǎn);相較于UP+PPM,HLFGM+PPM的mIoU提升0.80個(gè)百分點(diǎn),說(shuō)明在使用PPM的情況下使用HLFGM,網(wǎng)絡(luò)提升顯著。此外,相較于UP+AVG,UP+PPM的mIoU僅提升0.30個(gè)百分點(diǎn);而相較于HLFGM+AVG,HLFGM+PPM的mIoU提升了0.91個(gè)百分點(diǎn),說(shuō)明在使用HLFGM的情況下使用PPM,網(wǎng)絡(luò)提升顯著。根據(jù)上述4組對(duì)比,可以發(fā)現(xiàn)HLFGM和PPM有相互促進(jìn)的作用,進(jìn)一步說(shuō)明HLFGM能有效引導(dǎo)高級(jí)特征圖的上采樣,并且它的提升效果也與高級(jí)特征圖所含信息的豐富性有關(guān)。相較于UP+PPM,UP+PPGM的mIoU提升1.04個(gè)百分點(diǎn);相較于HLFGM+PPM,HLFGM+PPGM的mIoU提升0.66個(gè)百分點(diǎn)。因此相較于PPM,PPGM對(duì)網(wǎng)絡(luò)提升的效果更佳。最終HLFGNet采用HLFGM+PPGM的方式,相較于采用UP+AVG的BiSeNet,mIoU提高了1.76個(gè)百分點(diǎn),參數(shù)量減少了0.82 MB,推理速度僅降低了8 frame/s,模型的綜合性能達(dá)到最佳。

    表3 在Cityscapes 驗(yàn)證集上驗(yàn)證不同設(shè)置下的性能

    表4 權(quán)重系數(shù)實(shí)驗(yàn)結(jié)果

    相較于HLFGM,PPGM只使用了低級(jí)特征圖引導(dǎo)高級(jí)特征圖的路徑,同時(shí)為了驗(yàn)證Guide操作(圖4)對(duì)不同尺度特征圖的有效性,展開(kāi)了對(duì)比實(shí)驗(yàn),如表5所示??梢钥吹?,PPGM-1~PPGM-4的參數(shù)量都為50.53 MB,這是由于每個(gè)Guide操作只使用2個(gè)卷積核,因此增加多個(gè)Guide操作并不會(huì)增加過(guò)多的參數(shù)量。從表5還可以看出,隨著逐漸增加對(duì)不同尺度特征圖的Guide操作,推理速度逐漸降低。PPGM-2和PPGM-3的mIoU提升效果較為明顯,為使速度和精度達(dá)到最佳平衡,最終選取PPGM-3,即只對(duì)3×3和6×6這兩個(gè)尺度的特征圖進(jìn)行Guide操作,相較于PPM,mIoU提升0.66個(gè)百分點(diǎn),速度下降3.0 frame/s。

    表5 對(duì)不同尺度特征圖進(jìn)行Guide操作的對(duì)比實(shí)驗(yàn)結(jié)果

    注:PPGM-代表對(duì)不同尺度的特征圖進(jìn)行Guide操作,代表經(jīng)過(guò)降維后的不同尺度特征圖,“√”表示對(duì)該尺度特征圖進(jìn)行Guide操作。

    表6為不同網(wǎng)絡(luò)在Cityscapes數(shù)據(jù)集上的對(duì)比結(jié)果,對(duì)比網(wǎng)絡(luò)包括ICNet[21]、DFANet-A[34]、BiSeNet[13]、BiSeNet V2[22]和邊界感知的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)(Boundary-Aware real-time Semantic segmentation Network, BASeNet)[39]、快速的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)(FasterSeg)[40]、STDC2(Short-Term Dense Concatenate)-Seg75[23]和STDC2-Seg75*[23](“*”表示未使用預(yù)訓(xùn)練模型)。

    表6 不同網(wǎng)絡(luò)在Cityscapes數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果對(duì)比

    從表6可以看出,HLFGNet在測(cè)試集上的mIoU為75.4%,只比STDC2-Seg75低1.40個(gè)百分點(diǎn),但HLFGNet的參數(shù)量比STDC2-Seg75少11.14 MB且?guī)侍岣吡?6.1 frame/s。HLFGNet的幀率為75.0 frame/s,低于BiSeNet、BiSeNet V2和FasterSeg。但是,HLFGNet在測(cè)試集上的mIoU有著明顯的優(yōu)勢(shì),分別提升了0.9、2.5和3.9個(gè)百分點(diǎn)。在參數(shù)量上,HLFGNet也優(yōu)于BiSeNet。相較于BiSeNet V2-L和STDC2-Seg75*,無(wú)論是速度、參數(shù)量還是mIoU,HLFGNet都有優(yōu)勢(shì)。由此可見(jiàn),本文提出的HLFGNet在精度和推理速度上取得了較好的平衡,能夠在保證精度較高的同時(shí)提高推理速度。

    表7為FasterSeg、BiSeNet、HLFGNet在Cityscapes測(cè)試集上19種分類的結(jié)果。相較于FasterSeg,HLFGNet在所有分類上都有明顯優(yōu)勢(shì);相較于BiSeNet,HLFGNet在大部分的分類都有優(yōu)勢(shì),特別是車類,如motorcycle、bus、train,這3類的準(zhǔn)確率得到了提升,提升了1.83~5.11個(gè)百分點(diǎn)。

    表7 Cityscapes測(cè)試集上各個(gè)類別的準(zhǔn)確率 單位:%

    為了驗(yàn)證HLFGNet的泛化性,本文在CamVid數(shù)據(jù)集上展開(kāi)實(shí)驗(yàn)。將訓(xùn)練集和驗(yàn)證集一起用于訓(xùn)練,測(cè)試集用于評(píng)估。訓(xùn)練和評(píng)估的輸入分辨率和輸出分辨率都為720×960像素。訓(xùn)練參數(shù)設(shè)置與在Cityscapes數(shù)據(jù)集上基本保持一致。實(shí)驗(yàn)結(jié)果如表8所示,HLFGNet在CamVid測(cè)試集上能夠達(dá)到70.90%的mIoU,推理速度為96.2 frame/s,相較于BiSeNet V2,mIoU提高了0.10個(gè)百分點(diǎn),且推理速度提升14.3 frame/s。雖然HLFGNet的推理速度低于BiSeNet,但mIoU提升了3.40個(gè)百分點(diǎn)。另外,相較于SegNet、ICNet和ENet[20],無(wú)論在mIoU上還是在速度上都有優(yōu)勢(shì)。由此可見(jiàn),HLFGNet在CamVid數(shù)據(jù)集上也獲得了良好的性能。

    表8 不同模型在CamVid測(cè)試集上的對(duì)比分析

    3.5 實(shí)驗(yàn)定性分析

    圖5直觀地展示了BiSeNet和HLFGNet在Cityscapes數(shù)據(jù)集上的可視化語(yǔ)義分割效果對(duì)比。從第1行圖像的虛線標(biāo)記框可以看出,對(duì)于自行車和汽車交疊部分和人腳與自行車的交疊部分,BiSeNet無(wú)法得到正確的分割邊界;而HLFGNet通過(guò)利用HLFGM加強(qiáng)低級(jí)細(xì)節(jié)信息,有效增強(qiáng)像素之間的語(yǔ)義邊界關(guān)系,準(zhǔn)確地區(qū)分和分割了交疊部分。并且在第1行圖像的實(shí)線框中,HLFGNet分割的人型輪廓相較于BiSeNet模型更細(xì)致。在第2行圖像中,BiSeNet無(wú)法識(shí)別道路兩邊的欄桿,而HLFGNet雖然對(duì)于道路左側(cè)的欄桿無(wú)法得到準(zhǔn)確的分類,但是能夠利用獲取的細(xì)節(jié)信息較好地分割欄桿的輪廓細(xì)節(jié)。第3行圖像的虛線標(biāo)記框中,可以看出對(duì)于遠(yuǎn)距離路燈桿HLFGNet的識(shí)別能力更強(qiáng);實(shí)線框中,BiSeNet分割的建筑物和路燈有部分像素點(diǎn)缺失;點(diǎn)線框中汽車和背景出現(xiàn)了融合的情況。在第4行圖像的虛線框中,BiSeNet并未識(shí)別出左側(cè)人物,右邊重合的兩人也丟失了大致輪廓細(xì)節(jié);而HLFGNet不僅識(shí)別并分割了左側(cè)人物,同時(shí)右側(cè)兩人重合后的區(qū)域邊緣信息相對(duì)完整。在實(shí)線框中,BiSeNet分割出的柱體有部分像素錯(cuò)誤分類,這是由于缺乏多尺度信息,而HLFGNet使用改進(jìn)后的PPGM獲取多尺度信息,因此柱體語(yǔ)義分類完整。

    圖5 語(yǔ)義分割實(shí)驗(yàn)效果的可視化對(duì)比

    綜上所述,HLFGNet相較于BiSeNet能夠更好地識(shí)別出不同類別之間的語(yǔ)義輪廓,減少交叉劃分的錯(cuò)誤現(xiàn)象。同時(shí)HLGFM模塊減少語(yǔ)義信息的丟失并且增強(qiáng)了細(xì)節(jié)信息使物體的邊緣信息更加完整。

    4 結(jié)語(yǔ)

    為保證語(yǔ)義分割網(wǎng)絡(luò)在精度和速度之間達(dá)到良好平衡,本文提出一種改進(jìn)的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)(HLFGNet)。為減少多級(jí)特征圖在融合過(guò)程中出現(xiàn)語(yǔ)義信息丟失的現(xiàn)象,提出了高低維特征引導(dǎo)模塊,該模塊利用低級(jí)特征圖的空間位置信息指導(dǎo)高級(jí)特征圖在上采樣過(guò)程中的語(yǔ)義信息對(duì)齊,同時(shí)結(jié)合注意力機(jī)制,利用高級(jí)特征圖獲取到的強(qiáng)特征引導(dǎo)低級(jí)特征圖去除冗余的細(xì)節(jié)特征;另外引入金字塔池化模塊,并對(duì)它加以改進(jìn),使不同尺度的局部上下文信息能更好地融合,提高整體分割效果。為驗(yàn)證HLFGNet的有效性,在相同的環(huán)境配置下,分別在Cityscapes和CamVid數(shù)據(jù)集上展開(kāi)實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,HLFGNet能夠在精度和推理速度之間取得較好的平衡,相較于其他網(wǎng)絡(luò),表現(xiàn)出了良好的性能。但HLFGNet還存在一定不足,語(yǔ)義分支采用的特征提取骨干網(wǎng)絡(luò)為ResNet-18,該網(wǎng)絡(luò)更適用于分類場(chǎng)景,所以在提取特征圖的多尺度信息和全局上下文信息方面表現(xiàn)有所不足。因此在后續(xù)的研究中,需要考慮如何設(shè)計(jì)更適用于語(yǔ)義分割的特征提取網(wǎng)絡(luò)。

    [1] 羅會(huì)蘭,張?jiān)? 基于深度網(wǎng)絡(luò)的圖像語(yǔ)義分割綜述[J]. 電子學(xué)報(bào), 2019, 47(10):2211-2220.(LUO H L, ZHANG Y. A survey of image semantic segmentation based on deep network[J]. Acta Electronica Sinica, 2019, 47(10): 2211-2220.)

    [2] 張新明,李振云,鄭穎. 融合Fisher準(zhǔn)則和勢(shì)函數(shù)的多閾值圖像分割[J]. 計(jì)算機(jī)應(yīng)用, 2012, 32(10):2843-2847.(ZHANG X M, LI Z Y, ZHENG Y. Multi-threshold image segmentation based on combining Fisher criterion and potential function[J]. Journal of Computer Applications, 2012, 32(10): 2843-2847.)

    [3] 柳萍,陽(yáng)愛(ài)民. 一種基于區(qū)域的彩色圖像分割方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2007, 43(6):37-39, 64.(LIU P, YANG A M. A method of region-based color image segmentation[J]. Computer Engineering and Applications, 2007, 43(6): 37-39, 64.)

    [4] 李翠錦,瞿中. 基于深度學(xué)習(xí)的圖像邊緣檢測(cè)算法綜述[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(11):3280-3288.(LI C J, QU Z. Review of image edge detection algorithms based on deep learning[J]. Journal of Computer Applications, 2020, 40(11): 3280-3288.)

    [5] 宋杰,于裕,駱起峰. 基于RCF的跨層融合特征的邊緣檢測(cè)[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(7):2053-2058.(SONG J, YU Y, LUO Q F. Cross-layer fusion feature based on richer convolutional features for edge detection[J]. Journal of Computer Applications, 2020, 40(7): 2053-2058.)

    [6] 瞿紹軍. 基于最優(yōu)化理論的圖像分割方法研究[D]. 長(zhǎng)沙:湖南師范大學(xué), 2018:32-66.(QU S J. Research on image segmentation based on optimization theory[D]. Changsha: Hunan Normal University, 2018: 32-66.)

    [7] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 3431-3440.

    [8] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

    [9] 張?chǎng)?,姚慶安,趙健,等. 全卷積神經(jīng)網(wǎng)絡(luò)圖像語(yǔ)義分割方法綜述[J]. 計(jì)算機(jī)工程與應(yīng)用, 2022, 58(8):45-57.(ZHANG X, YAO Q A, ZHAO J, et al. Image semantic segmentation based on fully convolutional neural network[J]. Computer Engineering and Applications, 2022, 58(8): 45-57.)

    [10] ZHAO H, SHI J, QI X, et al. Pyramid scene parsing network[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 6230-6239.

    [11] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.

    [12] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]// Proceedings of the 2015 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 9351. Cham: Springer, 2015: 234-241.

    [13] YU C, WANG J, PENG C, et al. BiSeNet: bilateral segmentation network for real-time semantic segmentation[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11217. Cham: Springer, 2018: 334-349.

    [14] LI X, YOU A, ZHU Z, et al. Semantic flow for fast and accurate scene parsing[C]// Proceedings of the 2020 European Conference on Computer Vision, LNCS 12346. Cham: Springer, 2020: 775-793.

    [15] CORDTS M, OMRAN M, RAMOS S, et al. The Cityscapes dataset for semantic urban scene understanding[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 3213-3223.

    [16] BROSTOW G J, SHOTTON J, FAUQUEUR J, et al. Segmentation and recognition using structure from motion point clouds[C]// Proceedings of 2008 the European Conference on Computer Vision, LNCS 5302. Berlin: Springer, 2008: 44-57.

    [17] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Semantic image segmentation with deep convolutional nets and fully connected CRFs[EB/OL]. (2016-06-07) [2022-10-01].https://arxiv.org/pdf/1412.7062.pdf.

    [18] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[EB/OL]. (2017-12-05) [2022-10-24].https://arxiv.org/pdf/1706.05587.pdf.

    [19] CHEN L C, ZHU Y, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211. Cham: Springer, 2018: 801-818.

    [20] PASZKE A, CHAURASIA A, KIM S, et al. ENet: a deep neural network architecture for real-time semantic segmentation[EB/OL]. (2016-06-07) [2022-04-10].https://arxiv.org/pdf/1606.02147.pdf.

    [21] ZHAO H, QI X, SHEN X, et al. ICNet for real-time semantic segmentation on high-resolution images[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11207. Cham: Springer 2018: 418-434.

    [22] YU C, GAO C, WANG J, et al. BiSeNet V2: bilateral network with guided aggregation for real-time semantic segmentation[J]. International Journal of Computer Vision, 2021, 129(11): 3051-3068.

    [23] FAN M, LAI S, HUANG J, et al. Rethinking BiSeNet for real-time semantic segmentation[C]// Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2021: 9711-9720.

    [24] PENG J, LIU Y, TANG S, et al. PP-LiteSeg: a superior real-time semantic segmentation model[EB/OL]. (2022-04-06) [2022-08-06].https://arxiv.org/pdf/2204.02681.pdf.

    [25] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:7132-7141.

    [26] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211. Cham: Springer, 2018: 3-19.

    [27] FU J, LIU J, TIAN H, et al. Dual attention network for scene segmentation[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 3141-3149.

    [28] WANG D, LI N, ZHOU Y, et al. Bilateral attention network for semantic segmentation[J]. IET Image Processing, 2021, 15(8): 1607-1616.

    [29] 文凱,唐偉偉,熊俊臣. 基于注意力機(jī)制和有效分解卷積的實(shí)時(shí)分割算法[J]. 計(jì)算機(jī)應(yīng)用, 2022, 42(9):2659-266.(WEN K, TANG W W, XIONG J C. Real-time segmentation algorithm based on attention mechanism and effective factorized convolution[J]. Journal of Computer Applications, 2022, 42(9): 2659-266.)

    [30] 吳瓊,瞿紹軍. 融合注意力機(jī)制的端到端的街道場(chǎng)景語(yǔ)義分割[J]. 小型微型計(jì)算機(jī)系統(tǒng), 2023, 44(7):1514-1520.(WU Q, QU S J. End-to-end semantic segmentation of street scene with attention mechanism[J]. Journal of Chinese Computer Systems, 2023, 44(7): 1514-1520.)

    [31] 歐陽(yáng)柳,賀禧,瞿紹軍. 全卷積注意力機(jī)制神經(jīng)網(wǎng)絡(luò)的圖像語(yǔ)義分割 [J]. 計(jì)算機(jī)科學(xué)與探索, 2022, 16(5):1136-1145.(OU Y L, HE X, QU S J. Fully convolutional neural network with attention module for semantic segmentation[J]. Journal of Frontiers of Computer Science and Technology, 2022, 16(5): 1136-1145.)

    [32] ZHANG X, DU B, WU Z, et al. LAANet: lightweight attention-guided asymmetric network for real-time semantic segmentation[J]. Neural Computing and Applications, 2022, 34(5): 3573-3587.

    [33] LIU J, XU X, SHI Y, et al. RELAXNet: residual efficient learning and attention expected fusion network for real-time semantic segmentation[J]. Neurocomputing, 2022, 474: 115-127.

    [34] LI H, XIONG P, FAN H, et al. DFANet: deep feature aggregation for real-time semantic segmentation[C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 9514-9523.

    [35] HUANG Z, WEI Y, WANG X, et al. AlignSeg: feature-aligned segmentation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(1): 550-557.

    [36] WU Y, JIANG J, HUANG Z, et al. FPANet: feature pyramid aggregation network for real-time semantic segmentation[J]. Applied Intelligence, 2022, 52(3): 3319-3336.

    [37] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778.

    [38] ZHOU B, KHOSLA A, LAPEDRIZA A, et al. Object detectors emerge in deep scene CNNs[EB/OL]. (2015-04-15) [2022-05-12].https://arxiv.org/pdf/1412.6856.pdf.

    [39] 霍占強(qiáng),賈海洋,喬應(yīng)旭,等. 邊界感知的實(shí)時(shí)語(yǔ)義分割網(wǎng)絡(luò)[J]. 計(jì)算機(jī)工程與應(yīng)用, 2022, 58(17):165-173.(HUO Z Q, JIA H Y, QIAO Y X, et al. Boundary-aware real-time semantic segmentation network[J]. Computer Engineering and Applications, 2022, 58(17): 165-173.)

    [40] CHEN W, GONG X, LIU X, et al. FasterSeg: searching for faster real-time semantic segmentation[EB/OL]. (2020-01-16) [2022-06-14].https://arxiv.org/pdf/1912.10917.pdf.

    High-low dimensional feature guided real-time semantic segmentation network

    YU Zixing1, QU Shaojun1*, HE Xin2, WANG Zhuo1

    (1,,410081,;2,410221,)

    Most semantic segmentation networks use bilinear interpolation to restore the resolution of the high-level feature map to the same resolution as the low-level feature map and then perform fusion operation, which causes that part of high-level semantic information cannot be spatially aligned with the low-level feature map, resulting in the loss of semantic information. To solve the problem, based on the improvement of Bilateral Segmentation Network (BiSeNet), a High-Low dimensional Feature Guided real-time semantic segmentation Network (HLFGNet) was proposed. First, High-Low dimensional Feature Guided Module (HLFGM) was proposed to guide the displacement of high-level semantic information during the upsampling process through the spatial position information of the low-level feature map. At the same time, the strong feature representations were obtained by the high-level feature maps, and by combining with the attention mechanism, the redundant edge detail information in the low-level feature map was eliminated and the pixel misclassification was reduced. Then, the improved Pyramid Pooling Guided Module (PPGM) was introduced to obtain global contextual information and strengthen the effective fusion of local contextual information at different scales. Experimental results on Cityscapes validation set and CamVid test set show that HLFGNet has the mean Intersection over Union (mIoU) of 76.67% and 70.90% respectively, the frames per second reached 75.0 and 96.2 respectively. In comparison with BiSeNet, HLFGNet has the mIoU increased by 1.76 and 3.40 percentage points respectively. It can be seen that HLFGNet can accurately identify the scene information and meet the real-time requirements.

    real-time semantic segmentation; upsampling; attention mechanism; pyramid pooling; contextual information

    This work is partially supported by National Natural Science Foundation of China (12071126).

    YU Zixing, born in 1997, M. S. candidate. His research interests include computer vision, deep learning.

    QU Shaojun, born in 1979, Ph. D., senior experimentalist. His research interests include image segmentation, computer vision, deep learning.

    HE Xin, born in 1987, Ph. D. His research interests include deep learning, radar-vision fusion.

    WANG Zhuo, born in 2000, M. S. candidate. Her research interests include computer vision, deep learning.

    1001-9081(2023)10-3077-09

    10.11772/j.issn.1001-9081.2022091438

    2022?09?29;

    2022?12?06;

    國(guó)家自然科學(xué)基金資助項(xiàng)目(12071126)。

    虞資興(1997—),男,湖南株洲人,碩士研究生,CCF會(huì)員,主要研究方向:計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí); 瞿紹軍(1979—),男,湖南永順人,正高級(jí)實(shí)驗(yàn)師,博士,CCF會(huì)員,主要研究方向:圖像分割、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí); 何鑫(1987—),男,湖南邵陽(yáng)人,博士,主要研究方向:深度學(xué)習(xí)、雷達(dá)視覺(jué)融合; 王卓(2000—),女,湖南邵陽(yáng)人,碩士研究生,CCF會(huì)員,主要研究方向:計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)。

    TP391.4

    A

    2022?12?12。

    猜你喜歡
    池化語(yǔ)義像素
    基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
    趙運(yùn)哲作品
    藝術(shù)家(2023年8期)2023-11-02 02:05:28
    基于Sobel算子的池化算法設(shè)計(jì)
    像素前線之“幻影”2000
    卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
    語(yǔ)言與語(yǔ)義
    “像素”仙人掌
    基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
    “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
    高像素不是全部
    CHIP新電腦(2016年3期)2016-03-10 14:22:03
    男女视频在线观看网站免费| 尾随美女入室| 亚洲中文字幕一区二区三区有码在线看| 亚洲欧美成人综合另类久久久 | 免费av毛片视频| 综合色丁香网| 深爱激情五月婷婷| 中文字幕精品亚洲无线码一区| 欧美性猛交黑人性爽| 毛片女人毛片| 又爽又黄a免费视频| 国产午夜精品论理片| 日本-黄色视频高清免费观看| 村上凉子中文字幕在线| 综合色丁香网| 午夜福利成人在线免费观看| 两性午夜刺激爽爽歪歪视频在线观看| 日日啪夜夜撸| 成人漫画全彩无遮挡| 国产麻豆成人av免费视频| 国产成人a区在线观看| 久久久久国产精品人妻aⅴ院| av天堂在线播放| 成年女人永久免费观看视频| 别揉我奶头~嗯~啊~动态视频| av在线老鸭窝| 我的老师免费观看完整版| 国产精品一及| 99久久精品国产国产毛片| 女的被弄到高潮叫床怎么办| 天天一区二区日本电影三级| 男人舔女人下体高潮全视频| 色播亚洲综合网| 成人二区视频| 不卡视频在线观看欧美| 一a级毛片在线观看| 日本爱情动作片www.在线观看 | 一进一出好大好爽视频| 性色avwww在线观看| 国内久久婷婷六月综合欲色啪| 国产毛片a区久久久久| 国产一区二区三区av在线 | 国产亚洲欧美98| 中文字幕av在线有码专区| 麻豆久久精品国产亚洲av| av免费在线看不卡| 男人和女人高潮做爰伦理| 乱码一卡2卡4卡精品| 黄色日韩在线| 国产一区亚洲一区在线观看| 好男人在线观看高清免费视频| 国产 一区 欧美 日韩| av天堂中文字幕网| 在线免费观看的www视频| 最后的刺客免费高清国语| 久久精品国产鲁丝片午夜精品| 看十八女毛片水多多多| 精品乱码久久久久久99久播| 亚洲国产精品成人久久小说 | 色哟哟哟哟哟哟| 亚洲精品色激情综合| 男插女下体视频免费在线播放| 午夜久久久久精精品| 免费av不卡在线播放| 丝袜美腿在线中文| 国产久久久一区二区三区| 婷婷亚洲欧美| 国产私拍福利视频在线观看| 一本久久中文字幕| 淫妇啪啪啪对白视频| 欧美日韩一区二区视频在线观看视频在线 | 欧美激情国产日韩精品一区| 18禁黄网站禁片免费观看直播| 午夜亚洲福利在线播放| 又爽又黄无遮挡网站| 欧美+日韩+精品| 日韩欧美精品v在线| 校园人妻丝袜中文字幕| 如何舔出高潮| 亚洲人成网站在线播放欧美日韩| 哪里可以看免费的av片| 国产美女午夜福利| 亚洲久久久久久中文字幕| 一级av片app| 亚洲国产欧美人成| 91久久精品国产一区二区成人| 简卡轻食公司| 在线播放国产精品三级| 99精品在免费线老司机午夜| 美女被艹到高潮喷水动态| 国产精品亚洲美女久久久| 免费看光身美女| 日韩精品中文字幕看吧| 中文亚洲av片在线观看爽| 国产亚洲精品久久久久久毛片| 午夜影院日韩av| 久久这里只有精品中国| 欧美精品国产亚洲| 日本爱情动作片www.在线观看 | 免费av观看视频| 在线a可以看的网站| 国产三级中文精品| 精品一区二区免费观看| 久久久精品94久久精品| 91在线精品国自产拍蜜月| 熟女人妻精品中文字幕| 中出人妻视频一区二区| 99热精品在线国产| 亚洲精品日韩在线中文字幕 | 少妇熟女欧美另类| 不卡视频在线观看欧美| 国产成年人精品一区二区| 老司机影院成人| 日日摸夜夜添夜夜添小说| 日韩av不卡免费在线播放| 露出奶头的视频| 高清毛片免费看| 黄色一级大片看看| 亚洲自偷自拍三级| 亚洲成a人片在线一区二区| 国产免费男女视频| 国产精品免费一区二区三区在线| 午夜激情福利司机影院| 内射极品少妇av片p| 在线观看一区二区三区| 国产片特级美女逼逼视频| av专区在线播放| 婷婷精品国产亚洲av在线| 观看美女的网站| 99热这里只有精品一区| 两个人的视频大全免费| 淫秽高清视频在线观看| 校园春色视频在线观看| 悠悠久久av| 亚洲最大成人av| 成年女人毛片免费观看观看9| 欧美不卡视频在线免费观看| 国产蜜桃级精品一区二区三区| 亚洲av免费高清在线观看| 亚洲av中文字字幕乱码综合| 日本 av在线| 亚洲精品国产av成人精品 | 一个人免费在线观看电影| 午夜福利成人在线免费观看| 老熟妇仑乱视频hdxx| 偷拍熟女少妇极品色| 在线看三级毛片| 国产精品电影一区二区三区| 18禁裸乳无遮挡免费网站照片| 日日摸夜夜添夜夜爱| 麻豆成人午夜福利视频| 在线播放国产精品三级| 精品久久久久久久人妻蜜臀av| 网址你懂的国产日韩在线| 日本免费一区二区三区高清不卡| 村上凉子中文字幕在线| 五月玫瑰六月丁香| 欧美日韩乱码在线| 精品一区二区三区视频在线| 成人亚洲精品av一区二区| 亚洲精华国产精华液的使用体验 | 国产 一区精品| 91麻豆精品激情在线观看国产| 日韩成人av中文字幕在线观看 | 一区二区三区高清视频在线| 91麻豆精品激情在线观看国产| 简卡轻食公司| 伊人久久精品亚洲午夜| 国产精品三级大全| 内地一区二区视频在线| 日韩欧美 国产精品| 俄罗斯特黄特色一大片| 国产在视频线在精品| ponron亚洲| 色综合站精品国产| 男女啪啪激烈高潮av片| 欧美日韩精品成人综合77777| 精品久久国产蜜桃| 久99久视频精品免费| 国产亚洲精品av在线| 亚洲国产精品sss在线观看| 国产黄色小视频在线观看| 亚洲一区高清亚洲精品| 内射极品少妇av片p| 日本 av在线| 18禁在线无遮挡免费观看视频 | 97碰自拍视频| 九九热线精品视视频播放| 午夜激情欧美在线| 日韩欧美在线乱码| 在线观看av片永久免费下载| 日韩三级伦理在线观看| 亚洲欧美清纯卡通| 女的被弄到高潮叫床怎么办| 欧美潮喷喷水| 精品少妇黑人巨大在线播放 | 精品人妻熟女av久视频| 欧美国产日韩亚洲一区| 亚洲,欧美,日韩| 午夜福利在线观看免费完整高清在 | 永久网站在线| 亚洲aⅴ乱码一区二区在线播放| 久久久久久久亚洲中文字幕| www日本黄色视频网| 久久九九热精品免费| 欧美+日韩+精品| 亚洲av美国av| 精品日产1卡2卡| 精品一区二区三区人妻视频| 少妇猛男粗大的猛烈进出视频 | 久久精品人妻少妇| 国产成人影院久久av| 亚洲成av人片在线播放无| 国产伦精品一区二区三区视频9| 久久久国产成人免费| 又黄又爽又免费观看的视频| 国产欧美日韩精品亚洲av| 精品午夜福利视频在线观看一区| 日韩三级伦理在线观看| 最近的中文字幕免费完整| 老熟妇乱子伦视频在线观看| 嫩草影院精品99| 亚洲国产精品国产精品| 五月伊人婷婷丁香| 久久99热6这里只有精品| 亚洲电影在线观看av| 99九九线精品视频在线观看视频| 国产精品一区二区免费欧美| 最新中文字幕久久久久| 亚洲一区高清亚洲精品| 日韩精品青青久久久久久| 一个人观看的视频www高清免费观看| 男女那种视频在线观看| 最新中文字幕久久久久| 免费看av在线观看网站| 两个人的视频大全免费| 午夜免费激情av| 中国美白少妇内射xxxbb| 美女黄网站色视频| 久久草成人影院| 国产高清视频在线播放一区| 午夜老司机福利剧场| 日日摸夜夜添夜夜添av毛片| 国产精品日韩av在线免费观看| 日本在线视频免费播放| 日本五十路高清| 禁无遮挡网站| 黄色日韩在线| 99在线视频只有这里精品首页| 久久久国产成人免费| 国产精品三级大全| 国产真实乱freesex| 一卡2卡三卡四卡精品乱码亚洲| 国产白丝娇喘喷水9色精品| 国产男人的电影天堂91| 最近手机中文字幕大全| a级毛色黄片| 最近手机中文字幕大全| 天美传媒精品一区二区| 国产亚洲欧美98| 婷婷亚洲欧美| 国产成人91sexporn| 成人性生交大片免费视频hd| 亚洲国产高清在线一区二区三| 日本a在线网址| 国产伦精品一区二区三区四那| 国产成人91sexporn| 成人二区视频| 日本与韩国留学比较| 午夜精品在线福利| 亚洲电影在线观看av| 亚洲aⅴ乱码一区二区在线播放| 在线国产一区二区在线| 国产黄a三级三级三级人| 在线播放国产精品三级| 草草在线视频免费看| 久久99热6这里只有精品| 亚洲成人久久性| 精品久久久久久久末码| 大香蕉久久网| 91久久精品国产一区二区三区| 国产精品一区二区免费欧美| 香蕉av资源在线| 欧美成人免费av一区二区三区| 久久久午夜欧美精品| 亚洲精品久久国产高清桃花| 联通29元200g的流量卡| 在线观看av片永久免费下载| 国产精品一区二区三区四区久久| 日韩高清综合在线| 精品99又大又爽又粗少妇毛片| 三级经典国产精品| 久久久成人免费电影| 午夜免费激情av| 国产成人a区在线观看| 成人毛片a级毛片在线播放| 99在线人妻在线中文字幕| 国产美女午夜福利| 国产aⅴ精品一区二区三区波| 国产视频一区二区在线看| 自拍偷自拍亚洲精品老妇| 亚洲av第一区精品v没综合| 久久草成人影院| 在线观看av片永久免费下载| 在线免费十八禁| 亚洲成人av在线免费| 嫩草影院新地址| 日韩欧美在线乱码| 国产一区二区三区在线臀色熟女| 久久久欧美国产精品| 在线免费观看的www视频| 高清毛片免费看| 亚洲成人中文字幕在线播放| 99在线视频只有这里精品首页| 在线a可以看的网站| 日日摸夜夜添夜夜爱| 欧美人与善性xxx| 狂野欧美激情性xxxx在线观看| 一级毛片aaaaaa免费看小| 免费不卡的大黄色大毛片视频在线观看 | 亚洲av成人精品一区久久| 亚洲欧美成人综合另类久久久 | 能在线免费观看的黄片| 国产高清视频在线播放一区| 成人性生交大片免费视频hd| 在线观看av片永久免费下载| 成人av在线播放网站| 寂寞人妻少妇视频99o| 性色avwww在线观看| 波野结衣二区三区在线| 亚洲五月天丁香| 99久久九九国产精品国产免费| 日韩成人av中文字幕在线观看 | 欧美成人一区二区免费高清观看| 亚洲av二区三区四区| 岛国在线免费视频观看| 日韩精品中文字幕看吧| 99久久无色码亚洲精品果冻| 亚洲av二区三区四区| 99国产精品一区二区蜜桃av| 日韩精品中文字幕看吧| 男女视频在线观看网站免费| 免费av不卡在线播放| 色播亚洲综合网| 国内精品一区二区在线观看| 卡戴珊不雅视频在线播放| 一个人看视频在线观看www免费| 俄罗斯特黄特色一大片| 精品少妇黑人巨大在线播放 | 精品久久久久久久久av| 亚洲av中文字字幕乱码综合| 国产一区二区亚洲精品在线观看| 国产在线男女| 中文字幕熟女人妻在线| 欧美日本视频| 我要搜黄色片| 欧美激情久久久久久爽电影| 国产精品日韩av在线免费观看| 国产在视频线在精品| 亚洲成人av在线免费| 久久久久久国产a免费观看| 久久精品国产99精品国产亚洲性色| 亚洲经典国产精华液单| 国产一区二区激情短视频| 少妇熟女欧美另类| 欧美日韩一区二区视频在线观看视频在线 | 日韩高清综合在线| 啦啦啦韩国在线观看视频| 少妇丰满av| 99九九线精品视频在线观看视频| 久久精品国产亚洲av天美| 色5月婷婷丁香| 久久天躁狠狠躁夜夜2o2o| 精品久久久久久久人妻蜜臀av| 国产精品av视频在线免费观看| 欧美xxxx性猛交bbbb| 在线观看66精品国产| 噜噜噜噜噜久久久久久91| 久久久久久久久久久丰满| 久久欧美精品欧美久久欧美| 俺也久久电影网| 人人妻人人看人人澡| 久久精品夜夜夜夜夜久久蜜豆| 国产精品一二三区在线看| 一进一出抽搐gif免费好疼| 精品一区二区三区视频在线| 97碰自拍视频| 又爽又黄无遮挡网站| 18禁黄网站禁片免费观看直播| 精品午夜福利视频在线观看一区| 看非洲黑人一级黄片| 国产91av在线免费观看| 日韩精品有码人妻一区| 午夜激情欧美在线| 国产精品亚洲一级av第二区| 亚洲精品国产成人久久av| 亚洲人成网站在线播| 欧美又色又爽又黄视频| 综合色av麻豆| 亚洲国产精品久久男人天堂| ponron亚洲| 观看美女的网站| 国产在线男女| 久久99热这里只有精品18| 禁无遮挡网站| 一个人看视频在线观看www免费| 国产精品日韩av在线免费观看| 久久久欧美国产精品| 成人漫画全彩无遮挡| 一个人看视频在线观看www免费| 国产高清有码在线观看视频| 亚洲av二区三区四区| 18禁裸乳无遮挡免费网站照片| 精品一区二区三区视频在线观看免费| 国产人妻一区二区三区在| 欧美+亚洲+日韩+国产| 人妻久久中文字幕网| 国产aⅴ精品一区二区三区波| 亚洲精品色激情综合| 欧美+日韩+精品| 69人妻影院| 看十八女毛片水多多多| 国产亚洲av嫩草精品影院| 寂寞人妻少妇视频99o| 精品人妻熟女av久视频| 此物有八面人人有两片| 亚洲高清免费不卡视频| 97超级碰碰碰精品色视频在线观看| 午夜福利在线观看吧| 尾随美女入室| 丰满乱子伦码专区| av专区在线播放| 欧美最新免费一区二区三区| 我要搜黄色片| 久久久欧美国产精品| 有码 亚洲区| 国内精品久久久久精免费| 国产蜜桃级精品一区二区三区| 色av中文字幕| 少妇人妻一区二区三区视频| 亚洲欧美中文字幕日韩二区| 国产视频一区二区在线看| 最近视频中文字幕2019在线8| 日本一本二区三区精品| 搡女人真爽免费视频火全软件 | 日韩av不卡免费在线播放| 一本久久中文字幕| 看十八女毛片水多多多| 深爱激情五月婷婷| 国产精品人妻久久久久久| 久久精品影院6| 在线国产一区二区在线| 日日摸夜夜添夜夜爱| 国产亚洲精品久久久久久毛片| av女优亚洲男人天堂| 欧美又色又爽又黄视频| 精品99又大又爽又粗少妇毛片| 免费电影在线观看免费观看| av专区在线播放| 我要搜黄色片| 欧美日韩综合久久久久久| 亚洲国产色片| 成人三级黄色视频| 国产aⅴ精品一区二区三区波| 床上黄色一级片| 日韩成人伦理影院| 久久午夜福利片| 99久久久亚洲精品蜜臀av| 99热全是精品| 久久婷婷人人爽人人干人人爱| 亚洲人成网站高清观看| 成人漫画全彩无遮挡| 欧美不卡视频在线免费观看| 日韩亚洲欧美综合| 亚洲自拍偷在线| 亚洲国产精品国产精品| 久久久久久国产a免费观看| 不卡视频在线观看欧美| 99久久精品国产国产毛片| 亚洲精品日韩在线中文字幕 | 大香蕉久久网| 久久久色成人| 精品人妻视频免费看| 直男gayav资源| 亚洲内射少妇av| 国产精品99久久久久久久久| 欧美成人一区二区免费高清观看| 久久热精品热| 中文字幕免费在线视频6| 国产精品国产三级国产av玫瑰| 亚洲中文日韩欧美视频| 欧美zozozo另类| 欧美日韩一区二区视频在线观看视频在线 | 亚洲欧美日韩卡通动漫| 日本黄大片高清| 成年免费大片在线观看| 亚洲av.av天堂| 中文字幕av在线有码专区| 久久6这里有精品| 不卡一级毛片| 男人狂女人下面高潮的视频| 丰满的人妻完整版| a级一级毛片免费在线观看| av在线播放精品| 永久网站在线| 国产精品伦人一区二区| 黄色配什么色好看| 嫩草影院精品99| 卡戴珊不雅视频在线播放| 晚上一个人看的免费电影| 能在线免费观看的黄片| 亚洲经典国产精华液单| 男女视频在线观看网站免费| 精品福利观看| videossex国产| 九九在线视频观看精品| 天天躁日日操中文字幕| av福利片在线观看| 性色avwww在线观看| 亚洲人成网站在线播放欧美日韩| 久久久久九九精品影院| 欧美区成人在线视频| 最近手机中文字幕大全| 夜夜看夜夜爽夜夜摸| 99久久精品国产国产毛片| 寂寞人妻少妇视频99o| 最近在线观看免费完整版| 亚洲成人久久性| 51国产日韩欧美| 中文字幕免费在线视频6| 色综合亚洲欧美另类图片| 国产乱人偷精品视频| 草草在线视频免费看| 乱码一卡2卡4卡精品| 日韩三级伦理在线观看| 国产色爽女视频免费观看| 天堂√8在线中文| 免费观看精品视频网站| 亚洲精品粉嫩美女一区| 欧美潮喷喷水| 狂野欧美激情性xxxx在线观看| 中文资源天堂在线| 在线观看美女被高潮喷水网站| 欧美激情国产日韩精品一区| 岛国在线免费视频观看| 国产精品1区2区在线观看.| 性色avwww在线观看| 国产成人精品久久久久久| 精品一区二区三区视频在线| 精品人妻偷拍中文字幕| 国产中年淑女户外野战色| 亚洲美女黄片视频| 亚洲精品456在线播放app| 欧美bdsm另类| 天堂影院成人在线观看| 亚洲av成人av| 少妇的逼水好多| 俄罗斯特黄特色一大片| 看免费成人av毛片| 性色avwww在线观看| 亚洲乱码一区二区免费版| 老女人水多毛片| 欧美性感艳星| 亚洲一区二区三区色噜噜| 国产精品久久久久久久久免| 九色成人免费人妻av| 久久久久国产精品人妻aⅴ院| 午夜爱爱视频在线播放| 亚洲美女视频黄频| 欧美日本视频| 99久国产av精品国产电影| www日本黄色视频网| 国产激情偷乱视频一区二区| 欧美xxxx黑人xx丫x性爽| 亚洲精品在线观看二区| av在线老鸭窝| 久久6这里有精品| 久久精品人妻少妇| 中文在线观看免费www的网站| 亚洲av一区综合| 寂寞人妻少妇视频99o| 亚洲av电影不卡..在线观看| 国产精品日韩av在线免费观看| 一级黄色大片毛片| 国产麻豆成人av免费视频| 高清日韩中文字幕在线| 国产成人一区二区在线| 久久久国产成人免费| 草草在线视频免费看| 久久久久免费精品人妻一区二区| 亚洲av免费高清在线观看| 午夜a级毛片| 国产精品不卡视频一区二区| 春色校园在线视频观看| 看非洲黑人一级黄片| 久久久久久久久中文| 国产成人影院久久av| 精华霜和精华液先用哪个| 99热精品在线国产| 午夜福利在线观看吧| 国产一区二区三区av在线 | 黄色配什么色好看| 非洲黑人性xxxx精品又粗又长| 久久久成人免费电影| 国产伦在线观看视频一区| 好男人在线观看高清免费视频| 国产蜜桃级精品一区二区三区| 亚洲丝袜综合中文字幕| 卡戴珊不雅视频在线播放| 免费看a级黄色片| 青春草视频在线免费观看| 午夜福利在线观看吧| 91av网一区二区| 少妇的逼水好多| 日本欧美国产在线视频|