• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于RCF的精細邊緣檢測模型

    2019-10-31 09:21:33景年昭楊維
    計算機應(yīng)用 2019年9期
    關(guān)鍵詞:邊緣檢測注意力機制深度學(xué)習(xí)

    景年昭 楊維

    摘 要:針對目前基于深度學(xué)習(xí)的邊緣檢測技術(shù)生成的邊緣粗糙及模糊等問題,提出一種基于更豐富特征的邊緣檢測(RCF)模型(Richer Convolutional Features for Edge Detection)的端到端的精細邊緣檢測模型。該模型以RCF模型為基礎(chǔ),在主干網(wǎng)絡(luò)中引入“注意力”機制,采用SE(Squeeze-and-Excitation)模塊提取圖像邊緣特征,并且去掉主干網(wǎng)絡(luò)部分下采樣,避免細節(jié)信息過度丟失,使用擴張卷積技術(shù)增大模型感受野,并利用殘差結(jié)構(gòu)將不同尺度的邊緣圖進行融合。對伯克利分割數(shù)據(jù)集(BSDS500)進行增強,使用一種多步驟的訓(xùn)練方式在BSDS500和PASCAL VOC Context數(shù)據(jù)集上進行訓(xùn)練,并用BSDS500進行測試實驗。實驗結(jié)果表明,該模型將全局最佳(ODS)和單圖最佳(OIS)指標(biāo)分別提高到了0.817和0.838,在不影響實時性的前提下可以輸出更精細的邊緣,同時還具有較好的魯棒性。

    關(guān)鍵詞:邊緣檢測;更豐富的卷積特征檢測;深度學(xué)習(xí);擴張卷積;注意力機制

    中圖分類號:TP391.41

    文獻標(biāo)志碼:A

    Fine edge detection model based on RCF

    JING Nianzhao*, YANG Wei

    School of Electronic and Information Engineering, Beijing Jiaotong University, Beijing 100044, China

    Abstract:

    Aiming at the roughness and blur of edges generated by edge detection technology based on deep learning, an end-to-end fine edge detection model based on RCF (Richer Convolutional Features for edge detection) was proposed. In this model based on RCF model, attention mechanism was introduced in the backbone network, Squeeze-and-Excitation (SE) module was used to extract image edge features. In order to avoid excessive loss of detail information, two subsampling in the backbone network were removed. In order to increase the receptive field of the model, dilation convolution was used in the backbone. A residual module was used to fuse the edge images in different scales. The model was trained on the Berkeley Segmentation Data Set (BSDS500)and PASCAL VOC Context dataset by a multi-step training approach and was tested on the BSDS500. The experimental results show that the model improves the ODS (Optimal Dataset Scale) and OIS (Optimal Image Scale) to 0.817 and 0.838 respectively, and it not only generates finer edges without affecting real-time performance but also has better robustness.

    Key words:

    edge detection; Richer Convolutional Features for edge detection (RCF); deep learning; dilation convolution; attention mechanism

    0 引言

    圖像的邊緣是圖像的重要特征之一,準確的邊緣檢測是圖像分割、目標(biāo)區(qū)域識別、區(qū)域形狀提取等圖像分析工作的基礎(chǔ)[1-2],是機器視覺系統(tǒng)中必不可少的重要環(huán)節(jié)[3-5]。

    早期的邊緣檢測算法建立在圖像梯度運算的基礎(chǔ)上,利用圖像的一階或二階梯度信息提取圖像的邊緣,代表方法有Sobel算子[6]、Canny算子[7]等。這一類基于梯度的方法實時性好,但魯棒性不強,容易受噪聲、光照等因素的影響。隨著統(tǒng)計學(xué)和信息理論的引入以及機器學(xué)習(xí)領(lǐng)域的發(fā)展,許多基于手工特征的方法被提出。Konishi等[8]基于數(shù)據(jù)驅(qū)動技術(shù),將邊緣檢測表述為統(tǒng)計推斷,利用圖像特征的聯(lián)合概率分布實現(xiàn)邊緣的提取;Martin等[9]把圖像的亮度、光照、紋理等局部特征輸入到邏輯回歸分類器中進行邊緣的判定。這一類方法基于手工提取的圖像特征,利用濾波器技術(shù)或分類器技術(shù)進行邊緣的檢測,性能比傳統(tǒng)方法有了很大的提升,但是其成本高,步驟繁瑣,實時性不好。后來,隨著神經(jīng)網(wǎng)絡(luò)的復(fù)興以及計算機算力的提升,基于深度學(xué)習(xí)的算法成為了該領(lǐng)域的主流方法。Ganin等[10]提出將卷積神經(jīng)網(wǎng)絡(luò)與最近鄰算法結(jié)合起來進行邊緣檢測,該方法先利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)自動提取圖像特征,然后再利用最近鄰算法實現(xiàn)邊緣的聚類;Shen等[11]將邊緣檢測看作一個多分類問題,根據(jù)邊緣的不同形態(tài)將邊緣分成多個子類,利用CNN進行邊緣子類的檢測,之后再利用隨機森林技術(shù)將子類聚合形成最終輪廓圖;Bertasius等[12]提出使用更多的高級特征可以提升模型的性能,將參與分類任務(wù)的預(yù)訓(xùn)練模型遷移到邊緣檢測模型中,并將網(wǎng)絡(luò)分為兩個支路,利用多尺度技術(shù)分別進行邊緣的分類學(xué)習(xí)和回歸學(xué)習(xí),使模型的魯棒性得到很大提升;Xie等[13]提出了第一個端到端的邊緣檢測模型HED(Holistically-nested Edge Detection),該模型基于全卷積神經(jīng)網(wǎng)絡(luò)[14]框架并嘗試利用深監(jiān)督技術(shù)[15]和多尺度學(xué)習(xí)技術(shù)解決邊緣的模糊問題;Liu等[16]在HED模型的基礎(chǔ)上提出基于更豐富特征的邊緣檢測(Richer Convolutional Features for edge detection, RCF)模型,通過融合更豐富的特征使輸出的邊緣更精細。

    由于其強大的特征自動提取能力,基于深度學(xué)習(xí)的邊緣檢測技術(shù)比之前的算法在性能上有很大提升,對光照、陰影等影響因素的魯棒性也隨之增強。但是,像RCF或HED這類端到端的邊緣檢測模型以VGG16(Visual Geometry Group)[17]等傳統(tǒng)分類網(wǎng)絡(luò)為基礎(chǔ),不能提取圖片的全局特征,因此表達能力受到一定的影響。另外,這一類模型采用過多的下采樣并且沒有充分融合多尺度特征,導(dǎo)致圖像中的許多細節(jié)信息丟失,使輸出的邊緣線條粗糙且模糊。針對這些問題,本文提出一種基于RCF的精細邊緣檢測模型。該模型在RCF的基礎(chǔ)上,引入SE(Squeeze-and-Excitation)結(jié)構(gòu)[18],提取全局特征,去掉主干網(wǎng)絡(luò)的后兩個下采樣,避免細節(jié)信息多度丟失,并使用擴張卷積技術(shù)[19]增加主干網(wǎng)絡(luò)的感受野,提高主干網(wǎng)絡(luò)的表達能力,然后使用一個殘差結(jié)構(gòu)[20]充分融合深監(jiān)督模塊輸出的多尺度特征,生成最終的邊緣圖。此外,該模型使用一種多階段的訓(xùn)練方式在增強的伯克利分割數(shù)據(jù)集(Berkeley Segmentation Data Set, BSDS500)[21]和PASCAL VOC Context數(shù)據(jù)集[22]上進行訓(xùn)練,并在測試時使用圖像金字塔技術(shù),使模型性能進一步提升。

    1 細邊緣檢測模型

    1.1 RCF網(wǎng)絡(luò)

    RCF[16]以HED[13]為基礎(chǔ),實現(xiàn)了端到端邊緣檢測,是目前性能最好的邊緣檢測算法之一。如圖1所示,RCF的結(jié)構(gòu)分為三大部分:主干網(wǎng)絡(luò)、深監(jiān)督模塊(Deeply-Supervised nets, DS)和特征融合模塊(fuse)。RCF使用VGG16[17]的全部卷積層作為自己的主干網(wǎng)絡(luò),分為5個stage。通過這種全卷積結(jié)構(gòu)[14],主干網(wǎng)絡(luò)實現(xiàn)了邊緣特征的自動提取。RCF的深監(jiān)督模塊對每一個stage進行監(jiān)督學(xué)習(xí),并使每個stage輸出一張邊緣圖,使該模型可以更好更快地收斂。RCF的融合模塊則利用一個1×1的卷積層將深監(jiān)督模塊輸出的5張邊緣圖融合并輸出最終的邊緣圖。RCF輸出的邊緣圖融合了主干網(wǎng)絡(luò)每一層的特征,其效果要好于只使用部分特征的HED網(wǎng)絡(luò)。

    1.2 本模型

    本模型的設(shè)計思想來源于RCF網(wǎng)絡(luò),并對RCF各個模塊進行了針對性的改進。如圖2所示,本模型可大致分為主干網(wǎng)絡(luò)、深監(jiān)督模塊、特征融合模塊三部分。

    1.2.1 基于SE結(jié)構(gòu)的主干網(wǎng)絡(luò)

    如圖2中的虛線左邊部分所示,本模型的主干網(wǎng)絡(luò)以RCF的主干網(wǎng)絡(luò)為基礎(chǔ),也分為5個stage,負責(zé)邊緣特征的自動提取。然而RCF的主干網(wǎng)絡(luò)采用的是VGG16的傳統(tǒng)卷積結(jié)構(gòu)(convolution, conv),由多個卷積層簡單的堆疊而成。這種傳統(tǒng)的卷積結(jié)構(gòu)只能對局部感受野中的空間維度和特征維度的信息進行處理,不能提取圖片的全局特征,表達能力會受到限制。因此,本模型引入可提取全局特征的SE結(jié)構(gòu)并將主干網(wǎng)絡(luò)分為前后兩部分:前一部分(前兩個stage)與RCF一樣,采用傳統(tǒng)的卷積和下采樣組合的結(jié)構(gòu),充分提取邊緣的低級特征;后一部分(后面三個stage)則采用類似“注意力機制”的SE(Squeeze-and-Excitation)結(jié)構(gòu)[18],提取更多的語義特征和全局特征。如圖3所示,每個SE結(jié)構(gòu)先通過全局平均池化操作Fsq把卷積層IN的每個二維的feature map壓縮成一個實數(shù)ai,這個實數(shù)ai具有全局感受野,然后利用可學(xué)習(xí)的參數(shù)W為每一個實數(shù)ai生成權(quán)重,通過可學(xué)習(xí)的方式顯式地建模feature map間的相關(guān)性,最后用學(xué)習(xí)后的全局特征B與原始feature map進行元素相乘,使OUT中每一個feature map的特征包含全局的信息 [18]。使用這種SE結(jié)構(gòu)后,本模型可以提取全局特征來衡量feature map的重要程度,通過學(xué)習(xí)的方式提升有用的特征并抑制對當(dāng)前任務(wù)用處不大的特征,從而提升主干網(wǎng)絡(luò)的表達能力。另外,RCF主干網(wǎng)絡(luò)有4次下采樣,模型輸出的圖片精度只有原始圖片的1/16,導(dǎo)致圖片的許多細節(jié)信息丟失,使輸出的邊緣模糊不清。因此,本模型去掉主干網(wǎng)絡(luò)后2個下采樣,使用3×3的池化(pool)并將步長設(shè)為1。這樣,本模型只有2次下采樣,輸出圖片的精度是原始圖片的1/4,保留了更多的細節(jié)信息,使輸出的邊緣更精細。與此同時,為了解決去掉下采樣后感受野變小的問題,本模型在后兩個stage中使用擴張卷積技術(shù)(dilation, dil)[19],將擴張參數(shù)分別設(shè)為2和4,在不增加參數(shù)的情況下增大模型的感受野。

    1.2.2 深監(jiān)督模塊

    圖2中的主干網(wǎng)絡(luò)在提取特征的過程中,由于自身參數(shù)過多,訓(xùn)練時網(wǎng)絡(luò)收斂速度慢,收斂效果也不太理想。因此,為了使主干網(wǎng)絡(luò)能夠更高效地提取特征,改善模型訓(xùn)練效果,本模型使用與RCF相同的深監(jiān)督技術(shù)。如圖2中的虛線右側(cè)部分所示,將主干網(wǎng)絡(luò)中的每一層特征通過1×1的卷積層進行特征壓縮,并以stage為單位相加,然后再使用1×1的卷積進一步壓縮特征,最后通過利用雙線性插值技術(shù)初始化的反卷積(deconvolution, deconv)實現(xiàn)上采樣,使每一個stage都輸出一張邊緣圖;并且本模型對每一個stage輸出的邊緣圖都進行監(jiān)督學(xué)習(xí),實現(xiàn)深監(jiān)督學(xué)習(xí)。

    1.2.3 基于殘差結(jié)構(gòu)的特征融合

    圖2中的特征融合模塊負責(zé)對深監(jiān)督模塊輸出的5個邊緣圖進行融合處理。每個stage生成的邊緣圖都使用了不同層次的特征,第1個stage生成的邊緣圖使用了大量的低級特征和很少的語義特征,而第5個stage生成的邊緣圖則使用了大量的語義特征和很少的細節(jié)特征。因此將每個stage輸出的邊緣圖融合起來,可以更充分地使用模型特征,使輸出的邊緣更精確。然而RCF只采用一層1×1的卷積簡單地按比例融合,對多尺度的信息處理得不充分,輸出的邊緣比較粗。另外,通過實驗發(fā)現(xiàn)后兩個stage輸出的邊緣圖與標(biāo)簽圖(ground truth)已經(jīng)很相近,這就意味著后兩個stage輸出的邊緣圖與標(biāo)簽圖之間的殘差已經(jīng)很小,因此,本模型的融合模塊使用一種殘差結(jié)構(gòu)[20],通過對每個stage輸出的邊緣圖與標(biāo)簽圖之間的殘差進行處理,使多尺度特征更高效地融合。如圖4所示,融合模塊的輸入是深監(jiān)督模塊輸出的5張邊緣圖,將輸入分成兩個分支,其中一個分支通過3個卷積層對殘差進行充分處理,然后與輸入相加,實現(xiàn)多尺度信息的融合,再經(jīng)過一個1×1的卷積進行特征壓縮后便輸出最終的邊緣圖。融合后的邊緣圖既保留大量的細節(jié)信息,在語義上也是完整的。此外,通過實驗發(fā)現(xiàn),在特征融合模塊中使用非線性結(jié)構(gòu),比如ReLU(Rectified Linear Units)[21]等,會損失一些細節(jié)信息,導(dǎo)致輸出的邊緣圖包含噪聲,因此,該模塊沒有添加任何非線性結(jié)構(gòu)。

    1.3 精細邊緣檢測模型訓(xùn)練

    1.3.1 數(shù)據(jù)集增強

    本模型使用增強版的BSDS500[22]數(shù)據(jù)集和PASCAL VOC Context[23]數(shù)據(jù)集進行訓(xùn)練。傳統(tǒng)的邊緣檢測數(shù)據(jù)集BSDS500由訓(xùn)練集、驗證集和測試集三部分組成。其中,訓(xùn)練集包含200張圖片,驗證集包含100張圖片,測試集包含200張圖片。為了防止模型出現(xiàn)過擬合現(xiàn)象,對BSDS500數(shù)據(jù)集進行了增強處理。通過使用OpenCV工具包,對訓(xùn)練集和驗證集的300張圖片進行旋轉(zhuǎn)、擴大、剪裁等操作,將數(shù)據(jù)集增強到28800張。另外,由于本模型對輸入圖片的大小信息不敏感,為了減少模型訓(xùn)練時的內(nèi)存消耗,并實現(xiàn)批量訓(xùn)練,將所有的訓(xùn)練圖片剪裁為209×273的統(tǒng)一大小。

    1.3.2 像素級分類的損失函數(shù)

    針對邊緣檢測這種像素級的分類問題,通常將圖片的每個像素點的分類看作是一個二分類問題(邊緣點與非邊緣點),因此,本模型使用交叉熵作為每個像素點分類的代價函數(shù)。另外, BSDS500數(shù)據(jù)集中的每一個標(biāo)簽圖(ground truth)都是由多個標(biāo)記者標(biāo)注而成,由于每個標(biāo)記者對于邊緣的認知不統(tǒng)一,因此該數(shù)據(jù)集中的邊緣含有一些噪聲。為了提高模型魯棒性,本模型使用文獻[16]中閾值法,即對標(biāo)簽圖中的像素值進行歸一化處理,將標(biāo)簽圖變?yōu)檫吘壍母怕蕡D,并將概率值大于閾值η的像素點作為邊緣點,將概率值為0的像素點作為非邊緣點,而其他像素點作為有爭議點,排除在外。與文獻[16]相同,本模型每個像素點的損失函數(shù)表示為:

    l(Xi ;W)= α·lb(1-P(Xi;W)); yi =0

    0,??????? 0 < yi≤η

    β·lb(P(Xi;W),yi>η(1)

    α=λ·Y+Y++Y-

    β=Y-Y++Y-(2)

    其中:|Y+|和|Y-|分別代表正負樣本的數(shù)量,α、 β和超參數(shù)λ用來平衡正負樣本數(shù)量差,Xi代表神經(jīng)網(wǎng)絡(luò)的激活值,yi代表標(biāo)簽圖中像素點i是邊緣點的概率值,W代表神經(jīng)網(wǎng)絡(luò)中可學(xué)習(xí)的參數(shù)。這種損失函數(shù)可以促使模型作出最有把握的判斷,將有爭議的像素點排除在外,提高模型的魯棒性。另外,通過實驗發(fā)現(xiàn):如果將超參數(shù)η設(shè)為0.5或更大的值,有些標(biāo)簽圖出現(xiàn)邊緣不連續(xù)的現(xiàn)象;而將超參數(shù)η減小時,有些標(biāo)簽圖的邊緣開始受到噪聲的影響。因此,超參數(shù)η大小的設(shè)定要根據(jù)該模型具體的使用場景而定。

    1.3.3 多階段訓(xùn)練方式

    RCF使用單階段的訓(xùn)練方式,將深監(jiān)督模塊每個stage的損失與融合模塊的損失之和作為整個模型的損失函數(shù)。然而,這兩部分損失的重要程度是不一樣的,深監(jiān)督模塊輸出邊緣圖并計算損失只是為了輔助主干網(wǎng)絡(luò)更好地優(yōu)化,起輔助作用;而融合模塊輸出的邊緣圖為模型最終的輸出,這部分損失起決

    定作用。RCF的這種簡單相加的損失函數(shù)并沒有體現(xiàn)出融合模塊損失的重要性,因此,本模型使用一種多階段的訓(xùn)練方式,先使用RCF的訓(xùn)練方式使網(wǎng)絡(luò)達到一個較優(yōu)的狀態(tài),然后去掉深監(jiān)督模塊的損失,只使用融合模塊的損失繼續(xù)進行訓(xùn)練,使模型達到最優(yōu)的狀態(tài)。通過這種多階段訓(xùn)練方式,顯式地提升融合模塊輸出的邊緣圖的重要性。具體過程如下:

    1)先采用RCF的訓(xùn)練方式,損失函數(shù)為:

    L(W)=∑Ii=1(∑Kk=1l(X(k)i;W)+l(Xfusei;W))(3)

    其中:X(k)i代表第k個stage輸出圖片中的第i個像素點的激勵值,而Xfusei代表融合模塊輸出的圖片中的第i個像素點的激勵值,|I|代表每張圖片像素點的總數(shù),K代表主干網(wǎng)絡(luò)stage的數(shù)量,在這里K =5。利用該損失函數(shù)通過隨機梯度下降算法訓(xùn)練本模型10個epoch,batch size設(shè)為16,基準學(xué)習(xí)率設(shè)為1E-6,每一層的學(xué)習(xí)率略有差異,momentum設(shè)為0.9,weight decay設(shè)為0.0002。另外,與HED和RCF網(wǎng)絡(luò)不同,本模型在訓(xùn)練過程中沒有使用任何預(yù)訓(xùn)練模型,只對參數(shù)進行Gaussian分布的初始化。

    2)在第一步的基礎(chǔ)上,只使用融合模塊的損失繼續(xù)對模型進行優(yōu)化,此時本模型的損失函數(shù)為:

    L(W)=∑Ii=1l(Xfusei;W)(4)

    其中:l(Xfusei;W)代表融合模塊輸出的圖片中的第i個像素點的損失函數(shù),|I|代表每張圖片像素點的總數(shù)。用該損失函數(shù)繼續(xù)訓(xùn)練模型直至收斂,顯式地提升融合模塊輸出的邊緣圖的重要性,基準學(xué)習(xí)率設(shè)為1E-7,其他的參數(shù)設(shè)置與第1)步相同。

    1.4 與RCF比較

    本模型與RCF的區(qū)別主要體現(xiàn)在3個方面:首先,RCF的主干網(wǎng)絡(luò)采用傳統(tǒng)的VGG16的全部卷積層,而本模型將主干網(wǎng)絡(luò)分為兩部分:前半部分采用下采樣結(jié)構(gòu)充分提取邊緣特征;后半部分考慮到圖片的精度問題不進行下采樣,采用空洞卷積技術(shù)增大感受野并且采用SE結(jié)構(gòu)提取圖片全局特征。然后,在特征融合部分,RCF只使用一層1×1卷積進行特征融合,而本模型使用一種多層的殘差結(jié)構(gòu),實現(xiàn)多尺度特征的充分融合。最后,RCF使用的是單階段的訓(xùn)練方式,而本模型使用了一種多階段的訓(xùn)練方式。通過上述幾點的改進,本模型性能比RCF網(wǎng)絡(luò)有了一定程度的提升。

    2 實驗

    本文中的實驗以Pytorch 0.4.0作為開發(fā)框架,系統(tǒng)為Linux,硬件設(shè)備包括一塊NVIDIA TITAN Xp GPU,顯卡內(nèi)存為12GB和一塊Intel i7-6800k CPU,內(nèi)存為64GB。

    2.1 圖像金字塔技術(shù)

    圖像金字塔技術(shù)是計算機視覺領(lǐng)域中的一種重要技術(shù),文獻[16]和[24]均使用該技術(shù)并取得了很好的效果。在測試階段,本模型也使用圖像金字塔技術(shù),將測試集圖片分別剪裁為0.8×、1.0×、1.2×三種規(guī)模,分別輸入到模型,然后將同一圖片三種不同規(guī)模的結(jié)果加權(quán)求平均,得出最終的邊緣圖,增強模型的魯棒性。

    2.2 實驗分析

    邊緣檢測模型的檢測指標(biāo)主要包括:全局最佳(Optimal

    Dataset Scale, ODS)和單圖最佳(Optimal Image Scale, OIS)等。其中:ODS指測試集中所有圖片使用固定同一閾值時的檢測結(jié)果;OIS指對每一幅圖像使用針對當(dāng)前圖片最佳閾值時的檢測結(jié)果[25]。本文模型輸出的邊緣圖通過非最大抑制[26]處理后,用Edge Box[27]工具包進行指標(biāo)測量,各項指標(biāo)與其他相關(guān)算法的對比如表1所示。

    通過對比可以看出,本文模型通過對RCF和HED的改進,性能比RCF和HED有了一定的提高。本文模型的ODS分別比RCF和HED提高0.6%和2.9%,而OIS分別比RCF和HED提高0.8%和3.4%。另外,本文模型輸出的邊緣圖與原始圖片的對比如圖5所示。

    通過對比可知,本文模型可以精確地將圖片中物體的邊緣提取出來,并且在未使用圖像金字塔技術(shù)和未進行非最大抑制處理的情況下,本文模型生成的邊緣線條也非常清晰,達到了目前靠前的水平。

    為了進一步查看本文模型各模塊的改進效果,進行了相關(guān)實驗,實驗結(jié)果如表2所示。針對主干網(wǎng)絡(luò),將使用SE結(jié)構(gòu)和空洞卷積的模型與RCF進行對比實驗,實驗結(jié)果表明使用SE結(jié)構(gòu)和空洞卷積的模型分別使ODS和OIS指標(biāo)提升了0.33%和0.42%,這也證明了本模型的主干網(wǎng)絡(luò)能夠提取更多的全局信息并且會保留更多的邊緣細節(jié)信息。另外,本模型主干網(wǎng)絡(luò)每個stage輸出的邊緣圖與HED和RCF的對比如圖6所示。從左到右,前兩列為HED與本模型各個stage輸出邊緣圖的對比,后兩列為RCF與本模型各個stage輸出邊緣圖的對比。從上到下,每一列的5張圖分別為主干網(wǎng)絡(luò)1~5 stage輸出的邊緣圖。通過對比可以看出,HED和RCF各個stage輸出的邊緣圖線條粗糙且模糊,對細節(jié)的處理欠佳;而本文模型生成的邊緣圖保留了更多細節(jié)信息,線條更清晰。

    針對融合模塊,在使用殘差結(jié)構(gòu)后,模型的ODS和OIS指標(biāo)分別提升了0.21%和0.28%,這說明該融合模塊可以更充分地融合多尺度的特征。另外,當(dāng)去掉殘差結(jié)構(gòu)中的shortcut支路而只保留層疊結(jié)構(gòu)時,發(fā)現(xiàn)模型收斂情況變差,邊緣圖出現(xiàn)很多噪聲并且變得不清晰。這也證明了殘差結(jié)構(gòu)可以使網(wǎng)絡(luò)參數(shù)更好地優(yōu)化,避免梯度消失和梯度爆炸等問題。此外,當(dāng)對融合模塊增添ReLU等非線性元素時,邊緣圖會變得模糊,這說明該模塊的非線性結(jié)構(gòu)會損壞很多有用的邊緣信息,造成網(wǎng)絡(luò)性能下降。

    最后,對本模型的多階段訓(xùn)練方式進行實驗,發(fā)現(xiàn)使用多階段的訓(xùn)練方式后,深監(jiān)督模塊每個stage輸出的邊緣圖會受到一定的影響,變得不清晰,但融合模塊輸出的邊緣圖卻更精確,ODS和OIS分別提升了0.09%和0.12%,這也符合預(yù)期。

    3 結(jié)語

    本文提出了一個新的邊緣檢測模型。該模型基于RCF和HED的思想,在主干網(wǎng)絡(luò)上加入SE模塊,提升主干網(wǎng)絡(luò)的表達能力,舍棄部分下采樣,避免圖片精度過度降低;采用空洞卷積技術(shù)提升網(wǎng)絡(luò)的感受野,采用一種殘差結(jié)構(gòu)使多尺度特征充分融合;最后采用多階段訓(xùn)練的方式使模型性能進一步提升。實驗表明,本模型可以生成高質(zhì)量的邊緣圖。

    參考文獻

    [1]REN X F, BO L F. Discriminatively trained sparse code gradients for contour detection[C]// NIPS 2012: Proceedings of the 25th International Conference on Neural Information Processing Systems. North Miami Beach, FL, USA: Curran Associates, 2012, 1: 584-592.

    [2]張廣燕, 王俊平, 邢潤森,等.PSLIP新模型及在邊緣檢測和圖像增強中的應(yīng)用[J].電子學(xué)報,2015,43(2):377-382.(ZHANG G Y, WANG J P, XING R S, et al. A new PSLIP model and its application in edge detection and image enhancement[J]. Acta Electronica Sinica, 2015, 43(2): 377-382.)

    [3]KOHLI P, LADICKY L, TORR P H S. Robust higher order potentials for enforcing label consistency [J]. International Journal of Computer Vision, 2009, 82(3): 302-324.

    [4]石美紅,李青,趙雪青,等.一種基于保角相位的圖像邊緣檢測新方法[J].電子與信息學(xué)報,2015,37(11):2594-2600.(SHI M H, LI Q, ZHAO X Q, et al. A new approach for image edge detection based on conformal phase [J]. Journal of Electronics and Information Technology, 2015, 37(11): 2594-2600.)

    [5]PANTOFARU C, SCHMID C, HERBERT M. Object recognition by integrating multiple image segmentations [C]//ECCV 2008: Proceedings of the 10th European Conference on Computer Vision, LNCS 5304. Berlin: Springer, 2008: 481-494.

    [6]FELDMAN J A, FELDMAN G M, FALK G, et al. The Stanford hand-eye project [C]// IJCAI ‘69: Proceedings of the 1st International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 1969: 521-526.

    [7]CANNY J. A computational approach to edge detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6): 679-698.

    [8]KONISHI S, YUILLE A L, COUGHLAN J M, et al. Statistical edge detection: learning and evaluating edge cues [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(1): 57-74.

    [9]MARTIN D R, FOWLKES C C, MALIK J. Learning to detect natural image boundaries using local brightness, color, and texture cues[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(5): 530-549.

    [10]GANIN Y, LEMPITSKY V. N4-Fields: neural network nearest neighbor fields for image transforms [C]// Proceedings of the 2014 Asian Conference on Computer Vision, LNCS 9004. Berlin: Springer, 2014: 536-551.

    [11]SHEN W, WANG X G, WANG Y, et al. DeepContour: a deep convolutional feature learned by positive-sharing loss for contour detection[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 3982-3991.

    [12]BERTASIUS G, SHI J, TORRESANI L. DeepEdge: a multi-scale bifurcated deep network for top-down contour detection [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 4380-4389.

    [13]XIE S, TU Z. Holistically-nested edge detection [J]. International Journal of Computer Vision, 2017, 125(1/2/3): 3-18.

    [14]SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

    [15]LEE C-Y, XIE S, GALLAGHER P, et al. Deeply-supervised nets [EB/OL]. [2019-01-02]. https://arxiv.org/pdf/1409.5185.pdf.

    [16]LIU Y, CHENG M, HU X, et al. Richer convolutional features for edge detection [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 5872-5881.

    [17]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [EB/OL]. [2018-08-12]. https://arxiv.org/pdf/1409.1556.pdf.

    [18]HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks [EB/OL]. [2018-08-12]. https://arxiv.org/pdf/1709.01507.pdf.

    [19]YU F, KOLTUN V. Multi-scale context aggregation by dilated convolutions [EB/OL]. [2018-08-12]. https://arxiv.org/pdf/1511.07122.pdf.

    [20]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ:IEEE, 2016: 770-778.

    [21]NAIR V, HINTON G E. Rectified linear units improve restricted Boltzmann machines [C]// ICML ‘10: Proceedings of the 27th International Conference on Machine Learning. Madison, WI: Omnipress, 2010: 807-814.

    [22]MARTIN D R, FOWLKES C C, TAL D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics [C]// ICCV 2001: Proceedings of the 8th IEEE International Conference on Computer Vision. Washington DC: IEEE Computer Society, 2001, 2: 416-423.

    [23]MOTTAGHI R, CHEN X, LIU X, et al. The role of context for object detection and semantic segmentation in the wild [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington DC: IEEE Computer Society, 2014: 891-898.

    [24]FARABET C, COUPRIE C, NAJMAN L, et al. Learning hierarchical features for scene labeling [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1915-1929.

    [25]劉勝男,寧紀鋒. 基于超像素的點互信息邊界檢測算法[J]. 計算機應(yīng)用, 2016, 36(8): 2296-2300. (LIU S N, NING J F. Super-pixel based pointwise mutual information boundary detection algorithm[J]. Journal of Computer Applications, 2016, 36(8): 2296-2300.)

    [26]DOLLR P, ZITNICK C L. Fast edge detection using structured forests [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(8): 1558-1570.

    [27]ZITNICK C L, DOLLR P. Edge boxes: locating object proposals from edges [C]// Proceedings of the 2014 European Conference on Computer Vision, LNCS 8693. Berlin:Springer, 2014:391-405.

    This work is partially supported by the National Key Research and Development Program of China (2016YFC0801800).

    JING Nianzhao, born in 1994, M.S. candidate. His research interests include computer vision, information processing.

    YANG Wei, born in 1964, Ph.D., professor. His research interests include wireless communication, information processing.

    猜你喜歡
    邊緣檢測注意力機制深度學(xué)習(xí)
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個基于知識庫的問答系統(tǒng)
    唐卡圖像邊緣提取
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    移相干涉術(shù)及其相位解包新思路
    基于數(shù)據(jù)挖掘技術(shù)的圖片字符檢測與識別
    水下大壩裂縫圖像分割方法研究 
    十八禁国产超污无遮挡网站| 身体一侧抽搐| 国内精品美女久久久久久| 悠悠久久av| 国内精品美女久久久久久| 成人毛片a级毛片在线播放| 日韩欧美 国产精品| 欧美又色又爽又黄视频| 欧美日韩在线观看h| 草草在线视频免费看| 美女黄网站色视频| 九色成人免费人妻av| 成人特级av手机在线观看| 免费看美女性在线毛片视频| 欧美zozozo另类| 精品欧美国产一区二区三| 精品人妻一区二区三区麻豆| 成人亚洲欧美一区二区av| 2022亚洲国产成人精品| 久久精品国产亚洲av香蕉五月| 久久精品影院6| 激情 狠狠 欧美| 日本免费a在线| 天美传媒精品一区二区| 久久精品国产99精品国产亚洲性色| av专区在线播放| 免费观看在线日韩| 欧美精品国产亚洲| 日韩亚洲欧美综合| 国产av麻豆久久久久久久| 日本-黄色视频高清免费观看| 搡女人真爽免费视频火全软件| 日本爱情动作片www.在线观看| 夜夜夜夜夜久久久久| 国产成人午夜福利电影在线观看| 2021天堂中文幕一二区在线观| 久久久久久久午夜电影| 夜夜夜夜夜久久久久| 亚洲欧美成人精品一区二区| 亚洲国产精品sss在线观看| 超碰av人人做人人爽久久| 国产日本99.免费观看| 看片在线看免费视频| 国产女主播在线喷水免费视频网站 | 国产麻豆成人av免费视频| 久久久a久久爽久久v久久| 精品不卡国产一区二区三区| av又黄又爽大尺度在线免费看 | 精品人妻熟女av久视频| 免费av观看视频| 亚洲av中文av极速乱| 国产一区二区激情短视频| 午夜爱爱视频在线播放| 亚洲欧美成人精品一区二区| 欧美日韩精品成人综合77777| 日本爱情动作片www.在线观看| 久久精品国产99精品国产亚洲性色| 成人永久免费在线观看视频| 2021天堂中文幕一二区在线观| 成人漫画全彩无遮挡| 成年免费大片在线观看| 亚洲色图av天堂| 亚洲欧美成人综合另类久久久 | 亚洲国产精品久久男人天堂| 久久精品91蜜桃| 日韩三级伦理在线观看| 国产亚洲精品久久久com| 久久久a久久爽久久v久久| 欧美三级亚洲精品| 色综合站精品国产| 91精品国产九色| 日本熟妇午夜| 亚洲av.av天堂| 性色avwww在线观看| 国产综合懂色| 22中文网久久字幕| 我要搜黄色片| 亚洲图色成人| 两个人的视频大全免费| 一级毛片久久久久久久久女| 可以在线观看的亚洲视频| 三级毛片av免费| 欧美成人一区二区免费高清观看| 亚洲欧美日韩卡通动漫| 国产成人影院久久av| 中文字幕精品亚洲无线码一区| 亚洲av不卡在线观看| 99热精品在线国产| 网址你懂的国产日韩在线| 在线观看av片永久免费下载| 久久精品久久久久久噜噜老黄 | 乱人视频在线观看| 亚洲婷婷狠狠爱综合网| 欧美色欧美亚洲另类二区| 国产成人a区在线观看| 久久亚洲国产成人精品v| 男人舔奶头视频| 成人漫画全彩无遮挡| 国产v大片淫在线免费观看| 国产精品.久久久| 久久久成人免费电影| 一级毛片我不卡| 成人美女网站在线观看视频| 久久99精品国语久久久| 成人午夜高清在线视频| 高清在线视频一区二区三区 | 只有这里有精品99| 少妇猛男粗大的猛烈进出视频 | 最近视频中文字幕2019在线8| 亚洲成a人片在线一区二区| 亚洲在久久综合| 国产不卡一卡二| 好男人视频免费观看在线| 真实男女啪啪啪动态图| 一进一出抽搐gif免费好疼| 九九热线精品视视频播放| 国产亚洲欧美98| 黄色配什么色好看| kizo精华| 国产一级毛片七仙女欲春2| 九色成人免费人妻av| 日本撒尿小便嘘嘘汇集6| 亚洲国产精品合色在线| av又黄又爽大尺度在线免费看 | 精品久久久久久成人av| 永久网站在线| 久久精品综合一区二区三区| 国产91av在线免费观看| 亚洲人成网站在线播放欧美日韩| 色哟哟·www| 久99久视频精品免费| 亚洲国产日韩欧美精品在线观看| www.色视频.com| 久久九九热精品免费| 可以在线观看毛片的网站| 波多野结衣高清无吗| 一个人免费在线观看电影| 欧美高清性xxxxhd video| 欧美日韩一区二区视频在线观看视频在线 | 高清毛片免费观看视频网站| 亚洲精华国产精华液的使用体验 | 国产精品麻豆人妻色哟哟久久 | 国内精品美女久久久久久| 国产视频首页在线观看| 91精品国产九色| 在线观看免费视频日本深夜| 青春草亚洲视频在线观看| 国产v大片淫在线免费观看| 欧美日韩综合久久久久久| 亚洲精品粉嫩美女一区| 国产精品久久电影中文字幕| 亚洲精品亚洲一区二区| 欧美xxxx黑人xx丫x性爽| 日韩视频在线欧美| 黄片wwwwww| 春色校园在线视频观看| 久久久欧美国产精品| 91av网一区二区| 插阴视频在线观看视频| 国产伦一二天堂av在线观看| 日韩三级伦理在线观看| 成年免费大片在线观看| 亚洲一区二区三区色噜噜| or卡值多少钱| 国产亚洲av片在线观看秒播厂 | 看黄色毛片网站| 村上凉子中文字幕在线| 久久国内精品自在自线图片| 少妇的逼水好多| 婷婷色综合大香蕉| 亚洲成人久久爱视频| 人妻制服诱惑在线中文字幕| 色综合站精品国产| 成人亚洲精品av一区二区| 成年女人看的毛片在线观看| 国产高清有码在线观看视频| 麻豆一二三区av精品| av国产免费在线观看| 久久午夜亚洲精品久久| 少妇高潮的动态图| 狂野欧美激情性xxxx在线观看| 午夜福利成人在线免费观看| 国产免费一级a男人的天堂| 18禁在线播放成人免费| 啦啦啦韩国在线观看视频| 日韩欧美精品v在线| 午夜老司机福利剧场| 欧美变态另类bdsm刘玥| 国产精品,欧美在线| 非洲黑人性xxxx精品又粗又长| 亚洲国产精品合色在线| 丰满乱子伦码专区| av在线老鸭窝| 久久精品夜夜夜夜夜久久蜜豆| 在现免费观看毛片| 婷婷亚洲欧美| 国产一区二区激情短视频| 亚洲av不卡在线观看| 国产精品一区二区性色av| 少妇裸体淫交视频免费看高清| 久久人妻av系列| 国产av在哪里看| 一区二区三区免费毛片| 国产免费男女视频| 国产一区二区激情短视频| 欧美另类亚洲清纯唯美| 亚洲精品久久久久久婷婷小说 | 欧美xxxx性猛交bbbb| 黄色配什么色好看| 最近视频中文字幕2019在线8| 亚洲国产精品国产精品| 少妇人妻一区二区三区视频| 精品人妻熟女av久视频| 久久精品91蜜桃| 我要搜黄色片| 免费一级毛片在线播放高清视频| 高清日韩中文字幕在线| 免费看av在线观看网站| 亚洲电影在线观看av| 午夜亚洲福利在线播放| 久久久久久久久中文| 亚洲美女视频黄频| 欧美3d第一页| 色哟哟哟哟哟哟| 两个人视频免费观看高清| 国内精品久久久久精免费| 18禁黄网站禁片免费观看直播| 久久久色成人| 国产黄片美女视频| or卡值多少钱| 国产成人a区在线观看| 精华霜和精华液先用哪个| 1024手机看黄色片| 国产亚洲精品久久久久久毛片| 一级毛片久久久久久久久女| 小蜜桃在线观看免费完整版高清| 波多野结衣高清作品| 如何舔出高潮| 欧美日本亚洲视频在线播放| 亚洲四区av| 亚洲欧美日韩东京热| 国产亚洲91精品色在线| av黄色大香蕉| 亚洲欧洲国产日韩| 久久精品国产99精品国产亚洲性色| 日本黄大片高清| 欧美激情在线99| 中文字幕av在线有码专区| 99久久精品热视频| 亚洲av不卡在线观看| 男女啪啪激烈高潮av片| 一本久久精品| 人人妻人人澡人人爽人人夜夜 | 亚洲成人精品中文字幕电影| 99在线视频只有这里精品首页| 99久久九九国产精品国产免费| 欧美一区二区国产精品久久精品| 99热这里只有是精品50| 菩萨蛮人人尽说江南好唐韦庄 | 精品久久久久久成人av| 又粗又爽又猛毛片免费看| 最近手机中文字幕大全| 久久久久久久久久久免费av| 亚洲av熟女| 波多野结衣巨乳人妻| 高清日韩中文字幕在线| 亚洲图色成人| 午夜a级毛片| 色综合色国产| 在线观看一区二区三区| 六月丁香七月| 免费黄网站久久成人精品| 变态另类成人亚洲欧美熟女| 国产高清视频在线观看网站| 在线免费十八禁| 亚洲av二区三区四区| 舔av片在线| 成人美女网站在线观看视频| 美女黄网站色视频| 久久久久久久久久久丰满| 2022亚洲国产成人精品| 非洲黑人性xxxx精品又粗又长| 天堂中文最新版在线下载 | 91狼人影院| 亚洲18禁久久av| 成人亚洲精品av一区二区| 国产av在哪里看| 国产精品久久久久久精品电影小说 | 三级国产精品欧美在线观看| 亚洲欧美清纯卡通| av天堂中文字幕网| 欧美在线一区亚洲| 婷婷亚洲欧美| 亚洲aⅴ乱码一区二区在线播放| 国产精品人妻久久久久久| 波多野结衣高清作品| 国产乱人偷精品视频| 欧美日韩精品成人综合77777| 人妻系列 视频| 国产精品综合久久久久久久免费| 日韩亚洲欧美综合| 色哟哟哟哟哟哟| 国产成人影院久久av| 看十八女毛片水多多多| 91久久精品国产一区二区成人| 亚洲性久久影院| 久久久久久久午夜电影| 国产在线男女| 有码 亚洲区| 亚洲av成人精品一区久久| 日韩欧美一区二区三区在线观看| 成熟少妇高潮喷水视频| 精品一区二区三区人妻视频| 狠狠狠狠99中文字幕| 亚洲欧美成人精品一区二区| 日日撸夜夜添| 麻豆精品久久久久久蜜桃| 国内少妇人妻偷人精品xxx网站| 高清毛片免费观看视频网站| 欧美日韩一区二区视频在线观看视频在线 | 欧美另类亚洲清纯唯美| 精品久久久久久久久亚洲| 日本撒尿小便嘘嘘汇集6| 男女啪啪激烈高潮av片| 可以在线观看的亚洲视频| 麻豆久久精品国产亚洲av| 亚洲精品久久国产高清桃花| 国产老妇女一区| 少妇猛男粗大的猛烈进出视频 | 国产亚洲精品久久久com| 欧美最新免费一区二区三区| 欧美成人a在线观看| 大香蕉久久网| 91在线精品国自产拍蜜月| 亚洲,欧美,日韩| a级毛片a级免费在线| 欧美最黄视频在线播放免费| 精品久久国产蜜桃| 欧美变态另类bdsm刘玥| 国产一区二区三区在线臀色熟女| 亚洲精华国产精华液的使用体验 | 成人高潮视频无遮挡免费网站| 成人漫画全彩无遮挡| 免费av观看视频| 亚洲无线在线观看| 99热精品在线国产| 国产精品三级大全| 国产午夜精品一二区理论片| 乱人视频在线观看| 搞女人的毛片| 最近中文字幕高清免费大全6| 国产伦一二天堂av在线观看| 一个人免费在线观看电影| 91狼人影院| 欧美性感艳星| 亚洲最大成人中文| 精品免费久久久久久久清纯| 大香蕉久久网| 精品久久久久久久末码| 国产精品一区二区三区四区免费观看| 免费人成视频x8x8入口观看| 国产精品.久久久| 欧美zozozo另类| 亚洲国产精品合色在线| 嫩草影院入口| 国产高清不卡午夜福利| 国产精华一区二区三区| 国产高潮美女av| 欧美色视频一区免费| 1000部很黄的大片| 久99久视频精品免费| 久久久久久九九精品二区国产| 久久久久九九精品影院| 精品一区二区三区人妻视频| 亚洲国产精品成人久久小说 | 亚洲一区高清亚洲精品| 91av网一区二区| 亚洲欧美精品综合久久99| 久久人人精品亚洲av| 又爽又黄无遮挡网站| 成人毛片60女人毛片免费| 欧美日韩乱码在线| 99久国产av精品| 熟女电影av网| 国产精品久久久久久精品电影| 91精品国产九色| 欧美日韩精品成人综合77777| 精品日产1卡2卡| 婷婷色综合大香蕉| 国产乱人偷精品视频| av免费在线看不卡| 啦啦啦韩国在线观看视频| 男女边吃奶边做爰视频| 在线播放无遮挡| 美女xxoo啪啪120秒动态图| 中国美白少妇内射xxxbb| 欧美日韩乱码在线| 国语自产精品视频在线第100页| 一区二区三区免费毛片| 亚洲欧美精品自产自拍| 熟女人妻精品中文字幕| 自拍偷自拍亚洲精品老妇| 一级av片app| 国产不卡一卡二| 国产精品永久免费网站| 国产一区亚洲一区在线观看| 国产欧美日韩精品一区二区| 国产一区二区三区在线臀色熟女| 亚洲欧美日韩东京热| 一个人观看的视频www高清免费观看| 国产白丝娇喘喷水9色精品| 欧美xxxx黑人xx丫x性爽| 全区人妻精品视频| 国产成人aa在线观看| 国产亚洲5aaaaa淫片| 男人狂女人下面高潮的视频| 国产伦精品一区二区三区视频9| 久久久久久久久久久丰满| 97超视频在线观看视频| 麻豆一二三区av精品| 听说在线观看完整版免费高清| 国产伦在线观看视频一区| 最近中文字幕高清免费大全6| 国产白丝娇喘喷水9色精品| 日韩欧美精品免费久久| 边亲边吃奶的免费视频| 夜夜夜夜夜久久久久| 婷婷色综合大香蕉| 国产又黄又爽又无遮挡在线| 97在线视频观看| 亚洲无线观看免费| av卡一久久| 亚洲第一区二区三区不卡| 国产精品久久久久久精品电影小说 | 亚洲成人精品中文字幕电影| 国产精品久久电影中文字幕| 亚州av有码| 成人午夜精彩视频在线观看| 一夜夜www| 一个人看的www免费观看视频| 男人的好看免费观看在线视频| 国内精品美女久久久久久| 美女 人体艺术 gogo| 日本与韩国留学比较| 国产精品蜜桃在线观看 | 日本免费一区二区三区高清不卡| 国产中年淑女户外野战色| 日本色播在线视频| 国产av一区在线观看免费| 亚洲av成人av| 成人永久免费在线观看视频| 18禁在线无遮挡免费观看视频| 两个人视频免费观看高清| 黄色配什么色好看| 久久国内精品自在自线图片| 久久久午夜欧美精品| 蜜桃亚洲精品一区二区三区| 色吧在线观看| 国产精品人妻久久久久久| 91在线精品国自产拍蜜月| 欧美区成人在线视频| 人妻少妇偷人精品九色| 18禁黄网站禁片免费观看直播| 99久久成人亚洲精品观看| 在线免费观看的www视频| 国产激情偷乱视频一区二区| 青青草视频在线视频观看| 色综合色国产| 久久久久网色| 亚洲自拍偷在线| 亚洲第一电影网av| 久久久久久国产a免费观看| 国产伦在线观看视频一区| 美女内射精品一级片tv| 国内精品美女久久久久久| 日韩一区二区三区影片| 九九久久精品国产亚洲av麻豆| 精品久久久噜噜| 成人漫画全彩无遮挡| h日本视频在线播放| 在现免费观看毛片| 91aial.com中文字幕在线观看| 亚洲美女搞黄在线观看| 一边亲一边摸免费视频| 亚洲,欧美,日韩| 一边摸一边抽搐一进一小说| 亚洲精品乱码久久久久久按摩| 91精品国产九色| 国产精品国产三级国产av玫瑰| 午夜免费男女啪啪视频观看| av卡一久久| 国产高潮美女av| 免费看日本二区| 美女黄网站色视频| 尾随美女入室| 99riav亚洲国产免费| 天天躁夜夜躁狠狠久久av| 国产一级毛片在线| 在线免费观看的www视频| kizo精华| 能在线免费看毛片的网站| 久久热精品热| 亚洲久久久久久中文字幕| 亚洲自偷自拍三级| 内射极品少妇av片p| 一级毛片我不卡| 亚洲精品日韩在线中文字幕 | 精品久久久久久久久av| www.av在线官网国产| 日韩亚洲欧美综合| 成人三级黄色视频| 乱码一卡2卡4卡精品| 亚洲内射少妇av| 一个人看视频在线观看www免费| 最近手机中文字幕大全| 国产精品福利在线免费观看| 久久人妻av系列| 黄色视频,在线免费观看| 一级黄色大片毛片| 久久久久性生活片| 日韩欧美一区二区三区在线观看| 国产成人午夜福利电影在线观看| 久久午夜福利片| 日韩精品青青久久久久久| 久久精品国产亚洲av天美| 久久久久久久午夜电影| 亚洲经典国产精华液单| 国产麻豆成人av免费视频| 亚洲欧美成人综合另类久久久 | 神马国产精品三级电影在线观看| 亚洲国产精品国产精品| 我要看日韩黄色一级片| 国产精品久久久久久久电影| 欧美3d第一页| 亚洲国产欧洲综合997久久,| 少妇熟女aⅴ在线视频| 国产片特级美女逼逼视频| 欧美日韩精品成人综合77777| 成人综合一区亚洲| 两个人视频免费观看高清| 99久久久亚洲精品蜜臀av| 国产一级毛片在线| 99在线人妻在线中文字幕| 亚洲欧美日韩东京热| 精品一区二区三区视频在线| 男女下面进入的视频免费午夜| av专区在线播放| 毛片一级片免费看久久久久| 此物有八面人人有两片| 国产乱人偷精品视频| 最近视频中文字幕2019在线8| 99视频精品全部免费 在线| 亚洲成a人片在线一区二区| 在线免费观看的www视频| 精品少妇黑人巨大在线播放 | 99久久精品一区二区三区| 夜夜爽天天搞| 神马国产精品三级电影在线观看| 乱码一卡2卡4卡精品| 亚洲av一区综合| 麻豆久久精品国产亚洲av| 精品99又大又爽又粗少妇毛片| 久久久久久久午夜电影| 精品不卡国产一区二区三区| 欧美丝袜亚洲另类| 99久久中文字幕三级久久日本| 日日摸夜夜添夜夜添av毛片| 久久九九热精品免费| eeuss影院久久| 美女被艹到高潮喷水动态| 少妇猛男粗大的猛烈进出视频 | 欧美高清性xxxxhd video| 91久久精品国产一区二区三区| 插逼视频在线观看| 干丝袜人妻中文字幕| 国产男人的电影天堂91| 成年版毛片免费区| 人妻系列 视频| 五月玫瑰六月丁香| 国内精品一区二区在线观看| 99久国产av精品国产电影| 精品久久久久久久久亚洲| 国产在线男女| 最近手机中文字幕大全| 3wmmmm亚洲av在线观看| 看黄色毛片网站| 午夜福利视频1000在线观看| 国产 一区精品| a级一级毛片免费在线观看| 在线观看午夜福利视频| 亚洲欧美日韩无卡精品| 久久这里有精品视频免费| 美女内射精品一级片tv| 村上凉子中文字幕在线| 国产精品电影一区二区三区| 18禁在线无遮挡免费观看视频| 中文欧美无线码| 成人综合一区亚洲| 18禁在线无遮挡免费观看视频| 国产午夜精品久久久久久一区二区三区| 嘟嘟电影网在线观看| 国产精品日韩av在线免费观看| 黄色日韩在线| 婷婷色av中文字幕| 国产精品三级大全| 中文亚洲av片在线观看爽| 女的被弄到高潮叫床怎么办| 97在线视频观看| 日本黄色视频三级网站网址| 一卡2卡三卡四卡精品乱码亚洲| 中文字幕熟女人妻在线| 三级国产精品欧美在线观看| 国产精品永久免费网站| 一夜夜www| 欧美又色又爽又黄视频|