• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    高分辨率遙感影像場(chǎng)景的多尺度神經(jīng)網(wǎng)絡(luò)分類(lèi)法

    2018-06-05 01:14:08劉袁緣郭明強(qiáng)羅忠文
    測(cè)繪學(xué)報(bào) 2018年5期
    關(guān)鍵詞:特征向量準(zhǔn)確率卷積

    鄭 卓,方 芳,劉袁緣,龔 希,郭明強(qiáng),羅忠文

    1. 中國(guó)地質(zhì)大學(xué)(武漢)信息工程學(xué)院,湖北 武漢 430074; 2. 武漢大學(xué)測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,湖北 武漢 430079

    隨著IKONOS、QuickBird等高分遙感衛(wèi)星的發(fā)射,高分辨率遙感影像比中、低分辨率的影像所包含的信息更加豐富。由于遙感影像場(chǎng)景中地物目標(biāo)具有多樣可變性、分布復(fù)雜性等特點(diǎn),如何有效地對(duì)高分辨率遙感影像場(chǎng)景進(jìn)行識(shí)別和語(yǔ)義提取成為了極具挑戰(zhàn)的課題,已引起遙感學(xué)術(shù)界的廣泛關(guān)注[1]。

    為了解決遙感影像場(chǎng)景自動(dòng)識(shí)別的問(wèn)題,學(xué)者們先后提出了多種分類(lèi)辦法。文獻(xiàn)[2]利用貝葉斯網(wǎng)絡(luò)集成顏色特征、小波紋理特征和先驗(yàn)語(yǔ)義特征對(duì)室內(nèi)、外場(chǎng)景影像進(jìn)行分類(lèi)。文獻(xiàn)[3]利用金字塔表達(dá)方法提取底層特征,并利用SVM(support vector machine)和KNN(k-nearest neighbor)完成場(chǎng)分類(lèi)。文獻(xiàn)[4]提出一種基于詞袋的影像表達(dá)方法SPMK(spatial pyramid matching kernel),在UC Merced(UCM)數(shù)據(jù)集上取得準(zhǔn)確率為74%的識(shí)別結(jié)果。文獻(xiàn)[5]使用視覺(jué)詞典,結(jié)合BoVW(bag of visual words),提出了一種空間共線核方法SPCK++,相比BoVW和SPMK精度更高,取得77.38%的準(zhǔn)確率。文獻(xiàn)[6]將概率主題模型LDA(latent dirichlet allocation)用于場(chǎng)景分類(lèi),提出了P-LDA和F-LDA,提高了LDA的分類(lèi)精度。這些傳統(tǒng)分類(lèi)方法的關(guān)鍵在于分類(lèi)器和人工特征提取。然而,在遙感場(chǎng)景影像中,復(fù)雜背景和尺度變化使得人工特征提取本身就是一個(gè)難點(diǎn)問(wèn)題。

    近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)CNN(convolutional neural network)作為深度學(xué)習(xí)的一個(gè)模型,在大規(guī)模圖像分類(lèi)和識(shí)別中已經(jīng)取得了巨大成功[7]。CNN通過(guò)卷積層在大規(guī)模訓(xùn)練集中提取圖像的中層特征,并通過(guò)反向傳播算法[8]在全連接層中自動(dòng)學(xué)習(xí)圖像的高層特征表達(dá),最后采用Softmax函數(shù)對(duì)目標(biāo)分類(lèi)。因此相比傳統(tǒng)機(jī)器學(xué)習(xí)方法,CNN具有權(quán)值共享,模型參數(shù)少,自動(dòng)高層特征表達(dá)和易于訓(xùn)練的優(yōu)點(diǎn),已經(jīng)開(kāi)始應(yīng)用于高分辨率遙感影像識(shí)別領(lǐng)域[9-11]。文獻(xiàn)[9]利用顯著性采樣提取影像顯著信息塊,再利用卷積神經(jīng)網(wǎng)絡(luò)提取高層特征,最后使用SVM進(jìn)行場(chǎng)景分類(lèi)。文獻(xiàn)[11],利用CaffeNet,在UCM遙感數(shù)據(jù)集上獲得了85.71%識(shí)別準(zhǔn)確率。文獻(xiàn)[11]等討論了在數(shù)據(jù)增強(qiáng)的基礎(chǔ)上,CNN提取特征后直接分類(lèi)的結(jié)果和在獲得特征后做簡(jiǎn)單融合后的結(jié)果,識(shí)別準(zhǔn)確率分別為90.13%和93.05%。

    可見(jiàn),遙感影像場(chǎng)景分類(lèi)發(fā)展迅速,由人工提取圖像底、中層特征,再到利用深度學(xué)習(xí)自動(dòng)獲取高層特征,已經(jīng)取得了不錯(cuò)的分類(lèi)結(jié)果。但是還存在一些難點(diǎn)和問(wèn)題。一方面,人工提取特征只能解釋一定信息量的數(shù)據(jù),且受到環(huán)境、光照、遮擋等影響,對(duì)于信息量日益豐富的遙感影像數(shù)據(jù)的穩(wěn)健性不高;另一方面,基于CNN的遙感影像場(chǎng)景分類(lèi)研究中,良好的分類(lèi)精度往往是依賴于大量的訓(xùn)練數(shù)據(jù),而在小數(shù)據(jù)集上容易出現(xiàn)過(guò)擬合問(wèn)題[12]。

    為了解決CNN在有限數(shù)據(jù)集上的訓(xùn)練問(wèn)題,增強(qiáng)高分遙感影像小數(shù)據(jù)集上的高層特征表達(dá),本文提出基于JMCNN的高分遙感場(chǎng)景分類(lèi)方法,如圖1所示。每一個(gè)輸入的遙感影像被提取3個(gè)尺度的隨機(jī)子區(qū)域,并傳入多通道卷積特征提取器,其提取得到的特征通過(guò)多個(gè)特征融合器進(jìn)行融合,實(shí)現(xiàn)高層特征的聯(lián)合增強(qiáng)表達(dá),最后利用Softmax分類(lèi)器對(duì)聯(lián)合增強(qiáng)的特征進(jìn)行分類(lèi)。不同于現(xiàn)有CNN模型,本文提出的端對(duì)端的多尺度聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)模型,可以用更少的訓(xùn)練集實(shí)現(xiàn)高層特征的融合增強(qiáng)表達(dá);其次3個(gè)尺度和通道的多輸入模型,有效地解決了不同分辨率下的復(fù)雜圖像分類(lèi),增強(qiáng)了模型的抗差性;第三,通過(guò)建立多個(gè)特征融合器對(duì)多通道多尺度特征融合,可實(shí)現(xiàn)高層特征的聯(lián)合增強(qiáng)表達(dá),提高網(wǎng)絡(luò)效率。

    1 JMCNN網(wǎng)絡(luò)結(jié)構(gòu)

    圖1 基于JMCNN的高分遙感影像場(chǎng)景分類(lèi)流程Fig.1 JMCNN framework for high resolution remote sensing image scene classification

    圖2 JMCNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 The network architecture of JMCNN

    1.1 多通道卷積特征提取

    JMCNN的多通道特征提取器是由3個(gè)單通道子卷積網(wǎng)絡(luò)構(gòu)成。每個(gè)單通道子卷積網(wǎng)絡(luò)包括3個(gè)中間層,每個(gè)中間層分別由卷積層、ReLu[14]激活函數(shù)和極大池化層構(gòu)成,如圖3所示。

    單通道子卷積網(wǎng)絡(luò)的特征提取過(guò)程如下:

    設(shè)輸入影像為X∈Rh×w×c,由寬卷積計(jì)算公式

    Yi=F?Xi+b

    (1)

    其中,h、w、c分別為影像的高、寬、顏色通道總數(shù),F(xiàn)為5×5的卷積核,i為顏色通道號(hào),b為偏置項(xiàng),?代表寬卷積運(yùn)算。由于是寬卷積運(yùn)算,輸出的特征映射Y∈Rh×w×c與X維度相同。然后,通過(guò)ReLu函數(shù)激活后和極大池化層計(jì)算特征映射Mk∈Rb×w×c,其輸出特征維度與Y相同,即為所提取的單通道卷積特征矩陣Mk,k表示不同的特征通道。

    圖3 單個(gè)子卷積通道特征提取器Fig.3 The single sub-convolutional feature extractor

    在JMCNN中,3個(gè)不同尺度的子影像分別通過(guò)3個(gè)單通道卷積子網(wǎng)絡(luò),則最終獲得3個(gè)不同尺度的卷積特征矩陣M{M1,M2,M3}。

    1.2 多尺度特征聯(lián)合

    算法:多尺度特征聯(lián)合。

    輸入:多通道特征矩陣Ft1、Ft2、Ft3,特征融合器f。

    輸出:高層增強(qiáng)聯(lián)合特征表達(dá)FIN。

    (1) 融合Ft1和Ft2,得到TMP=f(Ft1,F(xiàn)t2)。

    (2) 融合TEM和Ft3,得到FIN=f(TEM,F(xiàn)t2)。

    (3) ReturnFIN。

    圖4為單個(gè)特征融合器f的結(jié)構(gòu)圖。特征融合器f的算法過(guò)程。假設(shè)任一個(gè)融合器輸入的兩個(gè)特征矩陣為M1、M2∈Rh×w×c,首先將Mk(k=1,2)以行、列、顏色通道的順序展平為特征向量Ki∈R1×(h*w*c),其中*代表數(shù)值乘法,×代表笛卡兒積。然后將特征向量分別進(jìn)入全連接層計(jì)算并使用ReLu[13]激活

    Vi=KiW+b

    (2)

    Ti=ReLu(Vi)

    (3)

    其中Ti為1024維的特征向量;W∈R(h*w*c)×1024;b為偏置項(xiàng)。T1和T2通過(guò)“concat”變換成一個(gè)新的特征向量V3,再將此向量通過(guò)一個(gè)全連接層計(jì)算得出最終的高層增強(qiáng)特征表達(dá)。其中,“concat”定義為兩個(gè)特征向量的線性拼接,得到特征向量V3空間維度為V3∈R1×2048。最后,式(3)再對(duì)V3進(jìn)行激活,得到融合的高層特征向量P∈R1×512。

    圖4 特征融合器Fig.4 Multi-scale feature fusion

    特征融合器f的算法過(guò)程如下:

    算法:特征融合算法。

    輸入:特征矩陣M1、M2,權(quán)重矩陣W1、W2、W3,偏置向量b1、b2、b3。

    輸出:融合特征向量P。

    (1) 展平兩個(gè)特征矩陣M1、M2,得到Ki=reshape(Mk),(k=1,2)。

    (2) 全連接層得到Vi=KiWi+bi。

    (3) 激活得到Ti=ReLu(Vi)。

    (4) 融合特征向量T1和T2,得到V3=concat(T1,T2)。

    (5) 計(jì)算全連接層計(jì)并ReLu激活,得到最終的特征向量P=ReLu(V3W3+b3)。

    (6) ReturnP。

    此外,為了防止過(guò)擬合問(wèn)題,JMCNN采用一種概率線性融合方式對(duì)兩個(gè)特征進(jìn)行融合。即在訓(xùn)練過(guò)程中每個(gè)全連接層后連接了一個(gè)dropout[16]層,即每次隨機(jī)保留一部分神經(jīng)元參與訓(xùn)練。

    1.3 Softmax分類(lèi)器及損失函數(shù)

    JMCNN模型采用Softmax分類(lèi)器,因此本小節(jié)主要闡述模型的損失函數(shù)。JMCNN的損失函數(shù)為交叉熵?fù)p失與正則化項(xiàng)之和,即在經(jīng)驗(yàn)風(fēng)險(xiǎn)上加上表示模型復(fù)雜度的結(jié)構(gòu)風(fēng)險(xiǎn)。

    設(shè)Softmax函數(shù)輸出的向量為Y∈R1×n,Y=(y1,y2,…,yn),式中n為樣本類(lèi)別數(shù);yi表示向量中第i個(gè)元素的實(shí)數(shù)值。

    損失函數(shù)可表示為

    (4)

    其中,式(4)中前一項(xiàng)是交叉熵?fù)p失函數(shù),后一項(xiàng)是權(quán)值的L2正則項(xiàng);λ為正則項(xiàng)系數(shù),其由各權(quán)值的衰減系數(shù)乘積決定。式(4)引入了正則項(xiàng)的損失函數(shù),其作為損失函數(shù)的一個(gè)懲罰項(xiàng),平衡經(jīng)驗(yàn)風(fēng)險(xiǎn)與模型復(fù)雜度,能有效防止過(guò)擬合現(xiàn)象。

    2 基于JMCNN的高分遙感影像場(chǎng)景分類(lèi)

    本節(jié)主要描述了基于JMCNN的高分遙感影像場(chǎng)景分類(lèi)過(guò)程。

    2.1 遙感影像數(shù)據(jù)預(yù)處理

    2.2 遙感影像場(chǎng)景分類(lèi)

    2.2.1 多通道卷積特征提取

    JMCNN由3個(gè)通道的卷積特征提取器組成,每個(gè)特征提取器由3個(gè)卷積層、ReLu激活函數(shù)和池化層構(gòu)成,每個(gè)卷積層的卷積圖個(gè)數(shù)為64。卷積層的卷積核的大小均為5×5,步長(zhǎng)為1,權(quán)重衰弱系數(shù)為0,即卷積層的權(quán)值的L2范數(shù)不加入正則項(xiàng)。池化層的卷積核的大小均為3×3,步長(zhǎng)為2。其中卷積層、池化層中的卷積運(yùn)算均采用寬卷積運(yùn)算。

    2.2.2 多尺度特征聯(lián)合

    多尺度特征聯(lián)合過(guò)程由兩個(gè)特征融合器構(gòu)成。特征融合器中的全連接層的權(quán)值衰減系數(shù)均設(shè)置為0.004,即全連接層的權(quán)值的L2范數(shù)均加入正則項(xiàng)。圖5描述了多尺度特征聯(lián)合中的特征向量融合過(guò)程。

    圖5 多尺度特征向量融合過(guò)程Fig.5 Joint multi-scale feature vectors

    如圖5所示,第一個(gè)特征融合器的輸入?yún)?shù)是兩個(gè)不同尺度影像中根據(jù)特征矩陣的稀疏程度提取的特征向量,維度為1024?!癱oncat”后維度為2048,再通過(guò)全連接層線性融合后得到特征向量,其輸出維度為512。

    第二個(gè)特征融合器的輸入?yún)?shù)分別為卷積特征通道所提取的特征向量(維度為1024)和由第一個(gè)特征融合器融合的512維特征向量,通過(guò)“concat”,輸出特征向量維度為1536。接著進(jìn)入全連接層線性融合后得到的特征向量的輸出維度為512。

    每個(gè)特征融合器后面加入一個(gè)dropout層,從而在訓(xùn)練過(guò)程中可降低全連接層的復(fù)雜度,防止融合得到的特征產(chǎn)生過(guò)擬合現(xiàn)象。dropout層會(huì)使得全連接層中的每個(gè)神經(jīng)元以一定的概率“失活”,使得模型復(fù)雜度降低,計(jì)算量減少,模型收斂更快和泛化增強(qiáng)。參考GoogleNet[15],將第一個(gè)特征融合器的保留概率設(shè)置為0.6,第二個(gè)則設(shè)置為0.7。

    2.2.3 基于Softmax的高層聯(lián)合特征分類(lèi)

    Softmax分類(lèi)器用于對(duì)圖7聯(lián)合提取的512維的高層增強(qiáng)特征向量進(jìn)行分類(lèi),獲得最終的影像場(chǎng)景類(lèi)別。

    假設(shè),輸出一個(gè)維數(shù)與場(chǎng)景類(lèi)別數(shù)n相同的一個(gè)向量Y={Yi},其中Yi(i=1,2,…,n)為該場(chǎng)景影像屬于類(lèi)別i的概率。Softmax采用Yi最大概率判別該場(chǎng)別影像的類(lèi)別i,如圖6所示。

    圖6 Softmax分類(lèi)Fig.6 Classification using Softmax

    3 基于JMCNN的場(chǎng)景分類(lèi)試驗(yàn)和分析

    為了有效地評(píng)估JMCNN模型在高分遙感影像場(chǎng)景分類(lèi),JMCNN在UCM和SIRI[17-19]兩個(gè)高分遙感影像數(shù)據(jù)集上分別進(jìn)行了試驗(yàn)和分析,并與最新方法進(jìn)行對(duì)比。試驗(yàn)均采用5-折交叉驗(yàn)證,試驗(yàn)結(jié)果表明JMCNN可以在小數(shù)據(jù)集上實(shí)現(xiàn)較好的分類(lèi)結(jié)果。

    3.1 試驗(yàn)設(shè)置

    試驗(yàn)環(huán)境:試驗(yàn)均在載有兩塊NVIDA GeForce GTX1080的顯卡、Inter?coreTMi7-6700K CPU@4.00 GHz、RAM:32.0 GB的工作站上進(jìn)行。本文的JMCNN與所使用的CNN模型均利用試驗(yàn)框架為T(mén)ensorFlow[20]實(shí)現(xiàn)。

    數(shù)據(jù)集:試驗(yàn)所采用的數(shù)據(jù)集為UCM和SIRI高分遙感數(shù)據(jù)集。UCM數(shù)據(jù)集所包含的影像尺寸為256×256,顏色通道為RGB,空間分辨率為0.3 m。該數(shù)據(jù)集影像總計(jì)為2100張,含21個(gè)場(chǎng)景類(lèi)別,每類(lèi)100張。類(lèi)別包括(a)農(nóng)田(b)機(jī)場(chǎng)(c)棒球場(chǎng)(d)沙灘(e)建筑(f)叢林(g)密集住宅區(qū)(h)森林(i)公路(j)高爾夫球場(chǎng)(k)海港(l)十字路口(m)中等住宅區(qū)(n)房車(chē)公園(o)天橋(p)停車(chē)場(chǎng)(q)河流(r)飛機(jī)跑道(s)稀疏住宅區(qū)(t)儲(chǔ)油罐(u)網(wǎng)球場(chǎng),如圖7所示。

    圖7 UCM數(shù)據(jù)集圖例Fig.7 The samples of UCM dataset

    SIRI數(shù)據(jù)集為Google Earth上的影像數(shù)據(jù),主要覆蓋我國(guó)的城市及周邊區(qū)域,由文獻(xiàn)[20]的作者整理而成。影像尺寸為200×200,顏色通道為RGB,分辨率為2 m。數(shù)據(jù)集總計(jì)2400張影像,有12類(lèi),每類(lèi)200張。類(lèi)別分別為(a)農(nóng)田(b)商業(yè)區(qū)(c)港口(d)裸地(e)工業(yè)區(qū)(f)草地(g)交叉路口(h)公園(i)池塘(j)居民區(qū)(k)河流(l)水面,如圖8所示。

    試驗(yàn)驗(yàn)證方案:在試驗(yàn)中,均采用5折交叉驗(yàn)證方案,將數(shù)據(jù)集隨機(jī)劃分為5等份,每次利用其中4份作為樣本集,余下1份即為測(cè)試集,輪流5次,取分類(lèi)精度的平均值。

    3.2 UCM數(shù)據(jù)集場(chǎng)景識(shí)別試驗(yàn)

    表1描述了使用不同網(wǎng)絡(luò)結(jié)構(gòu)和特征的場(chǎng)景分類(lèi)時(shí)間和準(zhǔn)確率的比較。表1第一行中“網(wǎng)絡(luò)”、“Size”、“F”、“Acc”、“Kappa”,分別表示“網(wǎng)絡(luò)結(jié)構(gòu)”、“增強(qiáng)后數(shù)據(jù)集大小”、“單次前向計(jì)算耗時(shí)”、“識(shí)別準(zhǔn)確率”、“Kappa系數(shù)”。

    圖8 SIRI數(shù)據(jù)集圖例Fig.8 The samples of SIRI dataset

    試驗(yàn)中,CNN(6conv+2fc)代表卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為6個(gè)卷積層(卷積核5×5,步長(zhǎng)為1,卷積核數(shù)量分別為60、50、64、128、256、512)且每個(gè)卷積層后接一個(gè)池化層(卷積核3×3,步長(zhǎng)為2)和2個(gè)全連接層(輸出維度分別為1024、2048)和Softmax分類(lèi)器。每個(gè)卷積層后均接極大池化層和ReLu激活函數(shù),第一個(gè)全連接層的激活函數(shù)為ReLu。CNN(5conv+2fc)的網(wǎng)絡(luò)結(jié)構(gòu)為5個(gè)卷積層(卷積核參數(shù)設(shè)置不變,卷積核數(shù)量分別為60、50、64、256、512)。

    表1結(jié)果顯示,數(shù)據(jù)集大小同為2100張影像時(shí),JMCNN比CNN(6conv+2fc)網(wǎng)絡(luò)精度高出25.03%,該結(jié)果說(shuō)明在小數(shù)據(jù)集上利用融合后的多尺度特征的分類(lèi)精度遠(yuǎn)遠(yuǎn)高于單一尺度的特征。同時(shí),JMCNN所用的卷積核數(shù)量遠(yuǎn)小于CNN(6conv+2fc)和CNN(5conv+2fc),時(shí)間效率提高了30%,一次前向計(jì)算時(shí)間減少到145 ms。

    表1使用不同網(wǎng)絡(luò)和特征的時(shí)間和精度比較

    Tab.1Comparisonoftimeandaccuracyusingdifferentnetworksandfeatures

    同時(shí),表1還對(duì)比了數(shù)據(jù)適當(dāng)增廣36倍和240倍后的分類(lèi)效率和準(zhǔn)確率。試驗(yàn)中所用的數(shù)據(jù)增廣方法為在原影像上隨機(jī)提取出9張影像,再令這9張影像順時(shí)針旋轉(zhuǎn)0°、90°、180°、270°,從而獲得了36倍增廣數(shù)據(jù)集。240倍增廣數(shù)據(jù)是通過(guò)先保留圖像的60%、62%、64%、66%、68%、70%得到6個(gè)子影像,再在這6個(gè)子影像上隨機(jī)提取出10張影像,然后按上述方法旋轉(zhuǎn)4個(gè)角度,從而獲得6×10×4=240倍的增廣數(shù)據(jù)集。從試驗(yàn)結(jié)果可見(jiàn),數(shù)據(jù)集大小為2100×36時(shí),JMCNN相比CNN(5conv+2fc)要高出9.78%,比CNN(6conv+2fc)網(wǎng)絡(luò)要高出3.54%。而在相同網(wǎng)絡(luò)結(jié)構(gòu)之間,通過(guò)增強(qiáng)訓(xùn)練數(shù)據(jù),JMCNN精度最大提升了9%,CNN分類(lèi)精度最大提升了25.06%。數(shù)據(jù)表明,相對(duì)于傳統(tǒng)的CNN網(wǎng)絡(luò),JMCNN對(duì)大數(shù)據(jù)訓(xùn)練的依賴性更小,在小樣本訓(xùn)練的情況下可以獲得較強(qiáng)的高層特征。此外,Kappa系數(shù)的結(jié)果表明,JMCNN具有更好的分類(lèi)一致性,其泛化能力更強(qiáng)。

    圖9為JMCNN在UCM訓(xùn)練數(shù)據(jù)無(wú)增廣時(shí)的分類(lèi)精度混淆矩陣。可見(jiàn),JMCNN對(duì)大部分場(chǎng)景的分類(lèi)準(zhǔn)確率高于90%,對(duì)于極個(gè)別(13)中等住宅區(qū)(20)儲(chǔ)油罐分類(lèi)準(zhǔn)確率低于70%,相比于傳統(tǒng)CNN(6conv+2fc)的分類(lèi)結(jié)果,JMCNN在(b)機(jī)場(chǎng)(c)棒球場(chǎng)(p)停車(chē)場(chǎng)(q)河流等場(chǎng)景類(lèi)別的識(shí)別準(zhǔn)確率提升顯著,最高提升了28.72%,總體提升了25.03%,可見(jiàn)它對(duì)于尺度變化較大的場(chǎng)景類(lèi)別識(shí)別更加準(zhǔn)確。

    為了進(jìn)一步說(shuō)明JMCNN在不同數(shù)據(jù)維度下的特征表達(dá)能力,圖10描述了JMCNN和CNN在不同維度的訓(xùn)練樣本數(shù)量下的分類(lèi)準(zhǔn)確率對(duì)比結(jié)果。圖10表明,隨著數(shù)據(jù)量增加,兩種模型分類(lèi)準(zhǔn)確率均有提升,精度的變化率隨數(shù)據(jù)量的增大而減小,并逐漸收斂。CNN模型隨著數(shù)據(jù)量的增加,準(zhǔn)確率顯著提升,表明其特征質(zhì)量與訓(xùn)練樣本數(shù)據(jù)量相關(guān)程度較大,模型在數(shù)據(jù)量較小時(shí)特征表達(dá)不充分。JMCNN的識(shí)別準(zhǔn)確率隨數(shù)據(jù)量的增加變化較為平緩,通過(guò)多通道多尺度高層特征的聯(lián)合增強(qiáng),能在小樣本數(shù)據(jù)集上訓(xùn)練充分,獲得較高的準(zhǔn)確率。

    圖9 JMCNN在UCM數(shù)據(jù)集上的分類(lèi)混淆矩陣Fig.9 Confusion matrix of JMCNN on the UCM dataset

    圖10 JMCNN和CNN在不同數(shù)據(jù)量的識(shí)別準(zhǔn)確率Fig.10 The accuracies comparison on different numbers of training images using JMCNN and CNN

    表2顯示了JMCNN與其他方法的對(duì)比結(jié)果。JMCNN和CNN的樣本大小均為2100*0.8張,輸入數(shù)據(jù)為圖像本身,均為高效的端對(duì)端網(wǎng)絡(luò)模型。JMCNN的識(shí)別率高于CNN25.03%。SVM+LDA[21]和SAE[22]均將數(shù)據(jù)增廣了20倍,其識(shí)別率結(jié)果比JMCNN分別低了9.03%和6.58%。MeanStd-SIFT+LDA-H[17]通過(guò)多種人工設(shè)計(jì)特征提取融合和聚類(lèi)的方法,識(shí)別率提高到84.98%,仍低于JMCNN約5%。PSR[20]結(jié)合BOW特征和金字塔空間關(guān)系模型獲得了第二高的識(shí)別率89.0%,然而其模型訓(xùn)練復(fù)雜度高,模型難以泛化使用。RF(Random forest,RF)[23]采用隨機(jī)森林對(duì)SIFT特征進(jìn)行分類(lèi),在相同訓(xùn)練集下的識(shí)別率為69.5%。對(duì)比結(jié)果表明,JMCNN通過(guò)端對(duì)端訓(xùn)練模式,在不需要任何人工設(shè)計(jì)特征表達(dá)以及數(shù)據(jù)增廣的情況下,識(shí)別率均高于其他方法。

    表2 JMCNN與其他方法的識(shí)別率對(duì)比

    3.3 2SIRI數(shù)據(jù)集場(chǎng)景分類(lèi)試驗(yàn)

    為了更好地驗(yàn)證本文提出模型的抗差性,JMCNN在SIRI數(shù)據(jù)集(總計(jì)2400張,200*200的影像數(shù)據(jù))上進(jìn)行了試驗(yàn)分析。SIRI數(shù)據(jù)集共有12類(lèi),每類(lèi)200張。

    表3描述了本文提出的JMCNN與CNN(6conv+2fc)、6conv+2fc+SVM、SVM-LDA[21]、SPMK[4]、MeanStd-SIFI+LDA-H[16]方法的對(duì)比結(jié)果。JMCNN在無(wú)數(shù)據(jù)增廣的SIRI數(shù)據(jù)集上獲得了88.3%的分類(lèi)精度,均高于CNN和傳統(tǒng)機(jī)器學(xué)習(xí)方法。CNN(6conv+2fc)和6conv+2fc+SVM均采用6個(gè)卷積層、2個(gè)全連接層提取高層特征,然后分別用Softmax與SVM[25]分類(lèi)器進(jìn)行分類(lèi),其結(jié)果均低于JMCNN的識(shí)別率約20%。同時(shí),相比于LDA-M[21]、SPM-SIFT[4]和MeanStd-SIFI+LDA-H[15]方法的復(fù)雜特征設(shè)計(jì)和提取,JMCNN模型不需要任何人工特征設(shè)計(jì),采用端對(duì)端訓(xùn)練來(lái)統(tǒng)一優(yōu)化參數(shù),訓(xùn)練難度大大降低,特征表達(dá)能力更強(qiáng),且分類(lèi)準(zhǔn)確率更高。Kappa系數(shù)表示,JMCNN與CNN及上述傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,具有更好的分類(lèi)一致性。

    圖11為JMCNN在SIRI數(shù)據(jù)集上分類(lèi)的混淆矩陣。結(jié)果顯示,JMCNN對(duì)(a)農(nóng)田(b)商業(yè)區(qū)(e)工業(yè)區(qū)(j)居民區(qū)(k)水面等場(chǎng)景類(lèi)別的識(shí)別準(zhǔn)確率高于95%,對(duì)于極個(gè)別(f)草地的識(shí)別率低于70%,其余大部分在85%左右。可見(jiàn),該模型對(duì)于特征復(fù)雜的細(xì)粒度區(qū)域分類(lèi)結(jié)果較好,而對(duì)于背景特征單一的區(qū)域分類(lèi)結(jié)果需要進(jìn)一步提升。

    表3 不同方法的對(duì)比

    3.4 3USGS大幅影像場(chǎng)景標(biāo)注試驗(yàn)

    試驗(yàn)所用的大幅影像為USGS數(shù)據(jù)庫(kù)中美國(guó)俄亥俄州蒙哥馬利地區(qū)的影像,尺寸為10 000×9000,空間分辨率為0.6 m,如圖12(a)。在場(chǎng)景標(biāo)注試驗(yàn)中,樣本采樣自上述大幅影像,每類(lèi)樣本包含50張圖像大小為150×150的子影像,人工標(biāo)注為4類(lèi),分別為住宅(圖13(a))、耕地(圖13(b))、森林(圖13(a))、停車(chē)場(chǎng)(圖13(d))。為了評(píng)估模型精度,樣本以80%、20%的比例分別劃分為訓(xùn)練集和測(cè)試集。

    圖11 JMCNN在SIRI上的分類(lèi)混淆矩陣Fig.11 The confusion matrix of JMCNN on SIRI dataset

    在該試驗(yàn)中,使用在UCM數(shù)據(jù)集上預(yù)訓(xùn)練的JMCNN模型并將其在該場(chǎng)景影像訓(xùn)練樣本上微調(diào)。利用微調(diào)后的模型對(duì)整幅影像進(jìn)行預(yù)測(cè),如圖12(b),圖12(d)為某個(gè)預(yù)測(cè)類(lèi)別為forest的區(qū)域。

    通過(guò)觀察局部細(xì)節(jié)(圖12(c)),JMCNN在空間分布感知上具有一定優(yōu)勢(shì),能較好地將房屋分布結(jié)構(gòu)識(shí)別出。USGS的場(chǎng)景分類(lèi)準(zhǔn)確率為98.5%,圖14為場(chǎng)景分類(lèi)混淆矩陣??梢?jiàn),JMCNN在USGS大幅影像上分類(lèi)同樣具有優(yōu)勢(shì)。

    圖12 USGS大幅遙感影像樣本示例及分類(lèi)結(jié)果Fig.12 The result of classification on USGS large image

    圖13 USGS大幅遙感影像樣本示例Fig.13 Examples of USGS large image

    圖14 JMCNN在USGS上分類(lèi)的混淆矩陣Fig.14 The confusion matrix of JMCNN on USGS large image

    4 結(jié) 語(yǔ)

    本文在2400張UCM和2100張SIRI的小數(shù)據(jù)集上進(jìn)行試驗(yàn),分別獲得了89.3%和88.3%的識(shí)別準(zhǔn)確率,均高于其他分類(lèi)器的識(shí)別結(jié)果。然而,在多類(lèi)別場(chǎng)景分類(lèi)中,對(duì)于個(gè)別模糊場(chǎng)景的類(lèi)別分類(lèi)效果欠佳。未來(lái),工作將從以下3個(gè)方面進(jìn)行改進(jìn):①優(yōu)化網(wǎng)絡(luò)聯(lián)合部分,使得聯(lián)合特征更具抗差性,以提高JMCNN在模糊類(lèi)別上的分類(lèi)精度。②考慮調(diào)整多尺度特征提取器網(wǎng)絡(luò)結(jié)構(gòu),使提取出的多尺度特征更為有效。③引入1×1的卷積層用來(lái)減少參數(shù)量,進(jìn)一步提高模型效率。同時(shí)還將探索基于JMCNN在不同視角下的遙感影像地物檢測(cè)。

    參考文獻(xiàn):

    [1] CHERIYADAT A M. Unsupervised Feature Learning for Aerial Scene Classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(1): 439-451.

    [2] SERRANO N, SAVAKIS A E, LUO J B. Improved Scene Classification Using Efficient Low-Level Features and Semantic Cues[J]. Pattern Recognition, 2004, 37(9): 1773-1784.

    [3] 殷慧, 曹永鋒, 孫洪. 基于多維金字塔表達(dá)和AdaBoost的高分辨率SAR圖像城區(qū)場(chǎng)景分類(lèi)算法[J]. 自動(dòng)化學(xué)報(bào), 2010, 36(8): 1099-1106.

    YIN Hui, CAO Yongfeng, SUN Hong. Urban Scene Classification Based on Multi-dimensional Pyramid Representation and AdaBoost Using High Resolution SAR Images[J]. Acta Automatica Sinica, 2010, 36(8): 1099-1106.

    [4] LAZEBNIK S, SCHMID C, PONCE J. Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[C]∥Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York, NY: IEEE, 2006: 2169-2178.

    [5] YANG Yi, NEWSAM S. Spatial Pyramid Co-occurrence for Image Classification[C]∥IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 1465-1472.

    [6] ZHAO Bei, ZHONG Yanfei, ZHANG Liangpei. Scene Classification via Latent Dirichlet Allocation Using a Hybrid Generative/Discriminative Strategy for High Spatial Resolution Remote Sensing Imagery[J]. Remote Sensing Letters, 2013, 4(12): 1204-1213.

    [7] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[C]∥Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada: ACM, 2012: 1097-1105.

    [8] HECHT-NIELSEN R. Theory of the Backpropagation Neural Network[C]∥International Joint Conference on Neural Networks. Washington, DC: IEEE, 1989(1): 593-605.

    [9] 何小飛, 鄒崢嶸, 陶超, 等. 聯(lián)合顯著性和多層卷積神經(jīng)網(wǎng)絡(luò)的高分影像場(chǎng)景分類(lèi)[J]. 測(cè)繪學(xué)報(bào), 2016, 45(9): 1073-1080. DOI: 10.11947/j.AGCS.2016.20150612.

    HE Xiaofei, ZOU Zhengrong, TAO Chao, et al. Combined Saliency with Multi-Convolutional Neural Network for High Resolution Remote Sensing Scene Classification[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(9): 1073-1080. DOI: 10.11947/j.AGCS.2016.20150612.

    [10] CASTELLUCCIO M, POGGI G, SANSONE C, et al. Land Use Classification in Remote Sensing Images by Convolutional Neural Networks[J]. Acta Ecologica Sinica, 2015, 28(2): 627-635.

    [11] PENATTI O A B, NOGUEIRA K, SANTOS J A D. Do Deep Features Generalize from Everyday Objects to Remote Sensing and Aerial Scenes Domains?[C]∥IEEE Conference on Computer Vision and Pattern Recognition Workshops. Boston, MA: IEEE, 2015: 44-51.

    [12] 李學(xué)龍, 史建華, 董永生, 等. 場(chǎng)景圖像分類(lèi)技術(shù)綜述[J]. 中國(guó)科學(xué)(信息科學(xué)), 2015, 45(7): 827-848.

    LI Xuelong, SHI Jianhua, DONG Yongsheng, et al. A Survey on Scene Image Classification[J]. Scientia Sinica (Informationis), 2015, 45(7): 827-848.

    [13] LI Haoxiang, LIN Zhe, SHEN Xiaohui, et al. A Convolutional Neural Network Cascade for Face Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 5325-5334.

    [14] GLOROT X, BORDES A, BENGIO Y. Deep Sparse Rectifier Neural Networks[C]∥Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics. Fort Lauderdale, Florida: HAL, 2011: 315-323.

    [15] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going Deeper with Convolutions[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 1-9.

    [16] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: A Simple Way to Prevent Neural Networks from Overfitting[J]. Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

    [17] ZHAO Bei, ZHONG Yanfei, XIA Guisong, et al. Dirichlet-Derived Multiple Topic Scene Classification Model for High Spatial Resolution Remote Sensing Imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(4): 2108-2123.

    [18] ZHAO Bei, ZHONG Yanfei, ZHANG Liangpei, et al. The Fisher Kernel Coding Framework for High Spatial Resolution Scene Classification[J]. Remote Sensing, 2016, 8(2): 157.

    [19] ZHU Qiqi, ZHONG Yanfei, ZHAO Bei, et al. Bag-of-Visual-Words Scene Classifier with Local and Global Features for High Spatial Resolution Remote Sensing Imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(6): 747-751.

    [20] ABADI M, BARHAM P, CHEN Jianmin, et al. TensorFlow: A System for Large-scale Machine Learning[C]∥Proceedings of the 12th Usenix Conference on Operating Systems Design and Implementation. Berkeley, CA: USENIX Association, 2016.

    [21] ZHANG Fan, DU Bo, ZHANG Liangpei. Saliency-Guided Unsupervised Feature Learning for Scene Classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(4): 2175-2184.

    [22] LIENOU M, MAITRE H, DATCU M. Semantic Annotation of Satellite Images Using Latent Dirichlet Allocation[J]. IEEE Geoscience and Remote Sensing Letters, 2010, 7(1): 28-32.

    [23] CHEN Shizhi, TIAN YingLi. Pyramid of Spatial Relations for Scene-level Land Use Classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(4): 1947-1957.

    [24] BREIMAN L. Random Forests[J]. Machine Learning, 2001, 45(1): 5-32.

    [25] ADANKON M M, CHERIET M. Support Vector Machine[J]. Computer Science, 2002, 1(4): 1-28.

    猜你喜歡
    特征向量準(zhǔn)確率卷積
    二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
    克羅內(nèi)克積的特征向量
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
    一類(lèi)特殊矩陣特征向量的求法
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    18+在线观看网站| 美女cb高潮喷水在线观看| 精品国内亚洲2022精品成人| 免费观看的影片在线观看| 激情 狠狠 欧美| 综合色丁香网| 久久精品国产亚洲av天美| 欧美日韩一区二区视频在线观看视频在线 | 亚洲va在线va天堂va国产| av天堂在线播放| 老熟妇乱子伦视频在线观看| 久久久久久久久久久丰满| 国产精华一区二区三区| 亚洲精品粉嫩美女一区| 免费一级毛片在线播放高清视频| 久久国内精品自在自线图片| 精品国产三级普通话版| 成人午夜精彩视频在线观看| 国产成年人精品一区二区| 免费av观看视频| 美女高潮的动态| 精品久久国产蜜桃| 中文字幕av成人在线电影| 欧美成人精品欧美一级黄| 狂野欧美激情性xxxx在线观看| 色哟哟哟哟哟哟| 波多野结衣巨乳人妻| 免费看av在线观看网站| 亚洲国产欧美人成| 国产精品综合久久久久久久免费| 国产片特级美女逼逼视频| 亚洲成人精品中文字幕电影| 亚洲欧美日韩东京热| 国产淫片久久久久久久久| 少妇的逼好多水| 九草在线视频观看| 久久久久性生活片| av卡一久久| 久久这里只有精品中国| 中文在线观看免费www的网站| 午夜老司机福利剧场| 国产一区二区亚洲精品在线观看| 久久人人精品亚洲av| 你懂的网址亚洲精品在线观看 | av免费在线看不卡| 99热这里只有是精品50| 最近2019中文字幕mv第一页| 午夜亚洲福利在线播放| av免费观看日本| 久久久久国产网址| 亚洲人成网站在线播| 99久国产av精品国产电影| 国产精华一区二区三区| 欧美成人一区二区免费高清观看| 午夜福利在线观看吧| 乱人视频在线观看| 国产精品久久久久久精品电影| 一区福利在线观看| 国产三级中文精品| 人人妻人人澡人人爽人人夜夜 | 成人美女网站在线观看视频| 亚洲va在线va天堂va国产| 舔av片在线| 精品人妻视频免费看| 天堂中文最新版在线下载 | 不卡一级毛片| 又黄又爽又刺激的免费视频.| 男人的好看免费观看在线视频| 久久久久久久久久黄片| 欧美区成人在线视频| 久久久a久久爽久久v久久| 国内精品宾馆在线| 国产精品一及| 全区人妻精品视频| 99热这里只有是精品在线观看| 欧美一区二区亚洲| 国产一区二区三区av在线 | 日本-黄色视频高清免费观看| 国产亚洲av片在线观看秒播厂 | 国产极品精品免费视频能看的| 观看免费一级毛片| 欧美xxxx黑人xx丫x性爽| 日本黄大片高清| 成年av动漫网址| 亚洲精品久久久久久婷婷小说 | 99久久精品热视频| .国产精品久久| 99热这里只有是精品50| 熟女人妻精品中文字幕| 嫩草影院精品99| 婷婷色综合大香蕉| 变态另类成人亚洲欧美熟女| 欧美高清性xxxxhd video| 性插视频无遮挡在线免费观看| 亚洲av男天堂| 麻豆成人av视频| 亚洲国产精品国产精品| 国产老妇伦熟女老妇高清| 久久久精品94久久精品| 国产午夜精品久久久久久一区二区三区| 国产在线男女| 欧美xxxx性猛交bbbb| 两个人视频免费观看高清| 热99在线观看视频| 亚洲成人av在线免费| 亚洲av成人精品一区久久| 国产美女午夜福利| 听说在线观看完整版免费高清| 精品久久久久久久久亚洲| 国产亚洲精品久久久久久毛片| 一级毛片aaaaaa免费看小| 色视频www国产| avwww免费| 全区人妻精品视频| 免费一级毛片在线播放高清视频| 在线免费十八禁| 亚洲国产欧美人成| 少妇人妻一区二区三区视频| 伦理电影大哥的女人| 免费黄网站久久成人精品| 免费观看的影片在线观看| 日韩强制内射视频| av在线蜜桃| 亚洲欧美日韩高清在线视频| 男插女下体视频免费在线播放| 亚州av有码| 又粗又爽又猛毛片免费看| 精品少妇黑人巨大在线播放 | 久久草成人影院| 性插视频无遮挡在线免费观看| av免费在线看不卡| 99视频精品全部免费 在线| 国产精品综合久久久久久久免费| a级一级毛片免费在线观看| 男女视频在线观看网站免费| 亚洲精品色激情综合| 日韩制服骚丝袜av| 国产精品久久久久久久电影| 精品国内亚洲2022精品成人| 精品久久久久久成人av| 国产久久久一区二区三区| 男人狂女人下面高潮的视频| 日韩一区二区三区影片| 国产片特级美女逼逼视频| 亚洲欧美清纯卡通| 午夜福利在线观看吧| 99久久无色码亚洲精品果冻| 日本免费a在线| a级毛片a级免费在线| 国产精品一区二区三区四区久久| 色综合亚洲欧美另类图片| 午夜a级毛片| 欧美bdsm另类| 亚洲精品日韩在线中文字幕 | 夜夜爽天天搞| 国产黄色小视频在线观看| 激情 狠狠 欧美| 久久久久久大精品| 97在线视频观看| 哪里可以看免费的av片| 久久中文看片网| 美女黄网站色视频| 精品人妻视频免费看| 欧美日韩在线观看h| 在线天堂最新版资源| 99久久九九国产精品国产免费| 成人高潮视频无遮挡免费网站| 亚洲,欧美,日韩| 91精品一卡2卡3卡4卡| 免费av观看视频| 久久久久久久久中文| 少妇的逼水好多| 亚洲av中文字字幕乱码综合| 久久久久久久久久成人| 少妇的逼水好多| 久久亚洲国产成人精品v| 国产精品1区2区在线观看.| 国产精品一区二区在线观看99 | 国内揄拍国产精品人妻在线| 婷婷六月久久综合丁香| 日韩欧美三级三区| 久久亚洲精品不卡| 男的添女的下面高潮视频| 成年女人看的毛片在线观看| 三级经典国产精品| 国语自产精品视频在线第100页| 看片在线看免费视频| 99热精品在线国产| 观看免费一级毛片| 黄色欧美视频在线观看| 观看免费一级毛片| 精品久久久久久久久久久久久| 欧美成人免费av一区二区三区| 校园春色视频在线观看| 国产v大片淫在线免费观看| 欧美色欧美亚洲另类二区| 国产老妇伦熟女老妇高清| 欧美色视频一区免费| 一区二区三区四区激情视频 | 一级毛片aaaaaa免费看小| 久久这里有精品视频免费| 看片在线看免费视频| 国产又黄又爽又无遮挡在线| 99久久人妻综合| 99久久成人亚洲精品观看| 亚洲精品乱码久久久v下载方式| 亚洲人与动物交配视频| 午夜福利视频1000在线观看| 欧美色视频一区免费| 1024手机看黄色片| 久久久久网色| 在现免费观看毛片| 亚洲欧美中文字幕日韩二区| 好男人在线观看高清免费视频| 日本一二三区视频观看| 亚洲精品久久国产高清桃花| 美女cb高潮喷水在线观看| 久久九九热精品免费| 最近手机中文字幕大全| 18禁裸乳无遮挡免费网站照片| 日本免费a在线| 两个人视频免费观看高清| 搡老妇女老女人老熟妇| 欧美一区二区亚洲| 99国产精品一区二区蜜桃av| 插阴视频在线观看视频| 天美传媒精品一区二区| 69人妻影院| 日本av手机在线免费观看| 亚洲aⅴ乱码一区二区在线播放| 岛国在线免费视频观看| 欧美在线一区亚洲| 日日摸夜夜添夜夜爱| 成人无遮挡网站| 成人无遮挡网站| 国产精华一区二区三区| 精品久久久久久久末码| 在现免费观看毛片| 简卡轻食公司| 久久精品国产亚洲网站| 中文字幕精品亚洲无线码一区| 久久精品国产99精品国产亚洲性色| 欧美丝袜亚洲另类| 简卡轻食公司| 能在线免费观看的黄片| 啦啦啦啦在线视频资源| 国产v大片淫在线免费观看| 国产精品永久免费网站| 尤物成人国产欧美一区二区三区| 亚洲最大成人中文| 人妻夜夜爽99麻豆av| 村上凉子中文字幕在线| 26uuu在线亚洲综合色| 九色成人免费人妻av| 97在线视频观看| 日韩av在线大香蕉| 久99久视频精品免费| 成人二区视频| 男女那种视频在线观看| 夫妻性生交免费视频一级片| 国产三级中文精品| 国产精品国产三级国产av玫瑰| 免费搜索国产男女视频| 亚洲人与动物交配视频| 国产精品久久电影中文字幕| 黄色欧美视频在线观看| 两性午夜刺激爽爽歪歪视频在线观看| 全区人妻精品视频| 黄片无遮挡物在线观看| 亚洲精品日韩av片在线观看| 我要搜黄色片| 麻豆乱淫一区二区| 国产乱人偷精品视频| 免费人成在线观看视频色| 亚洲人成网站在线观看播放| 波野结衣二区三区在线| 此物有八面人人有两片| 丰满的人妻完整版| 毛片一级片免费看久久久久| 亚洲精品456在线播放app| 九草在线视频观看| 欧美日韩在线观看h| 欧美性猛交黑人性爽| 午夜免费激情av| 久久久精品大字幕| 看免费成人av毛片| 国产女主播在线喷水免费视频网站 | 在线a可以看的网站| avwww免费| 日本一二三区视频观看| 波多野结衣巨乳人妻| 国语自产精品视频在线第100页| 欧美又色又爽又黄视频| 国国产精品蜜臀av免费| 性插视频无遮挡在线免费观看| 晚上一个人看的免费电影| 亚洲国产日韩欧美精品在线观看| 国产精品福利在线免费观看| 免费大片18禁| 51国产日韩欧美| 中国美白少妇内射xxxbb| 啦啦啦观看免费观看视频高清| 免费观看在线日韩| 亚洲国产欧美人成| 国产淫片久久久久久久久| 看黄色毛片网站| 亚洲一区二区三区色噜噜| 精华霜和精华液先用哪个| 我要搜黄色片| 久久草成人影院| 国产精品麻豆人妻色哟哟久久 | 少妇的逼好多水| 一区二区三区免费毛片| 成年免费大片在线观看| 可以在线观看毛片的网站| 全区人妻精品视频| 26uuu在线亚洲综合色| av在线天堂中文字幕| 国产淫片久久久久久久久| 午夜久久久久精精品| 网址你懂的国产日韩在线| 精品人妻视频免费看| 激情 狠狠 欧美| 日韩 亚洲 欧美在线| 99久久精品一区二区三区| 2022亚洲国产成人精品| 长腿黑丝高跟| 日本一二三区视频观看| 国产在视频线在精品| 欧美+日韩+精品| 亚洲天堂国产精品一区在线| 久久久久久久久久久丰满| 联通29元200g的流量卡| 国产成人一区二区在线| 欧美潮喷喷水| 一区二区三区高清视频在线| 久久婷婷人人爽人人干人人爱| 国产男人的电影天堂91| a级毛片免费高清观看在线播放| 国产亚洲av嫩草精品影院| 99热全是精品| 亚洲不卡免费看| 如何舔出高潮| 国产高清三级在线| 人人妻人人看人人澡| 精品人妻一区二区三区麻豆| 久久鲁丝午夜福利片| 亚洲中文字幕日韩| 亚洲精品日韩在线中文字幕 | 免费大片18禁| 亚洲高清免费不卡视频| 最近2019中文字幕mv第一页| 国产日本99.免费观看| 51国产日韩欧美| 国产69精品久久久久777片| 国产精品久久电影中文字幕| 插阴视频在线观看视频| 别揉我奶头 嗯啊视频| 久久久精品大字幕| av黄色大香蕉| 丝袜喷水一区| 中文资源天堂在线| 亚洲电影在线观看av| 天天一区二区日本电影三级| 久久这里有精品视频免费| 在线国产一区二区在线| 国产高清不卡午夜福利| 色综合色国产| 亚洲人成网站在线播放欧美日韩| 日韩人妻高清精品专区| 欧美日本亚洲视频在线播放| 国产高清不卡午夜福利| 亚洲中文字幕日韩| 夫妻性生交免费视频一级片| 男女啪啪激烈高潮av片| 给我免费播放毛片高清在线观看| 人妻少妇偷人精品九色| 成人二区视频| 国产成人a区在线观看| 欧美潮喷喷水| 变态另类成人亚洲欧美熟女| av天堂在线播放| 噜噜噜噜噜久久久久久91| 国产精品久久视频播放| 在线免费十八禁| 乱系列少妇在线播放| 小蜜桃在线观看免费完整版高清| 亚洲经典国产精华液单| 午夜福利在线在线| 乱人视频在线观看| 美女内射精品一级片tv| 国产美女午夜福利| 国产v大片淫在线免费观看| 成人高潮视频无遮挡免费网站| 日本免费一区二区三区高清不卡| 国产高潮美女av| 婷婷色综合大香蕉| АⅤ资源中文在线天堂| 春色校园在线视频观看| 最近的中文字幕免费完整| 精品久久久久久久久久久久久| 在线观看免费视频日本深夜| 99国产极品粉嫩在线观看| 国产 一区精品| 日韩精品有码人妻一区| 嫩草影院入口| 国产精品一二三区在线看| 久久久久久久亚洲中文字幕| 精品一区二区三区人妻视频| 国产不卡一卡二| 国产视频首页在线观看| 日韩成人av中文字幕在线观看| 麻豆成人午夜福利视频| 女的被弄到高潮叫床怎么办| 午夜精品国产一区二区电影 | 三级国产精品欧美在线观看| 精品午夜福利在线看| 亚洲精品久久国产高清桃花| 久久人妻av系列| 麻豆一二三区av精品| 日本成人三级电影网站| 久久久久久久久久黄片| 欧美激情在线99| 免费在线观看成人毛片| 国产探花极品一区二区| 日韩一本色道免费dvd| 国内揄拍国产精品人妻在线| 狂野欧美激情性xxxx在线观看| 又爽又黄无遮挡网站| 一级毛片aaaaaa免费看小| 亚洲国产高清在线一区二区三| 99在线人妻在线中文字幕| 国模一区二区三区四区视频| 国产一级毛片在线| 亚洲av成人精品一区久久| 午夜福利高清视频| 免费不卡的大黄色大毛片视频在线观看 | 精品人妻一区二区三区麻豆| 内射极品少妇av片p| 99久久久亚洲精品蜜臀av| 爱豆传媒免费全集在线观看| 久99久视频精品免费| 国产色爽女视频免费观看| 日日摸夜夜添夜夜添av毛片| 亚洲精品成人久久久久久| or卡值多少钱| 男人和女人高潮做爰伦理| 成人国产麻豆网| 精品免费久久久久久久清纯| 国产久久久一区二区三区| 麻豆久久精品国产亚洲av| 青青草视频在线视频观看| 久久精品国产鲁丝片午夜精品| 我的老师免费观看完整版| 欧美性感艳星| 亚洲第一电影网av| 天天躁夜夜躁狠狠久久av| 91在线精品国自产拍蜜月| 久久久久久久亚洲中文字幕| 99国产极品粉嫩在线观看| 国产成人a∨麻豆精品| 精品久久久噜噜| 亚洲自拍偷在线| 一本久久中文字幕| 欧美日本视频| 色综合亚洲欧美另类图片| 日韩 亚洲 欧美在线| 免费观看在线日韩| 欧美在线一区亚洲| 亚洲丝袜综合中文字幕| 少妇被粗大猛烈的视频| 免费看美女性在线毛片视频| 午夜久久久久精精品| 黄片wwwwww| 日本欧美国产在线视频| 国产午夜精品一二区理论片| 国产亚洲91精品色在线| 国产精品蜜桃在线观看 | 大型黄色视频在线免费观看| 99国产精品一区二区蜜桃av| 国内精品久久久久精免费| 永久网站在线| 欧美性猛交黑人性爽| 国产91av在线免费观看| 两个人的视频大全免费| av在线播放精品| 亚洲三级黄色毛片| 成人三级黄色视频| 久久午夜亚洲精品久久| 亚洲国产日韩欧美精品在线观看| 男女做爰动态图高潮gif福利片| 狂野欧美白嫩少妇大欣赏| 波野结衣二区三区在线| 欧美精品国产亚洲| 91av网一区二区| ponron亚洲| 欧美激情在线99| 麻豆一二三区av精品| 久久精品国产亚洲av香蕉五月| 欧美xxxx性猛交bbbb| 亚洲经典国产精华液单| 丰满乱子伦码专区| 久久精品国产鲁丝片午夜精品| 亚洲精品乱码久久久久久按摩| 亚洲精品久久国产高清桃花| 成人永久免费在线观看视频| 爱豆传媒免费全集在线观看| 国产美女午夜福利| av在线亚洲专区| 自拍偷自拍亚洲精品老妇| 狠狠狠狠99中文字幕| 晚上一个人看的免费电影| 亚洲欧美日韩东京热| 国产高清视频在线观看网站| а√天堂www在线а√下载| 啦啦啦观看免费观看视频高清| 精品人妻偷拍中文字幕| 女人十人毛片免费观看3o分钟| 婷婷色av中文字幕| 黄色一级大片看看| 国产精品三级大全| 久久久久性生活片| 国产精品不卡视频一区二区| 久久婷婷人人爽人人干人人爱| 国产成人影院久久av| 国产成人一区二区在线| 九九久久精品国产亚洲av麻豆| 午夜精品在线福利| 久久久久久久久久久免费av| 亚洲18禁久久av| 精品人妻一区二区三区麻豆| 麻豆久久精品国产亚洲av| 卡戴珊不雅视频在线播放| 日韩欧美国产在线观看| 成年女人看的毛片在线观看| 岛国在线免费视频观看| 99热这里只有精品一区| 精品国内亚洲2022精品成人| 色噜噜av男人的天堂激情| 国内精品宾馆在线| av天堂中文字幕网| 国产一区二区在线av高清观看| 级片在线观看| 午夜福利高清视频| 欧美性感艳星| 国产激情偷乱视频一区二区| 亚洲成人精品中文字幕电影| 日韩 亚洲 欧美在线| 亚洲欧美日韩东京热| 亚洲美女视频黄频| 婷婷色av中文字幕| 亚洲中文字幕一区二区三区有码在线看| av卡一久久| 亚洲人成网站在线观看播放| 长腿黑丝高跟| 晚上一个人看的免费电影| 欧美最新免费一区二区三区| 综合色丁香网| 又黄又爽又刺激的免费视频.| 亚洲av免费在线观看| 国产美女午夜福利| 日韩av不卡免费在线播放| 性插视频无遮挡在线免费观看| 亚洲人成网站在线播放欧美日韩| 一级二级三级毛片免费看| 久久久a久久爽久久v久久| 亚洲精品日韩av片在线观看| 国产成年人精品一区二区| 成人二区视频| 永久网站在线| 午夜爱爱视频在线播放| 成人亚洲欧美一区二区av| av卡一久久| 九草在线视频观看| 欧美激情在线99| 日韩在线高清观看一区二区三区| 激情 狠狠 欧美| 中出人妻视频一区二区| 哪个播放器可以免费观看大片| 国产中年淑女户外野战色| 日本五十路高清| 插阴视频在线观看视频| 熟女电影av网| 狂野欧美白嫩少妇大欣赏| 欧美又色又爽又黄视频| 国产亚洲精品久久久com| 国产一级毛片七仙女欲春2| 欧美成人a在线观看| www.av在线官网国产| 丰满人妻一区二区三区视频av| 亚洲人成网站高清观看| 久久精品国产亚洲av香蕉五月| 在线免费观看不下载黄p国产| av专区在线播放| 久久久成人免费电影| 成人美女网站在线观看视频| 色综合亚洲欧美另类图片| 久久久国产成人精品二区| 人妻夜夜爽99麻豆av| 在线免费十八禁| 久久久久免费精品人妻一区二区| 观看美女的网站| 欧美成人精品欧美一级黄| 久久欧美精品欧美久久欧美| 亚洲最大成人手机在线| 人妻夜夜爽99麻豆av| 亚洲五月天丁香| 国产精品久久久久久久电影| 欧美zozozo另类| 亚洲成人av在线免费| 一区二区三区四区激情视频 | 99热这里只有是精品50| 成人三级黄色视频| 一卡2卡三卡四卡精品乱码亚洲| 天天躁夜夜躁狠狠久久av|