• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于關(guān)鍵點特征融合的六自由度位姿估計方法

    2022-03-09 03:30:52王太勇孫浩文
    關(guān)鍵詞:位姿關(guān)鍵點深度

    王太勇,孫浩文

    基于關(guān)鍵點特征融合的六自由度位姿估計方法

    王太勇1, 2,孫浩文1

    (1. 天津大學機械工程學院,天津 300350;2. 天津仁愛學院,天津 301636)

    針對單張RGB-D圖像進行六自由度目標位姿估計難以充分利用顏色信息與深度信息的問題,提出了一種基于多種網(wǎng)絡(luò)(金字塔池化網(wǎng)絡(luò)和PointNet++網(wǎng)絡(luò)結(jié)合特征融合網(wǎng)絡(luò))構(gòu)成的深度學習網(wǎng)絡(luò)框架.方法用于估計在高度雜亂場景下一組已知對象的六自由度位姿.首先對RGB圖像進行語義識別,將每一個已知類別的對象掩膜應(yīng)用到深度圖中,按照掩膜的邊界框完成對彩色圖與深度圖進行語義分割;其次,在獲取到的點云數(shù)據(jù)中采用FPS算法獲取關(guān)鍵點,映射到彩色圖像與深度圖像中進行關(guān)鍵點特征提取,將RGB-D圖像中的顏色信息與深度信息視為異構(gòu)數(shù)據(jù),考慮關(guān)鍵點需要充分融合局部信息與全局信息,分別采用了金子塔池化網(wǎng)絡(luò)(pyramid scene parsing network,PSPNet)和PointNet++網(wǎng)絡(luò)提取顏色信息與深度信息;采用一種新型的關(guān)鍵點特征融合方法,深度融合提取到顏色信息與幾何信息的局部及全局特征,并嵌入到選定的特征點中;使用多層感知機(multilayer perceptron,MLP)輸出每一個像素點的六自由度位姿和置信度,利用每一個像素點的置信度,讓網(wǎng)絡(luò)自主選擇最優(yōu)的估計結(jié)果;最后,利用一種端到端的迭代位姿求精網(wǎng)絡(luò),進一步提高六自由度位姿估計的準確度.網(wǎng)絡(luò)在公開的數(shù)據(jù)集LineMOD和YCB-Video上進行測試,實驗結(jié)果表明和現(xiàn)有同類型的六自由度位姿估計方法相比,本文所提出的模型預(yù)測的六自由度準確度優(yōu)于現(xiàn)有的同類型方法,在采用相同的評價標準下,平均準確度分別達到了97.2%和95.1%,分別提升了2.9%和3.9%.網(wǎng)絡(luò)同時滿足實時性要求,完成每一幀圖像的六自由度位姿預(yù)測僅需0.06s.

    六自由度位姿估計;深度學習;特征融合;機器視覺

    六自由度位姿估計是指在標準坐標系下識別物體的三維位置和姿態(tài),是機器人抓取和操縱[1-3]、自主駕駛[4-5]、增強現(xiàn)實[6]等應(yīng)用中的重要組成部分.理想情況下的解決方案可以處理形狀和紋理不同的對象,并在傳感器噪聲和變化的光照條件中表現(xiàn)出魯棒性,同時達到實時性要求.

    傳統(tǒng)的方法如Papazov等[7]與Alvaro等[8]使用手工制作的特征來提取圖像和物體體素模型之間的對應(yīng)關(guān)系.這種依靠人類經(jīng)驗設(shè)計的特征在光照條件變化或嚴重遮擋的場景準確度會大幅下降,導致傳統(tǒng)的方法很難應(yīng)用到實際中.

    最近,隨著機器學習和深度學習技術(shù)的爆炸性增長,基于深度學習的方法被引入到這一任務(wù)中.Tekin等[9]與Tjaden等[10]提出直接使用深度卷積網(wǎng)絡(luò)回歸對象的旋轉(zhuǎn)和平移.然而,由于旋轉(zhuǎn)空間的非線性,這些方法通常具有較差的泛化能力.Peng等[11]提出了PVNet,通過霍夫投票得出關(guān)鍵點,并使用多點透視成像(perspective-n-point,PNP)算法計算對象的六自由度位姿,Park等[12]與Yu等[13]采用了類似的方法.雖然這兩個階段的方法表現(xiàn)更穩(wěn)定,但大多數(shù)都建立在物體的二維投影的基礎(chǔ)上.在真實的三維空間中,投影中較小的誤差會被放大,并伴隨投影重疊現(xiàn)象導致對象間難以區(qū)分.此外,剛性物體的幾何約束信息由于投影導致部分丟失.

    另一方面,隨著廉價RGB-D傳感器的發(fā)展,越來越多的RGB-D數(shù)據(jù)集被提出.借助從深度相機中獲取額外的深度信息,許多優(yōu)秀的二維空間算法被擴展到三維空間,如Xu等[14]提出了PointFusion、Qi?等[15]提出了Frustum PointNet和Chen等[16]提出了MVSNet++.傳統(tǒng)的方法如Teng等[17]直接將深度信息視作與顏色信息同構(gòu)的數(shù)據(jù),用相同的特征提取方法處理深度信息;Wang等[18]提出了DenseFusion網(wǎng)絡(luò)將深度信息利用已知的相機內(nèi)參轉(zhuǎn)換為點云數(shù)據(jù)采用PointNet模型來處理點云數(shù)據(jù)提取幾何特征,并進行像素級特征融合實現(xiàn)了高準確度的六自由度位姿估計;Deng等[6]利用自監(jiān)督學習與霍夫投票來進行六自由度位姿的預(yù)測;Chen等[19]提出一種類別級的六自由度位姿預(yù)測方法,將目標對象進行三維空間上的歸一化再進行位姿預(yù)測;Gao等[4]直接利用激光雷達獲取到的點云圖像完成六自由度位姿預(yù)測.

    盡管Wang等[18]提出了DenseFusion網(wǎng)絡(luò)在處理公開數(shù)據(jù)集中達到了良好的效果,但是在處理深度圖像時采用了PointNet[20]方法,此方法只能提取采樣點的幾何特征,局部幾何特征的欠缺,提高了預(yù)測六自由度位姿的難度.此外在生成全局特征的提取中,直接對所有采樣點進行平均池化,雖然平均池化函數(shù)作為對稱函數(shù)可以有效解決點云數(shù)據(jù)的無序性問題[20],但是沒有充分利用點云數(shù)據(jù)間的幾何關(guān)系和采樣點與二維圖像中像素點的映射關(guān)系.

    Peng等[11]提出的PVNet已經(jīng)在2D圖像中證實選取存在于物體的幾何邊界處的關(guān)鍵點對于提高預(yù)測位姿的準確度有較大的提升.本文提出了一種三維點云數(shù)據(jù)中基于關(guān)鍵點的新型網(wǎng)絡(luò)架構(gòu),在點云數(shù)據(jù)中利用最遠特征點采樣算法(farthest point sampling,F(xiàn)PS)選取關(guān)鍵點,引入金字塔池化網(wǎng)絡(luò)和PointNet++網(wǎng)絡(luò)[21]來分別處理彩色圖像和深度圖像,采用點云上采樣和平均池化函數(shù)生成全局幾何特征,對關(guān)鍵點進行像素級特征嵌入融合,提高模型的識別準確度,實現(xiàn)高準確度的六自由度位姿預(yù)測.

    1?網(wǎng)絡(luò)結(jié)構(gòu)提出

    在實際的應(yīng)用場景中,六自由度位姿估計存在著物體相互遮擋、光線不佳等挑戰(zhàn),充分利用RGB-D圖像中的顏色信息和深度信息弱化外界環(huán)境的影響是當下主流的解決方法.通過關(guān)鍵點進行六自由度位姿估計可以弱化物體之間相互遮擋的影響,但是需要充分提取關(guān)鍵點的幾何信息與顏色信息.這兩種信息處于不同的空間之中,所以從異構(gòu)數(shù)據(jù)中提取特征并進行嵌入融合是六自由度位姿估計領(lǐng)域的關(guān)鍵技術(shù)挑戰(zhàn).本文所設(shè)計的網(wǎng)絡(luò)首先通過兩種不同的方式處理顏色和深度信息來解決數(shù)據(jù)異構(gòu)的問題,之后利用顏色信息和深度信息在二維圖像中內(nèi)在的映射關(guān)系在預(yù)先選定的像素點中進行特征嵌入融合,最后通過可微迭代求精模塊對估計位姿進行求精.

    1.1?網(wǎng)絡(luò)總體結(jié)構(gòu)

    本文所提出的網(wǎng)絡(luò)總體結(jié)構(gòu)如圖1所示.網(wǎng)絡(luò)模型包括兩個階段,第1階段以彩色圖像作為輸入對每個已知類別進行語義分割,即提取出已知對象的掩膜,應(yīng)用到彩色圖像和深度圖像中生成邊界框以完成語義分割.語義分割網(wǎng)絡(luò)是一個編碼解碼結(jié)構(gòu),利用輸入的彩色圖像,生成+1個語義分割圖.每個分割圖描述個可能的已知類別中的對象.由于筆者工作的重點是設(shè)計一種六自由度估計方法,并為了保證實驗對比的公平性,筆者選取當前主流方法使用的語義分割網(wǎng)絡(luò)[22].第2階段處理分割結(jié)果并估計對象的六自由度位姿,包括5個部分:關(guān)鍵點選取過程、基于PointNet++模型的深度信息提取網(wǎng)絡(luò)、像素級特征嵌入融合網(wǎng)絡(luò)、基于無監(jiān)督置信度評分的像素級六自由度位姿的估計、位姿求精網(wǎng)絡(luò).

    圖1?六自由度位姿估計網(wǎng)絡(luò)總體結(jié)構(gòu)

    1.2?關(guān)鍵點選取

    利用待估計物體的幾何信息的關(guān)鍵點主要存在于物體的幾何邊界處這一先驗信息[11,20],在高度雜亂的場景下,相較于從圖像中隨機選取個點作為關(guān)鍵點來進行位姿估計,預(yù)先選取幾何邊界處的采用點進行特征提取可以提高幾何信息的提取效率,并且可以大幅降低需要的采樣點數(shù)量,提高算法實時性.在二維RGB圖像中,通過選取關(guān)鍵點來進行六自由度位姿的估計是常用的方法,但是剛性物體會由于投影造成幾何信息的部分丟失,并且不同的關(guān)鍵點會由于投影而重疊,導致難以區(qū)分.在三維點云數(shù)據(jù)中,關(guān)鍵點通常選擇三維邊界框的8個角點,這些點是遠離物體上的虛擬點,使得網(wǎng)絡(luò)很難聚合它們附近的顏色以及幾何信息,造成距離關(guān)鍵點越遠的點的位姿估計的誤差越大,對于六自由度位姿估計的參數(shù)計算有一定的影響.

    本文選用了最遠特征點采樣算法(farthest point sampling,F(xiàn)PS)選取關(guān)鍵點.具體來說是將物體點云的中心點作為初始點添加入算法中來進行選擇過程,每一次添加距離所選定關(guān)鍵點最遠的點至關(guān)鍵點集中,將該點作為新的初始點進行迭代,直到集合數(shù)量達到個關(guān)鍵點.通過提取這些關(guān)鍵點的特征作為六自由度位姿估計的依據(jù).LineMOD數(shù)據(jù)集中燈罩對象的關(guān)鍵點的選取如圖2所示,橙色點代表選取的關(guān)鍵點,從圖2(a)的點云關(guān)鍵點可以看出橙色點主要集中在圖像的邊緣處,圖2(b)將關(guān)鍵點投影回二維圖像,關(guān)鍵點產(chǎn)生了一定程度上的重疊.

    圖2?LineMOD數(shù)據(jù)集燈罩關(guān)鍵點

    1.3?特征提取

    1.3.1?顏色特征提取網(wǎng)絡(luò)

    顏色特征提取網(wǎng)絡(luò)的目標是提取每個像素的顏色特征,以便在三維點特征和圖像特征之間形成緊密的對應(yīng)關(guān)系.本文采用了由Zhao等[23]提出的基于深度卷積網(wǎng)絡(luò)的金字塔池化模型.該網(wǎng)絡(luò)通過挖掘顏色特征并聚合了基于不同區(qū)域的上下文信息,在場景解析領(lǐng)域取得了良好的效果.它將尺寸為××3的圖像映射到××rgb特征空間.每個像素嵌入了表示相應(yīng)位置處的輸入圖像的顏色信息的rgb維特征向量.

    1.3.2?幾何特征提取網(wǎng)絡(luò)

    通過FPS算法選定的關(guān)鍵點集中在物體的邊緣位置,為了能讓邊界點可以更好地預(yù)測六自由度,需要邊界點能夠充分地融合局部幾何信息和全局幾何信息.PointNet網(wǎng)絡(luò)只是單純地做了幾何特征維度上的擴展,之后使用池化函數(shù)得到全局幾何特征,完全丟失了點的局部幾何特征.為了避免這一情況的發(fā)生,本文使用PointNet++來代替PointNet,利用PointNet++可以提取局部幾何特征這一特性讓關(guān)鍵點具有更加豐富的幾何信息.

    首先使用已知的相機內(nèi)參將分割好的深度圖像轉(zhuǎn)換為3D點云數(shù)據(jù),之后使用類似PointNet++模型來提取幾何特征,PointNet與PointNet++提取幾何特征原理如圖3所示.從圖3(a)中可以看出,PointNet模型直接對點的三維坐標特征進行學習,而忽略了點之間的幾何關(guān)系.所以Wang等[18]使用的PointNet雖然可以提取三維坐標點的幾何特征,但是忽略了三維坐標點之間的局部幾何特征.Qi等[20]提出了PointNet++模型,從圖3(b)中可以看出,模型將稀疏的點云進行分割,在分割區(qū)域內(nèi)不斷地提取幾何特征作為局部特征,擴大局部范圍繼續(xù)學習局部特征,直到獲得全局幾何特征.

    圖3?幾何特征下采樣提取原理

    為了更加充分地利用全局幾何特征,本文改進了PointNet++模型,對提取出的點云全局特征進行了上采樣,如圖4所示.二維圖像中的上采樣技術(shù)是將學習到的全局特征上采樣到每一個像素點,讓每一個像素點都獲取到全局特征.像素點根據(jù)全局特征預(yù)測所屬類別信息,已經(jīng)在二維圖像中的圖像分割領(lǐng)域取得了巨大的成功.利用點云三維數(shù)據(jù)與彩色圖像二維數(shù)據(jù)的內(nèi)在一一對應(yīng)關(guān)系,將點云數(shù)據(jù)進行上采樣,每個選定的像素點將獲得geo維度的全局幾何特征.

    圖4?幾何特征上采樣原理

    1.4?像素級特征融合與位姿估計

    為了減小由于語義分割誤差對特征提取階段的影響,特征融合階段沒有采用直接融合顏色特征與幾何特征的全局信息方法,而是設(shè)計了像素級特征融合網(wǎng)絡(luò).其核心是先進行局部逐像素融合,再嵌入全局信息,以此增加每一關(guān)鍵點所攜帶的信息量.

    由于像素點和三維點之間的映射是唯一的,所以融合過程首先利用已知的攝像頭的內(nèi)參,基于圖像平面上的投影,將每個點的幾何特征與其對應(yīng)的像素點的顏色特征關(guān)聯(lián)并進行局部特征的融合.如圖5所示的特征融合階段,橙色方格代表的是每一個關(guān)鍵點對應(yīng)像素點的顏色特征,藍色方格代表的是每一個關(guān)鍵點的局部幾何特征,通過維度拼接的方式進行特征融合,融合后代表每一個關(guān)鍵點的局部特征.產(chǎn)生局部特征后嵌入經(jīng)過點云上采樣的全局幾何特征,并送入多層感知機進行學習,為了消除點云無序性的影響加入了平均池化函數(shù),最終得到了代表全局信息的綠色方格.通過這種方式有效地結(jié)合了提取到的所有特征,關(guān)鍵點的局部信息保證每個選取的像素點都可以做出預(yù)測,嵌入全局特征可以豐富每個像素點的特征,以提供全局上下文信息,達到了最小化遮擋和噪聲影響的目的.最后將全局信息送入多層感知機進行位姿估計.同時利用自監(jiān)督機制,讓網(wǎng)絡(luò)決定通過那個關(guān)鍵點可以得到最好的位姿預(yù)測,在輸出六自由度位姿估計的同時還輸出每個關(guān)鍵點的置信度分數(shù).

    本文的六自由度位姿估計的損失定義為真實位姿下物體模型上的關(guān)鍵點與預(yù)測姿態(tài)變換后的同一模型上對應(yīng)點之間的距離.每一個關(guān)鍵點的損失函數(shù)的公式為

    式中代表在N個關(guān)鍵點中第個關(guān)鍵點.

    式(1)只對非對稱物體有良好的效果,當估計對象是對稱物體時會有多個正確的六自由度位姿,使用式(2)來計算估計模型上每個點和真實模型上的最近點的距離.

    損失函數(shù)定義為每個關(guān)鍵點的損失綜合,本文所提出的網(wǎng)絡(luò)在輸出六自由度位姿的同時還輸出了每個關(guān)鍵點的置信度.關(guān)鍵點的置信度是根據(jù)每個關(guān)鍵點的上下文信息決定哪個位姿估計可能是最好的假設(shè),最終的損失函數(shù)定義為

    1.5?位姿求精模型

    迭代最近點(iterative closest point,ICP)算法是許多六自由度位姿估計方法使用的一種求精方法,雖然準確度很高但是效率較低,無法滿足實時性要求.

    2?實驗及數(shù)據(jù)對比

    2.1?數(shù)據(jù)集

    LineMOD數(shù)據(jù)集由Hinterstoisser等收集提出,是一個包含13個低紋理對象視頻的視頻數(shù)據(jù).數(shù)據(jù)集中有標注的真實六自由度位姿和實例的掩膜.這個數(shù)據(jù)集的主要挑戰(zhàn)是場景雜亂、存在低紋理物體和環(huán)境光照變化.它被經(jīng)典方法和基于學習的方法廣泛采用.本文沒有額外的合成數(shù)據(jù),挑選1214個關(guān)鍵幀作為訓練集,1335個關(guān)鍵幀作為測試集.

    YCB-Video數(shù)據(jù)集包含21個形狀和紋理各不相同的YCB對象.捕獲了92個對象子集的RGB-D視頻,每個視頻顯示不同室內(nèi)場景中21個對象的子集.這些視頻中包括六自由度位姿和實例語義分割產(chǎn)生的掩碼.數(shù)據(jù)集同樣具有多變的光照條件、顯著的圖像噪聲和遮擋等挑戰(zhàn).本文將數(shù)據(jù)集分割成80個視頻用于訓練,從剩余的12個視頻中挑選2949個關(guān)鍵幀用于測試.

    2.2?訓練細節(jié)

    本文對深度學習模型和測試模型都是基于pytorch1.7環(huán)境,在一個具備6Gb的GTX 1660 顯卡的計算機上完成的.顏色特征提取中下采樣部分采用的是ResNet-18,金字塔池化模型采用4層結(jié)構(gòu),每一層的上采樣前特征圖尺寸為1×1、2×2、3×3、?6×6.深度信息提取選取1024個點進行預(yù)處理,選取200個點作為關(guān)鍵點.每一個關(guān)鍵點在嵌入全局特征后包含1408維的特征向量.網(wǎng)絡(luò)的學習率為0.001,位姿迭代求精由4個全連接層組成,這些層直接輸出位姿的殘差,每一個實驗都采用了2次迭代求精.

    2.3?評價標準

    在測試集中每一次輸入一幀圖像進行六自由度位姿估計.在測試集中為了驗證位姿估計在整個物體上的準確度,每一次在整個物體上隨機采樣500個點,通過計算ADD/ADD-S曲線下的面積,即計算500個采樣點在歐氏空間下的平均距離來評估預(yù)測結(jié)果.閾值設(shè)定為0.1m,平均距離小于0.1m視為對此幀圖像六自由度位姿估計成功.通過計算所有數(shù)據(jù)集下的平均準確度對算法進行評價.

    2.4?測試結(jié)果評價分析

    2.4.1?LineMOD數(shù)據(jù)集實驗結(jié)果分析

    在基于LineMOD數(shù)據(jù)集的實驗中,將本文提出的方法與Wang等[18]DenseFusion方法在訓練過程中損失值的下降收斂情況進行對比,如圖6所示.從圖6中可以看出本文提出方法的收斂速度高于DenseFusion方法.在進行70次訓練后本文方法的平均誤差達到0.608cm,而DenseFusion的平均損失為0.708cm.在測試中,同時對比分析了輸入為RGB圖像的方法:PoseCNN方法[22]和PVNet方法[11];與輸入為RGB-D圖像的方法:SSD方法[24]和DenseFusion方法[18],這些方法都與本文采用了同樣的評價標準,測試結(jié)果如表1所示.

    在表1通過4種方法進行對比,列出了LinMOD數(shù)據(jù)集中每一個類別的ADD(S)準確率,可以看出本文提出的方法在準確率上高于現(xiàn)有的同類型方法.其中SSD方法將RGB-D圖像中的顏色圖像和深度圖像視為同構(gòu)數(shù)據(jù)采用了共享參數(shù)的多層感知機進行特征提取,從最終的位姿預(yù)測的準確度看出這種方法甚至遜于RGB圖像中的方法.本文將其視為異構(gòu)數(shù)據(jù),采用了不同方法處理兩種數(shù)據(jù),大幅提高了預(yù)測準確度.相較于傳統(tǒng)的RGB圖像的方法,本文所提出的方法也更加具有優(yōu)勢.由于本文充分利用了關(guān)鍵點之間的幾何關(guān)系,并設(shè)計了新的像素級特征融合方法,較于目前最優(yōu)秀的位姿預(yù)測方法DenseFusion,平均預(yù)測準確度提高了2.9%.對于LineMOD數(shù)據(jù)集訓練結(jié)果的可視化如圖7(a)所示,可以看出將經(jīng)過變換后的點云投影到圖片上與RGB圖像重合度?較高.

    圖6?LineMOD數(shù)據(jù)集損失值變化曲線

    表1?LineMOD數(shù)據(jù)集實驗預(yù)測準確度

    Tab.1?6-DoF estimation result of the LineMOD dataset

    圖7 LineMOD數(shù)據(jù)集與YCB-Video數(shù)據(jù)集中本文方法實驗結(jié)果效果

    2.4.2?YCB-Video數(shù)據(jù)集實驗結(jié)果分析

    在基于YCB-Video數(shù)據(jù)集的實驗中對比分析了PoseCNN方法[22]DenseFusion方法[18],兩種方法與本文采用了同樣的評價標準,測試結(jié)果如表2所示.從表2中可以看出本文所提出的方法相較于當前最優(yōu)秀的方法在ADD-S標準下提升了3.9%,在ADD(s)標準下提升了7.7%.

    表2?YCB-Video數(shù)據(jù)集實驗結(jié)果

    Tab.2?6-DoF estimation result of a YCB-Video dataset

    在YCB-Video數(shù)據(jù)集主要的挑戰(zhàn)是存在物體之間大量的遮擋,因此按照Wang等[18]提出的方法分析了在不同的遮擋條件下,遮擋對六自由度位姿估計的影響,如圖8所示.從圖8中可以看出在遮擋條件下本文所提方法明顯優(yōu)于現(xiàn)有的方法.在高遮擋下仍然擁有較高的準確度,說明本文所提出的基于關(guān)鍵點的特征融合算法在高度遮擋情況下仍然可以利用余下的關(guān)鍵點之間的幾何關(guān)系,達到較高的位姿估計準確度,再次證明了關(guān)鍵點的選取在位姿估計中的重要作用.在YCB-Video的數(shù)據(jù)集上的具體實驗效果對如圖7(b)所示.

    2.4.3?算法實時性

    由于增加了提取關(guān)鍵點局部幾何特征的PointNet++網(wǎng)絡(luò),增加了網(wǎng)絡(luò)的復(fù)雜度.為了驗證方法的實時性,本文也計算了在測試環(huán)境下對數(shù)據(jù)集中每一幀圖像進行六自由度位姿估計所需要的時間.實驗結(jié)果表明僅需要0.06s就可以完成一幀圖像的預(yù)測(16幀/s),滿足了實時性的要求.

    圖8 在YCB-Video數(shù)據(jù)集上,不同方法在遮擋程度不斷增加的情況下的性能

    2.4.4?六自由度參數(shù)誤差

    網(wǎng)絡(luò)最終輸出為平移矩陣與旋轉(zhuǎn)矩陣,為了更加直觀地表達各個六自由度的預(yù)測誤差,將旋轉(zhuǎn)矩陣轉(zhuǎn)化為歐拉角,最終結(jié)果如表3所示.其中ee、e分別代表在測試集中平移矩陣在、、方向平移分量的平均誤差.、、代表測試集中歐拉角表示下3個旋轉(zhuǎn)分量的平均誤差.從表3中可以看出網(wǎng)絡(luò)預(yù)測的平移分量的誤差較小,在歐拉角表示下的旋轉(zhuǎn)誤差由于一個旋轉(zhuǎn)矩陣是3個歐拉角共同作用的線性變換,誤差相較于平移分量偏大.

    表3?六自由度位姿參數(shù)誤差

    Tab.3?6-DoF estimation pose parameter error

    2.4.5?消融實驗

    為了驗證位姿求精環(huán)節(jié)的效果并得到進行迭代的最優(yōu)次數(shù),設(shè)計了關(guān)于位姿求精網(wǎng)絡(luò)的消融實驗.將網(wǎng)絡(luò)設(shè)定為不進行迭代求精,最終結(jié)果如表4所示.通過實驗可以看出,位姿求精環(huán)節(jié)可以提高最終的位姿預(yù)測準確率,達到了網(wǎng)絡(luò)的設(shè)計目的.通過實驗結(jié)果的對比分析,在滿足六自由度位姿估計的實時性要求下,本文最終選擇在每次預(yù)測六自由度位姿后進行兩次位姿迭代求精.

    表4?消融實驗位姿估計結(jié)果

    Tab.4?6-DoF estimation result of the ablation experiments

    3?結(jié)?論

    本文針對復(fù)雜環(huán)境下六自由度位姿估計問題,提出了基于關(guān)鍵點特征融合的六自由度位姿預(yù)測方法.網(wǎng)絡(luò)將RGB-D圖像作為輸入,相較于傳統(tǒng)的僅RGB圖像作為輸入的方法,弱化環(huán)境因素對位姿估計的影響,可以適用于光照條件不佳以及待檢測物體屬于低紋理物體等多種情況,具體可以應(yīng)用到機械臂抓取等場合.利用LineMOD數(shù)據(jù)集和YCB-Video數(shù)據(jù)集對所提出模型進行了多方面的實驗與測試,實驗結(jié)果表明:

    (1) 通過采用基于關(guān)鍵點的六自由度位姿估計網(wǎng)絡(luò),大幅減少了預(yù)測一幀圖像所需要的采樣點數(shù)量,同時提高了預(yù)測的準確度.在增加幾何信息提取網(wǎng)絡(luò)層數(shù)時,滿足了實時性要求,達到了估計每幀圖像位姿只需要0.06s.證明了關(guān)鍵點選取在六自由度位姿估計中的重要性;

    (2) 將顏色信息與深度信息視為異構(gòu)數(shù)據(jù),并將深度圖像轉(zhuǎn)換為點云數(shù)據(jù)可以更好地利用RGB-D圖像中的信息,使得網(wǎng)絡(luò)不需要去學習已知的轉(zhuǎn)換關(guān)系,提高了網(wǎng)絡(luò)的收斂速度;

    (3) 通過PointNet++網(wǎng)絡(luò)從深度圖像中提取幾何信息的方法可以有效地提取出關(guān)鍵點之間的局部幾何信息和全局幾何信息,有利于關(guān)鍵點做出準確的位姿估計;

    (4) 通過像素級特征融合可以讓關(guān)鍵點更加充分地利用網(wǎng)絡(luò)學習到的顏色信息和幾何信息,可以讓每一個像素點都根據(jù)對應(yīng)信息做出位姿估計,提高了網(wǎng)絡(luò)在物體相互遮擋條件下物體的位姿識別準確度;

    (5) 利用端到端的神經(jīng)網(wǎng)絡(luò)來進行位姿求精,可以加快預(yù)測速度,無需繁雜的迭代過程,可以更好地應(yīng)用到實際中去.

    通過實驗也說明了筆者所提出模型仍存在優(yōu)化和提升的空間,未來的研究重點為進一步簡化特征提取網(wǎng)絡(luò)、加快模型的訓練速度和提高在復(fù)雜環(huán)境下模型的適應(yīng)能力.

    [1] Cui S,Wang R,Wei J,et al. Grasp state assessment of deformable objects using visual-tactile fusion perception[C]//2020 IEEE International Conference on Robotics and Automation(ICRA). 2020:538-544.

    [2] Zakharov S,Shugurov I,Ilic S. Dpod:6D pose object detector and refiner[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul,Korea,2019:1941-1950.

    [3] Zeng A,Song S,Yu K T,et al. Robotic pick-and-place of novel objects in clutter with multi-affordance grasping and cross-domain image matching[C]//2018 IEEE International Conference on Robotics and Automation(ICRA). Brisbane,Australia,2018:3750-3757.

    [4] Gao G,Lauri M,Wang Y,et al. 6D object pose regression via supervised learning on point clouds[C]// 2020 IEEE International Conference on Robotics and Automation(ICRA). 2020:3643-3649.

    [5] Qi C R,Chen X,Litany O,et al. Imvotenet:Boosting 3D object detection in point clouds with image votes[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle,USA,2020:4404-4413.

    [6] Deng X,Xiang Y,Mousavian A,et al. Self-supervised 6D object pose estimation for robot manipulation[C]// 2020 IEEE International Conference on Robotics and Automation(ICRA). 2020:3665-3671.

    [7] Papazov C,Haddadin S,Parusel S,et al. Rigid 3D geometry matching for grasping of known objects in cluttered scenes[J]. International Journal of Robotics Research,2012,31(4):538-553.

    [8] Alvaro C,Dmitry B,Siddhartha S S,et al. Object recognition and full pose registration from a single image for robotic manipulation[C]//2009 IEEE International Conference on Robotics and Automation. Kobe,Japan,2009:48-55.

    [9] Tekin B,Sinha S N,F(xiàn)ua P. Real-time seamless single shot 6d object pose predition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,USA,2018:292-301.

    [10] Tjaden H,Schwanecke U,Schomer E. Real-time monocular pose estimation of 3D objects using temporally consistent local color historams[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice,Italy,2017:124-132.

    [11] Peng S,Liu Y,Huang Q,et al. PVNet:Pixel-wise voting network for 6DoF pose estimation[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Lone Beach,USA,2019:4561-4570.

    [12] Park K,Patten T,Vincze M. Pix2pose:Pixel-wise coordinate regression of objects for 6D pose estimation[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul,Korea,2019:7668-7677.

    [13] Yu X,Zhuang Z,Koniusz P,et al. 6DoF object pose estimation via differentiable proxy voting loss[EB/OL]. https://arxiv.org/abs/2002.03923,2020-05-04.

    [14] Xu D,Anguelov D,Jain A. Pointfusion:Deep sensor fusion for 3D bounding box estimation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,USA,2018:244-253.

    [15] Qi C R,Liu W,Wu C,et al. Frustum pointnets for 3D object detection from RGB-D data[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,USA,2018:918-927.

    [16] Chen P H,Yang H C,Chen K W,et al. MVSNet++:Learning depth-based attention pyramid features for multi-view stereo[J]. IEEE Transactions on Image Processing,2020,29:7261-7273.

    [17] Teng Z,Xiao J. Surface-based detection and 6-DoF pose estimation of 3-D objects in cluttered scenes[J]. IEEE Transactions on Robotics,2016,32(6):1347-1361.

    [18] Wang C,Xu D,Zhu Y,et al. DenseFusion:6D object pose estimation by iterative dense fusion[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach,USA,2019:3343-3352.

    [19] Chen X,Dong Z,Song J,et al. Category level object pose estimation via neural analysis-by-synthesis[C]// European Conference on Computer Vision. Glasgow,UK,2020:139-156.

    [20] Qi C R,Su H,Mo K,et al. PointNet:Deep learning on point sets for 3D classification and segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii,USA,2017:652-660.

    [21] Qi C R,Yi L,Su H,et al. Pointnet++:Deep hierarchical feature learning on point sets in a metric space[EB/OL]. https://arxiv.org/abs/1706.02413,2017-06-07.

    [22] Xiang Y,Schmidt T,Narayanan V,et al. Posecnn:A convolutional neural network for 6D object pose estimation in cluttered scenes[EB/OL]. https://arxiv.org/abs/ 1711.00199,2018-05-26.

    [23] Zhao H,Shi J,Qi X,et al. Pyramid scene parsing network[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii,USA,2017:2881-2890.

    [24] Kehl W,Manhardt F,Tombari F,et al. SSD-6D:Making RGB-based 3D detection and 6D pose estimation great again[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice,Italy,2017:1521-1529.

    Six Degrees of Freedom Pose Estimation Based on Keypoints Feature Fusion

    Wang Taiyong1, 2,Sun Haowen1

    (1. School of Mechanical Engineering,Tianjin University,Tianjin 300350,China;2. Tianjin Ren’ai College,Tianjin 301636,China)

    There exists a key technical challenge in performing six degrees of freedom(6-DoF)object pose estimation from a signal red,green,blue,and depth(RGB-D)image to fully leverage the color and depth information.To address this,we present a deep learning framework based on multiple networks pyramid scene parsing network(PSPNet)and PointNet++ combined with a feature fusion network.This method is used for estimating the 6-DoF pose of a set of known objects under a highly cluttered scene.The first stage involved taking colored images as input,performing semantic segmentation for each known object category,and feeding the masked depth pixels as well as an image patch cropped by the mask bounding box to the next stage.Second,point cloud data use the farthest point sampling algorithm to obtain the keypoints and map the keypoints to the color image and the depth image for feature extraction.Color and depth information in the RGB-D image are regarded as heterogeneous data.In the feature extraction process,the keypoints need to fully integrate the local and global information by regarding the color and depth information as heterogeneous data.The PSPNet module and PointNet++ module were used to extract color and geometric information for the RGB image and point cloud data,respectively.Then,a novel pixel-wise feature fu-sion was used to deeply fuse the local and global features of color and geometric information in the selected pix-els.Additionally,a multilayer perceptron was used to output the 6-DoF pose and confidence of each pixel.Finally,an end-to-end iterative pose refinement procedure further improved the pose estimation.Under the open dataset test,LineMOD and YCB-Video,the experimental results showed that compared with other similar existing methods,the proposed method has higher accuracy.Under the same evaluation metrics,the average precisions of the two datasets reach 97.2% and 95.1%,respectively,an increase of 2.9% and 3.9%.The network also meets real-time requirements,and it only takes 0.06s to complete the 6-DoF pose prediction of each image frame.

    6-DoF pose estimation;deep learning;feature fusion;machine vision

    10.11784/tdxbz202101024

    TP391

    A

    0493-2137(2022)05-0543-09

    2021-01-13;

    2021-04-12.

    王太勇(1962—??),男,博士,教授.

    王太勇,tywang@tju.edu.cn.

    國家自然科學基金資助項目(51975402);中國兵器工業(yè)集團公司基礎(chǔ)性創(chuàng)新團隊項目(2017CX031).

    Supported by the National Natural Science Foundation of China(No. 51975402),the Basic Innovation Team Program of China North Industries Group Corporation Limited(No. 2017CX031).

    (責任編輯:王曉燕)

    猜你喜歡
    位姿關(guān)鍵點深度
    聚焦金屬關(guān)鍵點
    肉兔育肥抓好七個關(guān)鍵點
    深度理解一元一次方程
    深度觀察
    深度觀察
    深度觀察
    基于共面直線迭代加權(quán)最小二乘的相機位姿估計
    基于CAD模型的單目六自由度位姿測量
    小型四旋翼飛行器位姿建模及其仿真
    醫(yī)聯(lián)體要把握三個關(guān)鍵點
    少妇粗大呻吟视频| 成在线人永久免费视频| 国产精品久久久av美女十八| 久久婷婷成人综合色麻豆| 九色亚洲精品在线播放| 国产在视频线精品| 香蕉久久夜色| 亚洲av片天天在线观看| 大片免费播放器 马上看| 一区二区三区国产精品乱码| 欧美日韩亚洲综合一区二区三区_| 自线自在国产av| 久久99热这里只频精品6学生| 天天操日日干夜夜撸| 国产在线一区二区三区精| 亚洲精品国产色婷婷电影| 国产激情久久老熟女| 精品国产一区二区久久| 十八禁网站网址无遮挡| 亚洲中文字幕日韩| 成人18禁在线播放| 亚洲成国产人片在线观看| 亚洲,欧美精品.| 亚洲色图av天堂| 精品久久蜜臀av无| 日韩欧美三级三区| 丰满饥渴人妻一区二区三| 美女扒开内裤让男人捅视频| 18在线观看网站| 亚洲久久久国产精品| 亚洲熟女毛片儿| 欧美精品av麻豆av| 王馨瑶露胸无遮挡在线观看| 久久精品国产亚洲av高清一级| 激情在线观看视频在线高清 | av又黄又爽大尺度在线免费看| 精品国产乱码久久久久久小说| 日本一区二区免费在线视频| 三级毛片av免费| 免费不卡黄色视频| 高清av免费在线| 在线播放国产精品三级| 最近最新中文字幕大全电影3 | 50天的宝宝边吃奶边哭怎么回事| 婷婷丁香在线五月| 别揉我奶头~嗯~啊~动态视频| 国产一区二区三区在线臀色熟女 | bbb黄色大片| 纵有疾风起免费观看全集完整版| 在线天堂中文资源库| 亚洲欧美色中文字幕在线| 国产亚洲一区二区精品| 国产成+人综合+亚洲专区| 18禁裸乳无遮挡动漫免费视频| 久久久久久久精品吃奶| 99在线人妻在线中文字幕 | 女同久久另类99精品国产91| 黑人操中国人逼视频| 精品国产乱子伦一区二区三区| 精品国产一区二区久久| 久久午夜亚洲精品久久| 精品人妻熟女毛片av久久网站| 亚洲va日本ⅴa欧美va伊人久久| 女人精品久久久久毛片| 黑丝袜美女国产一区| 久久久久久久国产电影| 久久人人97超碰香蕉20202| 国产高清视频在线播放一区| 亚洲成人免费电影在线观看| 久热爱精品视频在线9| 中文字幕色久视频| 国产成人av教育| 成人三级做爰电影| 亚洲国产中文字幕在线视频| a级毛片黄视频| 男女高潮啪啪啪动态图| 啦啦啦视频在线资源免费观看| 国产成人精品无人区| 香蕉丝袜av| 视频在线观看一区二区三区| 成人手机av| 精品久久久久久电影网| 亚洲免费av在线视频| 黄色丝袜av网址大全| 看免费av毛片| 夜夜骑夜夜射夜夜干| 激情在线观看视频在线高清 | 美女扒开内裤让男人捅视频| 久久人人爽av亚洲精品天堂| 看免费av毛片| 欧美 亚洲 国产 日韩一| 变态另类成人亚洲欧美熟女 | 国产男女内射视频| 日韩中文字幕视频在线看片| 一本—道久久a久久精品蜜桃钙片| 极品人妻少妇av视频| 菩萨蛮人人尽说江南好唐韦庄| 国产一区二区在线观看av| 国产熟女午夜一区二区三区| 日韩大码丰满熟妇| 十八禁人妻一区二区| 汤姆久久久久久久影院中文字幕| 一级片免费观看大全| 一级片免费观看大全| 久久亚洲真实| 久久精品91无色码中文字幕| 又大又爽又粗| 一边摸一边抽搐一进一小说 | 黄片小视频在线播放| 国产又色又爽无遮挡免费看| 国产真人三级小视频在线观看| 国产一区有黄有色的免费视频| 日韩 欧美 亚洲 中文字幕| 97人妻天天添夜夜摸| 午夜成年电影在线免费观看| 久久精品国产99精品国产亚洲性色 | 免费观看av网站的网址| 日韩熟女老妇一区二区性免费视频| 人妻一区二区av| 精品亚洲成a人片在线观看| 久久久久久久国产电影| 国产精品久久久久久精品古装| 老熟妇乱子伦视频在线观看| 亚洲中文日韩欧美视频| 精品人妻熟女毛片av久久网站| 亚洲美女黄片视频| 亚洲欧美色中文字幕在线| 精品人妻1区二区| 蜜桃国产av成人99| 超碰成人久久| 在线十欧美十亚洲十日本专区| 性色av乱码一区二区三区2| 大陆偷拍与自拍| 亚洲人成77777在线视频| 亚洲av第一区精品v没综合| 成人黄色视频免费在线看| 精品午夜福利视频在线观看一区 | 一本久久精品| 亚洲成人免费电影在线观看| 天天躁狠狠躁夜夜躁狠狠躁| 男女床上黄色一级片免费看| 亚洲av日韩精品久久久久久密| av网站免费在线观看视频| 国产欧美日韩一区二区精品| 多毛熟女@视频| 国产av国产精品国产| 9色porny在线观看| 国产在线精品亚洲第一网站| 国产高清国产精品国产三级| 黄色丝袜av网址大全| 欧美大码av| 久久午夜综合久久蜜桃| 成人影院久久| 国产aⅴ精品一区二区三区波| 久久人人爽av亚洲精品天堂| 青青草视频在线视频观看| 黄片播放在线免费| 精品少妇久久久久久888优播| 日日爽夜夜爽网站| 女警被强在线播放| 后天国语完整版免费观看| 肉色欧美久久久久久久蜜桃| 丝袜美腿诱惑在线| 国产精品.久久久| 日韩视频一区二区在线观看| 久久国产精品大桥未久av| 91成年电影在线观看| 成人亚洲精品一区在线观看| 精品少妇黑人巨大在线播放| 精品人妻熟女毛片av久久网站| 在线观看免费日韩欧美大片| 99精品久久久久人妻精品| 亚洲人成电影免费在线| 午夜老司机福利片| 亚洲免费av在线视频| 亚洲免费av在线视频| 高清在线国产一区| 午夜免费鲁丝| 淫妇啪啪啪对白视频| e午夜精品久久久久久久| 纯流量卡能插随身wifi吗| 欧美日韩国产mv在线观看视频| 曰老女人黄片| 久久国产精品影院| 一本大道久久a久久精品| 国产欧美日韩一区二区三区在线| 国产欧美日韩一区二区三| 国内毛片毛片毛片毛片毛片| av福利片在线| 欧美一级毛片孕妇| 久久精品国产综合久久久| 热re99久久精品国产66热6| 精品视频人人做人人爽| 国产一区二区三区在线臀色熟女 | 亚洲色图综合在线观看| 侵犯人妻中文字幕一二三四区| 韩国精品一区二区三区| 久久久久久人人人人人| videos熟女内射| 日韩欧美一区视频在线观看| 久久av网站| 成年人免费黄色播放视频| 99精国产麻豆久久婷婷| 精品国产乱码久久久久久男人| 黄色视频,在线免费观看| 国产三级黄色录像| 啪啪无遮挡十八禁网站| 高清视频免费观看一区二区| 久久精品国产亚洲av高清一级| 久9热在线精品视频| 午夜成年电影在线免费观看| 色婷婷久久久亚洲欧美| 亚洲美女黄片视频| 大陆偷拍与自拍| 菩萨蛮人人尽说江南好唐韦庄| 国产99久久九九免费精品| 黄网站色视频无遮挡免费观看| 国产主播在线观看一区二区| 91av网站免费观看| 精品久久久久久电影网| 日本wwww免费看| av片东京热男人的天堂| 精品国产一区二区久久| 国产精品秋霞免费鲁丝片| 男女无遮挡免费网站观看| av天堂在线播放| 欧美黑人欧美精品刺激| 汤姆久久久久久久影院中文字幕| 午夜久久久在线观看| 不卡av一区二区三区| 亚洲av成人不卡在线观看播放网| 亚洲成av片中文字幕在线观看| 久久久久国内视频| 亚洲精品国产一区二区精华液| 一本久久精品| 老熟女久久久| 亚洲精品粉嫩美女一区| 成年人黄色毛片网站| 黑人猛操日本美女一级片| 成人永久免费在线观看视频 | 国产精品98久久久久久宅男小说| 侵犯人妻中文字幕一二三四区| 动漫黄色视频在线观看| 无遮挡黄片免费观看| 黄色视频不卡| 久久国产精品大桥未久av| 国产成人影院久久av| av福利片在线| 亚洲精品国产色婷婷电影| 又黄又粗又硬又大视频| 亚洲成人免费电影在线观看| 中文字幕制服av| 久久精品aⅴ一区二区三区四区| 90打野战视频偷拍视频| 中国美女看黄片| 亚洲熟女精品中文字幕| 桃花免费在线播放| 国产亚洲精品一区二区www | 999精品在线视频| 亚洲久久久国产精品| 如日韩欧美国产精品一区二区三区| 欧美中文综合在线视频| 两性午夜刺激爽爽歪歪视频在线观看 | 精品久久久精品久久久| 久久人人97超碰香蕉20202| 久久久久精品人妻al黑| 亚洲五月婷婷丁香| 国产亚洲午夜精品一区二区久久| 国产老妇伦熟女老妇高清| 日韩视频在线欧美| 一夜夜www| 国产精品秋霞免费鲁丝片| 国产日韩一区二区三区精品不卡| 色播在线永久视频| 久久国产精品影院| 韩国精品一区二区三区| 人妻一区二区av| 母亲3免费完整高清在线观看| 一进一出抽搐动态| √禁漫天堂资源中文www| 午夜福利影视在线免费观看| 国产一区二区三区视频了| 亚洲欧美色中文字幕在线| 一二三四社区在线视频社区8| 久久亚洲真实| 18禁裸乳无遮挡动漫免费视频| 一级毛片女人18水好多| 激情在线观看视频在线高清 | 丰满少妇做爰视频| 妹子高潮喷水视频| 巨乳人妻的诱惑在线观看| 一二三四社区在线视频社区8| 国产免费现黄频在线看| 亚洲一码二码三码区别大吗| 一级,二级,三级黄色视频| 日本撒尿小便嘘嘘汇集6| 成人精品一区二区免费| 成人特级黄色片久久久久久久 | 久久精品aⅴ一区二区三区四区| 宅男免费午夜| 91av网站免费观看| 国产色视频综合| √禁漫天堂资源中文www| 亚洲欧美一区二区三区久久| 久热爱精品视频在线9| 自线自在国产av| 亚洲成人国产一区在线观看| 狠狠狠狠99中文字幕| 视频区图区小说| 久久影院123| 两性午夜刺激爽爽歪歪视频在线观看 | 亚洲国产中文字幕在线视频| 美国免费a级毛片| 精品国产一区二区三区四区第35| 纵有疾风起免费观看全集完整版| svipshipincom国产片| 久久久精品区二区三区| 亚洲av日韩精品久久久久久密| 国产麻豆69| 久久精品亚洲熟妇少妇任你| 欧美变态另类bdsm刘玥| 两性夫妻黄色片| 亚洲av片天天在线观看| 91成人精品电影| 亚洲黑人精品在线| 久久热在线av| 亚洲全国av大片| 国产亚洲精品久久久久5区| 国产精品久久电影中文字幕 | 久久精品国产99精品国产亚洲性色 | 欧美国产精品va在线观看不卡| 老汉色∧v一级毛片| 午夜福利乱码中文字幕| 欧美激情高清一区二区三区| 午夜老司机福利片| 国精品久久久久久国模美| 老汉色∧v一级毛片| www.999成人在线观看| 中文欧美无线码| 我的亚洲天堂| 少妇粗大呻吟视频| 国产欧美亚洲国产| 18在线观看网站| 久久午夜综合久久蜜桃| 午夜两性在线视频| 国产精品国产av在线观看| 夜夜爽天天搞| 免费av中文字幕在线| 成年版毛片免费区| 久久精品熟女亚洲av麻豆精品| 亚洲av第一区精品v没综合| 最黄视频免费看| 脱女人内裤的视频| 五月天丁香电影| av在线播放免费不卡| a级毛片在线看网站| 精品欧美一区二区三区在线| 无限看片的www在线观看| 波多野结衣av一区二区av| 99国产精品一区二区蜜桃av | 夜夜爽天天搞| 夫妻午夜视频| 一级a爱视频在线免费观看| 亚洲美女黄片视频| 欧美日韩亚洲综合一区二区三区_| 少妇的丰满在线观看| 欧美日韩av久久| 一二三四社区在线视频社区8| 亚洲免费av在线视频| 丝袜美足系列| 三上悠亚av全集在线观看| 十八禁网站网址无遮挡| 麻豆国产av国片精品| 真人做人爱边吃奶动态| 亚洲全国av大片| 99精国产麻豆久久婷婷| 桃花免费在线播放| 久久精品亚洲精品国产色婷小说| 老熟女久久久| 黄色视频,在线免费观看| 国产区一区二久久| 精品国产国语对白av| 精品亚洲成a人片在线观看| 99精国产麻豆久久婷婷| 亚洲人成伊人成综合网2020| 日日摸夜夜添夜夜添小说| 一个人免费看片子| 纵有疾风起免费观看全集完整版| 国产精品一区二区免费欧美| 在线亚洲精品国产二区图片欧美| 国产精品.久久久| 一区在线观看完整版| 午夜福利视频精品| 免费看a级黄色片| 美女高潮到喷水免费观看| 黄片大片在线免费观看| 啦啦啦中文免费视频观看日本| 搡老岳熟女国产| 国产色视频综合| 美国免费a级毛片| 美女高潮喷水抽搐中文字幕| aaaaa片日本免费| 黄色视频在线播放观看不卡| 欧美日韩中文字幕国产精品一区二区三区 | 新久久久久国产一级毛片| av超薄肉色丝袜交足视频| 精品一区二区三区av网在线观看 | 午夜福利在线免费观看网站| 777米奇影视久久| 激情视频va一区二区三区| 黄色视频,在线免费观看| 精品第一国产精品| 无遮挡黄片免费观看| 交换朋友夫妻互换小说| 国产精品一区二区在线不卡| 国产一区二区三区视频了| 国产男女超爽视频在线观看| 国产欧美日韩综合在线一区二区| 欧美精品啪啪一区二区三区| 一区福利在线观看| 精品福利永久在线观看| 一区二区三区国产精品乱码| av欧美777| 香蕉国产在线看| 午夜91福利影院| 成年动漫av网址| 一区二区av电影网| 亚洲专区中文字幕在线| 亚洲第一青青草原| 又大又爽又粗| 久久久久久久久免费视频了| 欧美亚洲日本最大视频资源| 国产精品二区激情视频| 成人黄色视频免费在线看| 国产精品一区二区免费欧美| 国产成人欧美| 色94色欧美一区二区| 夜夜夜夜夜久久久久| 热99国产精品久久久久久7| 国产不卡一卡二| 久热爱精品视频在线9| 精品乱码久久久久久99久播| 青草久久国产| 国产免费视频播放在线视频| 午夜免费成人在线视频| 亚洲av第一区精品v没综合| 夫妻午夜视频| 另类精品久久| 日韩欧美免费精品| 亚洲情色 制服丝袜| 久久精品国产a三级三级三级| 欧美精品一区二区大全| 久久热在线av| 女人高潮潮喷娇喘18禁视频| 久久九九热精品免费| 男男h啪啪无遮挡| 欧美在线黄色| 电影成人av| 亚洲色图综合在线观看| 好男人电影高清在线观看| 日韩欧美免费精品| 亚洲欧洲日产国产| 国产亚洲一区二区精品| 欧美激情高清一区二区三区| 欧美国产精品一级二级三级| 三上悠亚av全集在线观看| 久久99一区二区三区| 久久人人爽av亚洲精品天堂| 亚洲 国产 在线| 亚洲av第一区精品v没综合| 搡老乐熟女国产| 不卡一级毛片| 人人妻人人澡人人爽人人夜夜| 国产激情久久老熟女| 老熟女久久久| 久9热在线精品视频| 一边摸一边抽搐一进一出视频| 女人久久www免费人成看片| 日韩中文字幕视频在线看片| 丰满饥渴人妻一区二区三| 叶爱在线成人免费视频播放| 两个人看的免费小视频| 男女午夜视频在线观看| 亚洲国产欧美一区二区综合| 9191精品国产免费久久| 99精品欧美一区二区三区四区| 操美女的视频在线观看| 黄色成人免费大全| 啪啪无遮挡十八禁网站| 天天躁日日躁夜夜躁夜夜| 久久久久精品人妻al黑| 国产精品一区二区在线不卡| 久久久国产欧美日韩av| 黄色片一级片一级黄色片| 黄网站色视频无遮挡免费观看| 欧美精品人与动牲交sv欧美| 无限看片的www在线观看| 国产一区二区激情短视频| 久久久久久久久免费视频了| 国产高清激情床上av| 一本色道久久久久久精品综合| 悠悠久久av| 久久性视频一级片| 激情在线观看视频在线高清 | 精品一区二区三卡| 99久久精品国产亚洲精品| 中文亚洲av片在线观看爽 | 久久亚洲真实| 日日爽夜夜爽网站| 国产欧美日韩一区二区三| 日本vs欧美在线观看视频| 国产视频一区二区在线看| 叶爱在线成人免费视频播放| 我的亚洲天堂| 日韩 欧美 亚洲 中文字幕| 午夜精品久久久久久毛片777| 曰老女人黄片| 欧美日韩亚洲综合一区二区三区_| 50天的宝宝边吃奶边哭怎么回事| 日韩视频在线欧美| 18禁黄网站禁片午夜丰满| 成人特级黄色片久久久久久久 | 18禁黄网站禁片午夜丰满| 亚洲欧美精品综合一区二区三区| 亚洲av电影在线进入| 久久久久久久久免费视频了| 免费少妇av软件| 女警被强在线播放| 黄网站色视频无遮挡免费观看| 久久精品国产亚洲av高清一级| 国精品久久久久久国模美| 人妻 亚洲 视频| 日韩大片免费观看网站| 美女视频免费永久观看网站| 老鸭窝网址在线观看| 无限看片的www在线观看| 啦啦啦 在线观看视频| www.精华液| 国产欧美日韩一区二区三区在线| 国产精品 国内视频| 精品国产国语对白av| 男女床上黄色一级片免费看| av一本久久久久| 啦啦啦免费观看视频1| 老司机午夜十八禁免费视频| 美女视频免费永久观看网站| 中亚洲国语对白在线视频| www日本在线高清视频| 露出奶头的视频| 人人妻人人添人人爽欧美一区卜| 成年动漫av网址| 777米奇影视久久| 久久精品国产a三级三级三级| 国产精品偷伦视频观看了| 精品福利观看| 交换朋友夫妻互换小说| 国产在视频线精品| 精品人妻熟女毛片av久久网站| 国产高清国产精品国产三级| 精品一区二区三卡| 夜夜夜夜夜久久久久| av天堂在线播放| 精品熟女少妇八av免费久了| 成人特级黄色片久久久久久久 | 国产极品粉嫩免费观看在线| 久久久久久免费高清国产稀缺| 欧美精品一区二区大全| 中文字幕精品免费在线观看视频| 成人亚洲精品一区在线观看| xxxhd国产人妻xxx| 欧美午夜高清在线| 欧美另类亚洲清纯唯美| 国产xxxxx性猛交| 亚洲精品乱久久久久久| 男女午夜视频在线观看| 亚洲成a人片在线一区二区| 日韩欧美国产一区二区入口| 日本一区二区免费在线视频| 91字幕亚洲| 99精品久久久久人妻精品| 老汉色∧v一级毛片| 免费人妻精品一区二区三区视频| 变态另类成人亚洲欧美熟女 | 精品久久久久久久毛片微露脸| 99精品在免费线老司机午夜| 亚洲,欧美精品.| √禁漫天堂资源中文www| h视频一区二区三区| 高清av免费在线| 欧美在线黄色| www.精华液| 久久精品aⅴ一区二区三区四区| 免费久久久久久久精品成人欧美视频| 乱人伦中国视频| 日韩有码中文字幕| 国产无遮挡羞羞视频在线观看| 亚洲人成电影观看| 国产精品免费视频内射| 69av精品久久久久久 | 热99国产精品久久久久久7| 天堂中文最新版在线下载| 国产精品电影一区二区三区 | 久久狼人影院| 夫妻午夜视频| 精品视频人人做人人爽| 色综合欧美亚洲国产小说| 免费黄频网站在线观看国产| 亚洲伊人久久精品综合| 999久久久国产精品视频| 中文字幕人妻熟女乱码| 欧美日韩黄片免| 成人手机av| 成人av一区二区三区在线看| 成人黄色视频免费在线看| 精品一区二区三区视频在线观看免费 |