• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合雙目信息的隊(duì)列姿態(tài)檢測(cè)

    2024-11-04 00:00:00趙繼發(fā)王呈榮英佼

    摘 要:為實(shí)現(xiàn)隊(duì)列姿態(tài)動(dòng)作的準(zhǔn)確評(píng)估,針對(duì)訓(xùn)練場(chǎng)景中踢腿高度等三維人體姿態(tài)特征難以準(zhǔn)確測(cè)量的問題,提出融合雙目信息的隊(duì)列三維姿態(tài)特征檢測(cè)方法。方法分為2D姿態(tài)估計(jì)和雙目立體匹配兩個(gè)階段。為提高2D人體姿態(tài)檢測(cè)精度,設(shè)計(jì)基于改進(jìn)HRNet網(wǎng)絡(luò)的2D姿態(tài)估計(jì)模型。首先,在主干網(wǎng)絡(luò)引入空間通道注意力,增強(qiáng)特征提取能力。特征融合層采用自適應(yīng)空間特征融合模塊,融合網(wǎng)絡(luò)多尺度特征。其次,采用無偏數(shù)據(jù)處理方法進(jìn)行熱圖編解碼,減小數(shù)據(jù)統(tǒng)計(jì)誤差。最后,在模型訓(xùn)練時(shí)采用由粗到細(xì)的多階段監(jiān)督方法,提高關(guān)鍵點(diǎn)的檢測(cè)準(zhǔn)確率。在2D姿態(tài)估計(jì)模型基礎(chǔ)上,采用標(biāo)準(zhǔn)相關(guān)匹配函數(shù)實(shí)現(xiàn)雙目立體匹配,再通過坐標(biāo)變換得到三維人體姿態(tài)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的姿態(tài)估計(jì)網(wǎng)絡(luò)有較好的精度,在COCO數(shù)據(jù)集精度達(dá)到77.1%,在自制的隊(duì)列訓(xùn)練數(shù)據(jù)集上精度達(dá)到86.3%,相比原網(wǎng)絡(luò)分別提升2.2%和3.1%。在三維人體姿態(tài)的踢腿高度實(shí)驗(yàn)中,該方法測(cè)得平均相對(duì)誤差為2.5%,充分驗(yàn)證了算法的有效性。

    關(guān)鍵詞:圖像處理; 雙目視覺; 注意力機(jī)制; 姿態(tài)估計(jì)

    中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A

    文章編號(hào):1001-3695(2024)09-041-2860-07

    doi:10.19734/j.issn.1001-3695.2023.11.0595

    Queue posture detection with fusion of binocular information

    Zhao Jifa1, Wang Cheng1, Rong Yingjiao2

    (1.School of Internet of Things, Jiangnan University, Wuxi Jiangsu 214122, China; 2.Science & Technology on Near-surface Detection Laboratory, Wuxi Jiangsu 214000, China)

    Abstract:In order to realize the accurate evaluation of queue posture and action, aiming at the problem that it is difficult to accurately measure the three-dimensional human posture characteristics such as kick height in the training scene, this paper proposed a queue three-dimensional posture feature detection method based on binocular information. The method is divided into two stages: the 2D pose estimation stage and binocular stereo matching stage. In order to improve the accuracy of 2D human pose detection, it designed a 2D pose estimation model based on the improved HRNet network. Firstly, it introduced spatial channel attention in the back-bone network to enhance feature extraction capabilities. The feature fusion layer used an adaptive spatial feature fusion module to fuse multi-scale features of the network. Secondly, it used the unbiased data processing method to encode and decode the heat map to reduce the statistical error of the data. Finally,it adopted a coarse-to-fine multi-stage supervision method during model training to improve the detection accuracy of key points. Based on the 2D pose estimation model, it used the standard correlation matching function to achieve binocular stereo matching, and then obtained the 3D human pose through coordinate transformation. The experimental results show that the improved pose estimation network has better accuracy, the accuracy of the COCO dataset reaches 77.1%, and the detection accuracy of the self-made queue training dataset reaches 86.3%, which are respectively 2.2% and 3.1% higher than the original network. In the kick height experiment of the three-dimensional human body posture, the average relative error measured by the proposed method is 2.5%, which fully verifies the effectiveness of the algorithm.

    Key words:image processing; binocular vision; attention mechanism; pose estimation

    0 引言

    傳統(tǒng)隊(duì)列訓(xùn)練中士兵姿態(tài)動(dòng)作的標(biāo)準(zhǔn)性都由教官人眼主觀評(píng)判,無法對(duì)士兵隊(duì)列動(dòng)作進(jìn)行量化判斷?;谟?jì)算機(jī)視覺評(píng)估隊(duì)列訓(xùn)練姿態(tài),能夠?qū)崿F(xiàn)更高效的隊(duì)列訓(xùn)練。由于隊(duì)列訓(xùn)練場(chǎng)景存在人體尺度變化大、光照不均以及遮擋等問題,傳統(tǒng)姿態(tài)估計(jì)方法難以實(shí)現(xiàn)復(fù)雜場(chǎng)景的姿態(tài)檢測(cè)[1]。近年來,基于深度學(xué)習(xí)的2D姿態(tài)估計(jì)方法快速發(fā)展,姿態(tài)檢測(cè)效果顯著提升,被廣泛應(yīng)用于復(fù)雜場(chǎng)景的人體姿態(tài)檢測(cè)[2]。

    2D人體姿態(tài)估計(jì)是一種基于RGB圖像數(shù)據(jù)來檢測(cè)人體骨骼關(guān)鍵點(diǎn)的方法[3]。目前主流姿態(tài)估計(jì)方法有RSN[4]、Hourglass[5]、ViTPose[6]、HRNet[7]等方法。RSN網(wǎng)絡(luò)采用密集連接結(jié)構(gòu),充分融合特征的空間信息和語義信息,提高姿態(tài)估計(jì)精度。Hourglass網(wǎng)絡(luò)通過重復(fù)上下采樣操作,堆疊多個(gè)Hourglass模塊提高網(wǎng)絡(luò)表達(dá)能力,而反復(fù)上下采樣會(huì)導(dǎo)致大量有效特征丟失。針對(duì)有效特征丟失問題,Zou等人[8]提出了結(jié)合CBAM注意力[9]的層內(nèi)特征殘差類模塊IFRM學(xué)習(xí)有效的通道與空間特征,Hua等人[10]提出仿射模塊affinage block與殘差注意力模塊RAM,取代上采樣操作來獲得高分辨率特征,這兩種方法均有效緩解了特征丟失問題,提高了網(wǎng)絡(luò)性能。ViTPose是基于Vison Transformer結(jié)構(gòu)的人體姿態(tài)估計(jì)模型,該模型具有非常好的可拓展性。通過增大模型規(guī)模,引入額外數(shù)據(jù)集等方法, ViTPose-G*在人體姿態(tài)估計(jì)任務(wù)中達(dá)到了最先進(jìn)水平。但隨著模型增大,模型訓(xùn)練與推理對(duì)硬件設(shè)備有更高的要求,不便于實(shí)際場(chǎng)景的應(yīng)用與部署。HRNet網(wǎng)絡(luò)采樣多分支并行結(jié)構(gòu),不僅保留不同尺度的特征信息,并在不同層次和尺度進(jìn)行特征融合,充分利用高分辨率特征的空間信息和低分辨率特征的語義信息,有效提高模型的表達(dá)能力。

    二維姿態(tài)估計(jì)模型一般采用有監(jiān)督方法進(jìn)行訓(xùn)練,根據(jù)標(biāo)簽類型分為基于坐標(biāo)回歸和基于熱圖回歸[11]?;谧鴺?biāo)回歸的方法忽略了關(guān)鍵點(diǎn)周圍區(qū)域的空間信息,這對(duì)關(guān)鍵點(diǎn)的預(yù)測(cè)精度有較大的影響。為了得到更高精度的姿態(tài)估計(jì)模型,目前的主流姿態(tài)估計(jì)方法都采用基于熱圖回歸的方法預(yù)測(cè)關(guān)鍵點(diǎn)坐標(biāo)。但是,基于熱圖回歸的模型對(duì)標(biāo)簽坐標(biāo)進(jìn)行編解碼和翻轉(zhuǎn)策略時(shí),數(shù)據(jù)存在統(tǒng)計(jì)誤差[11],導(dǎo)致模型的檢測(cè)精度下降。為緩解數(shù)據(jù)誤差的影響,提高模型的魯棒性與檢測(cè)精度,Huang等人[12]提出了一種采用分類和回歸相結(jié)合的方法進(jìn)行編碼解碼,實(shí)現(xiàn)無偏數(shù)據(jù)處理(UDP),提高了現(xiàn)有姿態(tài)估計(jì)方法的關(guān)鍵點(diǎn)檢測(cè)精度。

    注意力機(jī)制能夠自適應(yīng)學(xué)習(xí)特征權(quán)重系數(shù),對(duì)網(wǎng)絡(luò)更關(guān)注的區(qū)域分配更大權(quán)重以增強(qiáng)重要特征[13],在基本不增加參數(shù)的情況下提高特征提取能力。Yuan等人[14]在Vison Transformer結(jié)構(gòu)中提出一種輕量高效的注意力,能夠有效地對(duì)局部細(xì)粒度信息編碼和全局空間信息聚合,大幅提高了ViTs模型在ImageNet分類任務(wù)的精度。在尺度變化劇烈的場(chǎng)景中檢測(cè)小尺度目標(biāo)往往比較困難。為了提高小尺度目標(biāo)的檢測(cè)效果,Liu等人[15]提出自適應(yīng)空間特征融合(adaptive spatial feature fusion,ASFF)網(wǎng)絡(luò)改進(jìn)特征融合模塊,使模型融合多尺度特征圖權(quán)重,充分利用淺層特征與深層特征,提高對(duì)小尺度目標(biāo)的檢測(cè)精度。

    隊(duì)列訓(xùn)練正步前進(jìn)時(shí),還需要檢測(cè)步幅、步速及踢腿高度等三維人體姿態(tài)特征,根據(jù)2D姿態(tài)估計(jì)結(jié)果無法得到準(zhǔn)確的量化判斷。但在多視圖環(huán)境下,利用多視圖匹配能實(shí)現(xiàn)人體姿態(tài)的三維重建[16]。在雙目視覺中,立體匹配是實(shí)現(xiàn)立體視覺的關(guān)鍵步驟,根據(jù)匹配函數(shù)作用范圍,可分為局部匹配與全局匹配。全局匹配效率較低,而局部匹配缺乏全局參數(shù)導(dǎo)致匹配精度較差[17]。Hirschmuller[18]提出半全局立體匹配方法(semi-global matching,SGBM),通過聚合多個(gè)路徑代價(jià)進(jìn)行匹配,較好地兼顧匹配精度和效率。Hosni等人[19]采用分割算法選擇待匹配區(qū)域,有效提高局部匹配精度。基于2D姿態(tài)估計(jì)模型預(yù)測(cè)結(jié)果選擇待匹配區(qū)域,對(duì)左右視圖的人體關(guān)鍵點(diǎn)進(jìn)行局部匹配,既避免全局匹配的計(jì)算消耗,又充分利用了姿態(tài)估計(jì)模型性能,很好地平衡了整體算法檢測(cè)精度與檢測(cè)速度。

    綜上,針對(duì)隊(duì)列訓(xùn)練場(chǎng)景中三維人體姿態(tài)特征檢測(cè)問題,本文設(shè)計(jì)了基于改進(jìn)HRNet的姿態(tài)估計(jì)模型PoseHRNet,再融合雙目姿態(tài)信息實(shí)現(xiàn)隊(duì)列三維姿態(tài)檢測(cè),主要工作如下:

    a)提出了空間通道注意力SCA,實(shí)現(xiàn)細(xì)粒度信息編碼和全局空間信息聚合,增強(qiáng)主干網(wǎng)絡(luò)的表達(dá)能力,并且改進(jìn)了主干網(wǎng)絡(luò)的特征融合層,通過自適應(yīng)空間特征融合模塊ASFF聚合多尺度特征。

    b)重新設(shè)計(jì)損失函數(shù),在模型訓(xùn)練階段實(shí)現(xiàn)由粗到細(xì)的多階段監(jiān)督,提高關(guān)鍵點(diǎn)的檢測(cè)準(zhǔn)確率。

    c)根據(jù)關(guān)鍵點(diǎn)預(yù)測(cè)結(jié)果選擇待匹配區(qū)域,有效平衡了左右視圖匹配的精度與速度,實(shí)現(xiàn)高效的三維人體姿態(tài)估計(jì)。

    1 基于PoseHRNet的2D姿態(tài)估計(jì)方法

    本文算法重點(diǎn)關(guān)注隊(duì)列訓(xùn)練時(shí)二維人體姿態(tài)檢測(cè),針對(duì)二維人體姿態(tài)估計(jì)任務(wù),提出一種改進(jìn)網(wǎng)絡(luò)模型PoseHRNet。該模型在HRNet基礎(chǔ)上引入了空間通道注意力SCA和自適應(yīng)姿態(tài)特征融合ASSF模塊,構(gòu)建多階段損失函數(shù),并采用無偏數(shù)據(jù)處理方法UDP進(jìn)行熱圖編碼和解碼,提高模型檢測(cè)準(zhǔn)確性和魯棒性。

    1.1 PoseHRNet的網(wǎng)絡(luò)結(jié)構(gòu)

    PoseHRNet的主體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,網(wǎng)絡(luò)分為四個(gè)階段,分支數(shù)依次增加,最后輸出四條不同尺度的特征分支。首先輸入RGB圖片經(jīng)過兩個(gè)步長(zhǎng)為2的3×3卷積的基礎(chǔ)層Stem預(yù)處理后,分辨率降為1/4,通道數(shù)由3通道增加到64通道。第一條主分支全程保持1/4高分辨率,下采樣的子分支通過分辨率減半通道數(shù)加倍的方式充分表征特征。第一階段由四個(gè)bottleneck模塊和SCA注意力組成。后面的三個(gè)階段都有若干個(gè)HRModule和SCA注意力模塊組成,每個(gè)階段之間,會(huì)采用一個(gè)下采樣模塊增加輸出分支。第四階段末尾采用ASFF模塊自適應(yīng)融合4個(gè)不同尺度的特征分支生成17個(gè)表征人體關(guān)鍵點(diǎn)熱圖。

    HRModule是由四個(gè)basic模塊和特征融合模塊組成。特征模塊融合模塊將各個(gè)分支輸出的不同尺度特征通過上采樣和下采樣操作達(dá)到同一尺度進(jìn)行融合。每個(gè)輸出支路特征都融合所有輸入分支特征,有效減少了特征傳遞過程中的信息丟失問題。basic模塊由兩個(gè)3×3卷積和一條殘差連接組成。bottleneck模塊由1個(gè)3×3卷積和兩個(gè)1×1卷積和一條殘差連接組成,特征通道數(shù)先減小為輸入的1/4再恢復(fù)到輸入的通道數(shù)。basic模塊和bottleneck模塊均來自ResNet[20]的殘差模塊,通過殘差連接有效解決了主干網(wǎng)絡(luò)加深導(dǎo)致的梯度消失問題。

    算法1 PoseHRNet人體姿態(tài)估計(jì)算法

    輸入:預(yù)處理后的RGB圖像I。

    輸出:人體關(guān)鍵點(diǎn)坐標(biāo)Coord。

    1) function PoseHRNet(I)

    2) S ← stem (I) /*通過stem層卷積操作提取輸入圖像I的底層特征S*/

    3) S_1 ← stage1(S) /*stage1通過4個(gè)bottleneck模塊進(jìn)一步提取圖像特征,得到S_1*/

    4) S_1 ← SCA(S_1) /*SCA注意力匯聚局部空間特征與全局語義信息*/

    5) for k=2 to 4 do

    6) S_k ← stage_k(S_{k-1}) /*stage_k通過HRModule模塊提取更高層次的特征S_k*/

    7) S_k ← SCA(S_k)

    8) end for

    9) Predheatmap ← ASFF(S_4) /*ASFF模塊聚合多尺度特征,得到預(yù)測(cè)熱圖結(jié)果*/

    10) MaxCoord ← argmax(PredHeatmap) /*獲取預(yù)測(cè)熱圖中的最大值點(diǎn)的坐標(biāo)*/

    11) Coord ← MaxCoord * I_size /*根據(jù)原始圖像的尺寸I_size將熱圖坐標(biāo)轉(zhuǎn)換回原始圖像的坐標(biāo)*/

    12) return Coord

    13) end function

    1.2 空間通道注意力SCA

    姿態(tài)估計(jì)的任務(wù)是檢測(cè)人體關(guān)鍵點(diǎn)的空間位置坐標(biāo),而骨骼關(guān)鍵點(diǎn)之間又有特定的空間聯(lián)系,姿態(tài)估計(jì)網(wǎng)絡(luò)需要關(guān)注局部空間特征與全局空間特征。本文受CBAM[9]機(jī)制啟發(fā),設(shè)計(jì)了空間通道注意力SCA,SCA中的空間注意力模塊(spatial attention module,SAM)能夠?qū)γ總€(gè)空間位置計(jì)算其相鄰區(qū)域的局部空間信息,通過聚合密集的局部空間信息實(shí)現(xiàn)細(xì)粒度的空間特征編碼。同時(shí)SCA通道注意力模塊(channel attention module,CAM)采用全局平均池化與最大池化來計(jì)算全局通道注意力。SCA模塊兼顧了全局上下文信息與局部空間特征,從而有效提升了關(guān)鍵點(diǎn)檢測(cè)精度,SCA注意力結(jié)構(gòu)如圖2所示。

    圖2空間注意力模塊中,給定輸入特征圖Xi∈RH×W×C,通過對(duì)Xi空間位置(i,j)的C維特征向量進(jìn)行線性投影,將投影后的特征通過reshape操作進(jìn)行維度變換,得到(i,j)相鄰K×K局部窗口區(qū)域的空間注意力權(quán)重A^i,j∈RK2×K2。VΔi, j∈RC×K2表示以(i,j)為中心的局部窗口特征,與softmax操作后的空間注意力權(quán)重A^i,j相乘,得到具有空間信息的局部輸出XΔi,j。然后把每個(gè)位置窗口內(nèi)所有通過注意力權(quán)重調(diào)整過的特征向量累加起來,實(shí)現(xiàn)局部空間信息聚合,即對(duì)應(yīng)圖中的fold操作,得到具有細(xì)粒度空間信息的特征圖Xs。

    3.3 人體姿態(tài)估計(jì)實(shí)驗(yàn)結(jié)果與分析

    表1為本文方法和其他姿態(tài)估計(jì)方法在COCO驗(yàn)證集上的性能對(duì)比。

    由表1中數(shù)據(jù)可知,PoseHRNet的檢測(cè)精度AP為77.1%,模型的參數(shù)量和浮點(diǎn)計(jì)算量分別為28.83 M和8.05 GFlops。與基線模型HRNet-w32相比,PoseHRNet參數(shù)量和浮點(diǎn)運(yùn)算量少量增加,模型檢測(cè)平均精度AP提高了2.2%,中小目標(biāo)檢測(cè)準(zhǔn)確率APM提高了2.8%,在檢測(cè)精度和模型復(fù)雜度之間取得了更好的平衡。表1中ViTPose-G*通過增大模型參數(shù)到1 000 M,引入額外數(shù)據(jù)集AIC,提高輸入圖片尺寸,在人體姿態(tài)估計(jì)任務(wù)中達(dá)到了最先進(jìn)水平,但實(shí)際應(yīng)用中有諸多限制。與同等規(guī)模的ViTPose-B相比,PoseHRNet以更小的模型復(fù)雜度達(dá)到更高檢測(cè)精度,便于實(shí)際場(chǎng)景的部署與應(yīng)用。

    為驗(yàn)證PoseHRNet在隊(duì)列訓(xùn)練應(yīng)用場(chǎng)景中姿態(tài)檢測(cè)的性能,通過在自制隊(duì)列訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練來評(píng)估模型的有效性,表2為不同方法在自制數(shù)據(jù)集上性能比較。

    根據(jù)表2結(jié)果顯示,PoseHRNet在自制數(shù)據(jù)集平均檢測(cè)精度達(dá)到了86.3%。與原基線模型HRNet-w32相比,AP提升了3.1%,AP50和AP75分別提高了2.2%和1.4%。相比其他方法,PoseHRNet取得了更佳檢測(cè)精度,驗(yàn)證了本文算法在隊(duì)列訓(xùn)練場(chǎng)景的有效性。二維人體姿態(tài)檢測(cè)結(jié)果對(duì)三維姿態(tài)結(jié)果的準(zhǔn)確性和可靠性有顯著影響,提高二維姿態(tài)估計(jì)模型的檢測(cè)精度可以實(shí)現(xiàn)更精確的三維隊(duì)列姿態(tài)特征檢測(cè)效果。

    3.4 姿態(tài)估計(jì)模型消融實(shí)驗(yàn)

    為研究不同模塊對(duì)人體姿態(tài)估計(jì)模型性能的影響,本節(jié)基于COCO數(shù)據(jù)集對(duì)各個(gè)模塊進(jìn)行消融實(shí)驗(yàn),消融實(shí)驗(yàn)結(jié)果如表3所示。

    由表3消融實(shí)驗(yàn)結(jié)果可知,通過對(duì)原始數(shù)據(jù)無偏數(shù)據(jù)處理,減小熱圖編解碼過程中統(tǒng)計(jì)誤差,各項(xiàng)性能指標(biāo)都有提升,其中檢測(cè)精度提升1.3%。通過引入多階段監(jiān)督,構(gòu)建各階段的損失函數(shù)并加權(quán)求和,使得模型收斂效果更好,檢測(cè)精度提高0.6%。ASFF模塊能夠融合多尺度分支特征,引入ASFF后模型檢測(cè)精度提升1.1%。SCA注意力機(jī)制能夠更細(xì)粒度地提取空間信息與通道信息,有效提升模型檢測(cè)性能,與基線模型相比,引入SCA模塊后,精度提高1.7%。

    3.5 三維姿態(tài)檢測(cè)結(jié)果與分析

    本文對(duì)隊(duì)列訓(xùn)練場(chǎng)景典型的踢腿動(dòng)作進(jìn)行檢測(cè),采集了28個(gè)踢腿動(dòng)作進(jìn)行檢測(cè),測(cè)量踢腿高度與實(shí)際踢腿高度,通過比較測(cè)量值與實(shí)際值的誤差驗(yàn)證隊(duì)列三維姿態(tài)檢測(cè)效果。踢腿高度值實(shí)際值通過AimPosition光學(xué)定位系統(tǒng)AP-STD-200測(cè)量獲得,AimPosition在視場(chǎng)范圍1~2.4 m內(nèi)的定位精度為0.12 mm,滿足實(shí)驗(yàn)需求。

    為驗(yàn)證基于CCORR_NORMED的三維姿態(tài)估計(jì)方法性能,設(shè)計(jì)了基于半全局立體匹配方法SGBM的三維重建方法作為對(duì)比實(shí)驗(yàn)。SGBM通過對(duì)雙目相機(jī)左右視圖直接進(jìn)行立體匹配與視差計(jì)算,得到左視圖的三維點(diǎn)云圖,實(shí)現(xiàn)二維像素坐標(biāo)到三維空間坐標(biāo)的映射。根據(jù)姿態(tài)估計(jì)模型預(yù)測(cè)的關(guān)鍵點(diǎn)像素坐標(biāo)即可獲得對(duì)應(yīng)的三維空間坐標(biāo)。兩種方法的部分檢測(cè)結(jié)果如表4所示。

    表中:Vactual表示踢腿高度實(shí)際測(cè)量值;Vmeasured為測(cè)量值;Erelative相對(duì)檢測(cè)誤差;Tmatching匹配耗時(shí);Tdetection模型檢測(cè)圖像耗時(shí);Ttotal表示方法總耗時(shí)。本文采用的方法為融合雙目姿態(tài)信息,基于CCORR_NORMED局部匹配實(shí)現(xiàn)三維人體姿態(tài)檢測(cè)。表中SGBM方法需要對(duì)雙目圖像進(jìn)行半全局立體匹配,再結(jié)合單目圖像的姿態(tài)信息實(shí)現(xiàn)三維人體姿態(tài)檢測(cè)。

    由表4的實(shí)驗(yàn)結(jié)果可知,融合雙目姿態(tài)信息的三維姿態(tài)檢測(cè)方法在踢腿高度實(shí)驗(yàn)的平均相對(duì)誤差為2.51%,基于SGBM的三維姿態(tài)檢測(cè)方法的平均相對(duì)誤差為49.8%。姿態(tài)估計(jì)網(wǎng)絡(luò)預(yù)測(cè)雙目姿態(tài)信息平均耗時(shí)為32.98 ms,而僅計(jì)算單目姿態(tài)信息平均耗時(shí)為24.71 ms。雖然計(jì)算雙目姿態(tài)信息需要耗費(fèi)更多時(shí)間,但基于雙目信息進(jìn)行局部立體匹配大幅度減少計(jì)算消耗,整體上以更少的時(shí)間消耗達(dá)到更高的檢測(cè)精度,實(shí)現(xiàn)了高效的三維人體姿態(tài)估計(jì)。為更直觀地表示兩種方法的檢測(cè)效果,繪制了完整實(shí)驗(yàn)的檢測(cè)結(jié)果圖與檢測(cè)誤差圖,如圖8與9所示。

    圖8(a)為基于CCORR_NORMED的檢測(cè)值與實(shí)際值對(duì)比,縱坐標(biāo)為踢腿高度,橫坐標(biāo)為數(shù)據(jù)編號(hào),圖8(b)為基于SGBM方法得到的檢測(cè)對(duì)比圖。圖9(a)(b)為兩種方法的誤差曲線圖,縱坐標(biāo)為相對(duì)誤差,橫坐標(biāo)為數(shù)據(jù)編號(hào)。從圖8和9可以看出,基于CCORR_NORMED方法的檢測(cè)誤差明顯更小。分析可知,在2D姿態(tài)估計(jì)模型的檢測(cè)結(jié)果基礎(chǔ)上對(duì)關(guān)鍵點(diǎn)進(jìn)行立體匹配,能夠準(zhǔn)確快速獲得關(guān)鍵點(diǎn)的三維信息從而實(shí)現(xiàn)高效的三維姿態(tài)檢測(cè)。傳統(tǒng)的SGBM是對(duì)全圖進(jìn)行三維重建,不但耗時(shí)長(zhǎng),而且受圖片的噪點(diǎn)影響大,進(jìn)而導(dǎo)致局部點(diǎn)檢測(cè)精度不足?;贑CORR_NORMED的三維姿態(tài)估計(jì)方法對(duì)人體關(guān)鍵點(diǎn)進(jìn)行三維重建有明顯精度優(yōu)勢(shì)和速度優(yōu)勢(shì)。

    3.6 可視化結(jié)果分析

    姿態(tài)估計(jì)網(wǎng)絡(luò)檢測(cè)結(jié)果如圖10和11所示,共檢測(cè)17個(gè)人體關(guān)鍵點(diǎn),人體左側(cè)關(guān)鍵點(diǎn)、右側(cè)人體關(guān)鍵點(diǎn)以及頭部區(qū)域關(guān)鍵點(diǎn)分別采用綠色、藍(lán)色和橘黃色表示(見電子版)。圖10給為COCO驗(yàn)證集上的部分檢測(cè)結(jié)果,圖(a)是單人有遮擋場(chǎng)景,圖(b)是較遠(yuǎn)距離逆光場(chǎng)景,圖(c)為光線較暗場(chǎng)景,圖(d)(e)為多人有遮擋的場(chǎng)景。上述結(jié)果表明PoseHRNet在單人、多人、有遮擋、弱光照等復(fù)雜場(chǎng)景下均能準(zhǔn)確檢測(cè)出人體關(guān)鍵點(diǎn)。圖11(a)(b)為自制隊(duì)列訓(xùn)練數(shù)據(jù)集的檢測(cè)效果圖,圖中給出了單人多人以及不同光照下隊(duì)列訓(xùn)練場(chǎng)景的人體關(guān)鍵點(diǎn)檢測(cè)結(jié)果,圖11(c)還給出了基于SGBM算法得到的深度圖。從檢測(cè)結(jié)果可以看出,在復(fù)雜場(chǎng)景PoseHRNet都能較準(zhǔn)確地檢測(cè)出關(guān)鍵點(diǎn)位置,達(dá)到了預(yù)期效果。

    4 結(jié)束語

    針對(duì)隊(duì)列訓(xùn)練場(chǎng)景中三維姿態(tài)檢測(cè)問題,本文提出了融合雙目信息的隊(duì)列三維姿態(tài)特征檢測(cè)方法。通過2D姿態(tài)估計(jì)模型與標(biāo)準(zhǔn)相關(guān)匹配函數(shù)實(shí)現(xiàn)雙目相機(jī)左右視圖中人體關(guān)鍵點(diǎn)的精確匹配,再利用坐標(biāo)變換得到人體關(guān)鍵點(diǎn)的三維空間坐標(biāo),進(jìn)而得到三維姿態(tài)特征。2D姿態(tài)估計(jì)模型基于HRNet進(jìn)行改進(jìn),在COCO數(shù)據(jù)集精度達(dá)到77.1%,在自制數(shù)據(jù)集上檢測(cè)精度達(dá)到86.3%,相比原網(wǎng)絡(luò)分別提升2.2%和3.1%,本文的改進(jìn)方法有效提升了2D姿態(tài)估計(jì)的檢測(cè)精度。在隊(duì)列三維姿態(tài)檢測(cè)的踢腿高度實(shí)驗(yàn)上,本文基于2D姿態(tài)估計(jì)模型預(yù)測(cè)結(jié)果對(duì)左右視圖人體關(guān)鍵點(diǎn)進(jìn)行局部匹配,匹配平均耗時(shí)3.4 ms,測(cè)得踢腿高度平均相對(duì)誤差為2.5%,很好地平衡了三維人體姿態(tài)估計(jì)的檢測(cè)精度和檢測(cè)速度。

    參考文獻(xiàn):

    [1]張宇, 溫光照, 米思婭, 等. 基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)綜述[J]. 軟件學(xué)報(bào), 2022, 33(11): 4173-4191. (Zhang Yu, Wen Guangzhao, Mi Siya, et al. Overview on 2D human pose estimation based on deep learning[J]. Journal of Software, 2022, 33(11): 4173-4191.)

    [2]鐘寶榮, 吳夏靈. 基于高分辨率網(wǎng)絡(luò)的輕量型人體姿態(tài)估計(jì)研究[J]. 計(jì)算機(jī)工程, 2023, 49(4): 226-232,239. (Zhong Baorong, Wu Xialing. Research on lightweight human pose estimation based on high-resolution network[J]. Computer Engineering, 2023, 49(4): 226-232,239.)

    [3]渠涵冰, 賈振堂. 輕量級(jí)高分辨率人體姿態(tài)估計(jì)研究[J]. 激光與光電子學(xué)進(jìn)展, 2022, 59(18): 129-136. (Qu Hanbing, Jia Zhentang. Lightweight and high-resolution human pose estimation method[J]. Laser & Optoelectronics Progress, 2022, 59(18): 129-136.)

    [4]Cai Yuanha, Wang Zhicheng, Luo Zhengxiong, et al. Learning delicate local representations for multi-person pose estimation[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2020: 455-472.

    [5]Newell A, Yang Kaiyu, Deng Jia. Stacked Hourglass networks for human pose estimation[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2016: 483-499.

    [6]Xu Yufei, Zhang Jing, Zhang Qiming, et al. ViTPose: simple vision transformer baselines for human pose estimation[EB/OL]. (2022-04-26). https://arxiv.org/abs/2204.12484.

    [7]Sun Ke, Xiao Bin, Liu Dong, et al. Deep high-resolution representation learning for human pose estimation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2019: 5686-5696.

    [8]Zou Xuelian, Bi Xiaojun, Yu Changdong. Improving human pose estimation based on stacked hourglass network[J]. Neural Processing Letters, 2023, 55(7):9521-9544.

    [9]Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2018: 3-19.

    [10]Hua Guoguang, Li Lihong, Liu Shiguang. Multipath affinage stacked-hourglass networks for human pose estimation[J]. Frontiers of Computer Science, 2020, 14(4): 1447011.

    [11]王仕宸, 黃凱, 陳志剛, 等. 深度學(xué)習(xí)的三維人體姿態(tài)估計(jì)綜述[J]. 計(jì)算機(jī)科學(xué)與探索, 2023, 17(1): 74-87. (Wang Shichen, Huang Kai, Chen Zhigang, et al. Survey on 3D human pose estimation of deep learning[J]. Journal of Frontiers of Computer Science and Technology, 2023, 17(1): 74-87.)

    [12]Huang Junjie, Zhu Zheng, Guo Feng, et al. The devil is in the details: delving into unbiased data processing for human pose estimation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press,2020: 5699-5708.

    [13]李麗, 張榮芬, 劉宇紅, 等. 基于多尺度注意力機(jī)制的高分辨率網(wǎng)絡(luò)人體姿態(tài)估計(jì)[J]. 計(jì)算機(jī)應(yīng)用研究, 2022, 39(11): 3487-3491,3497. (Li Li, Zhang Rongfen, Liu Yuhong, et al. High resolution network human pose estimation based on multi-scale attention mechanism[J]. Application Research of Computers, 2022, 39(11): 3487-3491,3497.)

    [14]Yuan Li, Hou Qibin, Jiang Zihang, et al. VOLO: vision outlooker for visual recognition[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2022, 45(5): 6575-6586.

    [15]Liu Songtao, Huang Di, Wang Yunhong. Learning spatial fusion for single-shot object detection[EB/OL]. (2019). https://arxiv.org/abs/1911.09516.

    [16]Qiu Haibo, Wang Chunyu, Wang Jingdong, et al. Cross view fusion for 3D human pose estimation[C]//Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ:IEEE Press,2019: 4341-4350.

    [17]暢雅雯, 趙冬青, 單彥虎. 多特征融合和自適應(yīng)聚合的立體匹配算法研究[J]. 計(jì)算機(jī)工程與應(yīng)用, 2021, 57(23): 219-225. (Chang Yawen, Zhao Dongqing, Shan Yanhu. Research on stereo matching algorithm based on multi-feature fusion and adaptive aggregation[J]. Computer Engineering and Applications, 2021, 57(23): 219-225.)

    [18]Hirschmuller H. Stereo processing by semiglobal matching and mutual information[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2007, 30(2): 328-341.

    [19]Hosni A, Bleyer M, Gelautz M, et al. Local stereo matching using geodesic support weights[C]//Proc of the 16th IEEE International Conference on Image Processing. Piscataway,NJ: IEEE Press, 2009: 2093-2096.

    [20]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. 2016: 770-778.

    [21]Li Wenbo, Wang Zhicheng, Yin Binyi, et al. Rethinking on multi-stage networks for human pose estimation[EB/OL]. (2019-01-01). https://arxiv.org/abs/1901.00148.

    [22]Zhang Hang, Wu Chongruo, Zhang Zhongyue, et al. ResNeSt: split-attention networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. 2022: 2735-2745.

    [23]Hu Jie, Shen Li, Sun Gang, et al. Squeeze-and-excitation networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2018: 7132-7141.

    [24]Wei S E, Ramakrishna V, Kanade T, et al. Convolutional pose machines[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press, 2016: 4724-4732.

    [25]Yu Changqian, Xiao Bin, Gao Changxin, et al. Lite-HRNet: a lightweight high-resolution network[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 10435-10445.

    [26]Ma Ningning, Zhang Xiangyu, Zheng Haitao, et al. ShuffleNet V2: practical guidelines for efficient CNN architecture design[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2018: 122-138.

    收稿日期:2023-11-15;修回日期:2024-01-15 基金項(xiàng)目:近地面探測(cè)技術(shù)重點(diǎn)實(shí)驗(yàn)室基金資助項(xiàng)目(6142414220203)

    作者簡(jiǎn)介:趙繼發(fā)(1998—),男,碩士,主要研究方向?yàn)閳D像處理和姿態(tài)估計(jì);王呈(1983—),男(通信作者),副教授,博士,主要研究方向?yàn)榉蔷€性系統(tǒng)建模與控制、機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘(wangc@jiangnan.edu.cn);榮英佼(1978—),女,工程師,主要研究方向?yàn)槟繕?biāo)檢測(cè)和信號(hào)處理.

    国产老妇伦熟女老妇高清| 国产成人a区在线观看| 午夜激情福利司机影院| 久久久久精品性色| 能在线免费看毛片的网站| 在线观看免费高清a一片| 久久韩国三级中文字幕| 一本久久精品| av国产久精品久网站免费入址| 亚洲va在线va天堂va国产| 国产精品熟女久久久久浪| 女性被躁到高潮视频| 男人爽女人下面视频在线观看| 国产精品伦人一区二区| 色5月婷婷丁香| 欧美精品人与动牲交sv欧美| 久久久国产一区二区| 亚洲va在线va天堂va国产| 亚洲精品乱码久久久v下载方式| 国产一区二区三区综合在线观看 | 久久久久视频综合| 我要看黄色一级片免费的| 婷婷色av中文字幕| 精品视频人人做人人爽| 男女啪啪激烈高潮av片| 国产精品欧美亚洲77777| 在现免费观看毛片| 欧美97在线视频| 人体艺术视频欧美日本| 一本色道久久久久久精品综合| 美女福利国产在线 | 精品人妻偷拍中文字幕| 国国产精品蜜臀av免费| 国产成人aa在线观看| 中文字幕久久专区| 久久热精品热| 九色成人免费人妻av| 毛片女人毛片| 精品一品国产午夜福利视频| 亚洲欧美精品自产自拍| 2018国产大陆天天弄谢| 久久久久精品性色| 国产伦在线观看视频一区| 亚洲一区二区三区欧美精品| 欧美性感艳星| 欧美 日韩 精品 国产| 麻豆成人av视频| 国产极品天堂在线| 欧美日韩视频高清一区二区三区二| 午夜激情福利司机影院| 国产探花极品一区二区| 成人国产麻豆网| 高清不卡的av网站| 精品亚洲乱码少妇综合久久| 午夜福利网站1000一区二区三区| 自拍欧美九色日韩亚洲蝌蚪91 | 精品亚洲成a人片在线观看 | 日韩一区二区三区影片| 国产探花极品一区二区| 少妇人妻久久综合中文| av国产久精品久网站免费入址| 日日啪夜夜爽| av.在线天堂| 国产成人免费观看mmmm| 中文乱码字字幕精品一区二区三区| 久久久久久久亚洲中文字幕| 久久久久久九九精品二区国产| 一级片'在线观看视频| 男人和女人高潮做爰伦理| 老师上课跳d突然被开到最大视频| av天堂中文字幕网| 国产精品秋霞免费鲁丝片| 男男h啪啪无遮挡| 欧美高清性xxxxhd video| 亚洲中文av在线| 免费播放大片免费观看视频在线观看| 精品久久久久久久末码| 国产精品熟女久久久久浪| 精品熟女少妇av免费看| 1000部很黄的大片| 久久99蜜桃精品久久| 成人毛片a级毛片在线播放| 国产免费一级a男人的天堂| 肉色欧美久久久久久久蜜桃| 这个男人来自地球电影免费观看 | 偷拍熟女少妇极品色| 成人无遮挡网站| 色婷婷久久久亚洲欧美| 99热这里只有是精品在线观看| 久久精品国产亚洲av天美| 青春草视频在线免费观看| 国产av一区二区精品久久 | 国产成人精品福利久久| 三级经典国产精品| 久久精品人妻少妇| 草草在线视频免费看| 我的女老师完整版在线观看| 久久久精品94久久精品| 91精品伊人久久大香线蕉| 狂野欧美激情性bbbbbb| 亚洲av综合色区一区| 国产91av在线免费观看| 青春草视频在线免费观看| 色综合色国产| 欧美xxxx性猛交bbbb| 国产欧美日韩一区二区三区在线 | 人人妻人人添人人爽欧美一区卜 | 久久久久久九九精品二区国产| 五月伊人婷婷丁香| 成人国产av品久久久| 国精品久久久久久国模美| 老司机影院成人| 国产精品久久久久久久久免| 联通29元200g的流量卡| 网址你懂的国产日韩在线| 午夜日本视频在线| 777米奇影视久久| 99热国产这里只有精品6| 免费高清在线观看视频在线观看| 男女免费视频国产| 最黄视频免费看| 有码 亚洲区| xxx大片免费视频| 亚洲成人手机| 内地一区二区视频在线| 精品久久久噜噜| 黄色配什么色好看| 蜜臀久久99精品久久宅男| 国产精品国产三级国产av玫瑰| 免费av中文字幕在线| 久久6这里有精品| 久久精品国产亚洲网站| 一个人免费看片子| 成人高潮视频无遮挡免费网站| 亚洲欧洲国产日韩| 在线 av 中文字幕| 欧美老熟妇乱子伦牲交| 亚洲综合色惰| 国产亚洲一区二区精品| 久久人妻熟女aⅴ| 有码 亚洲区| 欧美3d第一页| 亚洲第一区二区三区不卡| 日本猛色少妇xxxxx猛交久久| 亚洲精品成人av观看孕妇| 亚洲,欧美,日韩| 精品国产三级普通话版| 少妇人妻精品综合一区二区| 久久国产精品大桥未久av | 欧美zozozo另类| 尤物成人国产欧美一区二区三区| 男女啪啪激烈高潮av片| 嫩草影院入口| 亚洲人成网站在线观看播放| 亚洲国产av新网站| 亚洲精品第二区| 午夜视频国产福利| 久久99热这里只有精品18| 中文字幕精品免费在线观看视频 | 亚洲第一区二区三区不卡| 日韩伦理黄色片| 男的添女的下面高潮视频| 久久久久国产网址| 高清黄色对白视频在线免费看 | .国产精品久久| 久久99精品国语久久久| 2018国产大陆天天弄谢| 好男人视频免费观看在线| 欧美丝袜亚洲另类| 美女中出高潮动态图| 国产成人freesex在线| av在线观看视频网站免费| 免费av中文字幕在线| 夜夜骑夜夜射夜夜干| 精品99又大又爽又粗少妇毛片| 国产伦理片在线播放av一区| 国产高清不卡午夜福利| 成人毛片a级毛片在线播放| 老女人水多毛片| 久久精品久久久久久久性| 国产伦精品一区二区三区四那| 免费看光身美女| 内射极品少妇av片p| 国产熟女欧美一区二区| 亚洲精品日韩在线中文字幕| 成人国产麻豆网| 亚洲精品国产色婷婷电影| 国产精品嫩草影院av在线观看| 国产精品伦人一区二区| 赤兔流量卡办理| 人体艺术视频欧美日本| 亚洲欧洲国产日韩| 日本av手机在线免费观看| 国产黄色视频一区二区在线观看| 精品一区二区三卡| 黄色日韩在线| 中文欧美无线码| 一级片'在线观看视频| 一区二区三区免费毛片| 男人狂女人下面高潮的视频| 大又大粗又爽又黄少妇毛片口| 欧美高清成人免费视频www| 日韩人妻高清精品专区| 五月玫瑰六月丁香| 日本一二三区视频观看| 成年av动漫网址| 亚洲精华国产精华液的使用体验| 边亲边吃奶的免费视频| 国产精品一区二区在线不卡| 水蜜桃什么品种好| 久久久a久久爽久久v久久| 欧美区成人在线视频| 日韩不卡一区二区三区视频在线| 久久99精品国语久久久| 精品国产一区二区三区久久久樱花 | 精品一区二区三区视频在线| 国产色爽女视频免费观看| 两个人的视频大全免费| 舔av片在线| 三级国产精品片| 免费黄网站久久成人精品| 国产白丝娇喘喷水9色精品| 在线观看一区二区三区| 免费观看的影片在线观看| 小蜜桃在线观看免费完整版高清| 国产高潮美女av| 国产国拍精品亚洲av在线观看| 97精品久久久久久久久久精品| 国产伦理片在线播放av一区| 精品国产三级普通话版| 精品一区二区三区视频在线| 久久精品熟女亚洲av麻豆精品| 国产亚洲5aaaaa淫片| 一边亲一边摸免费视频| 99热全是精品| 精品酒店卫生间| 中国三级夫妇交换| 好男人视频免费观看在线| 国产日韩欧美在线精品| 久久久久久九九精品二区国产| 99九九线精品视频在线观看视频| 免费黄网站久久成人精品| 国产欧美亚洲国产| 中国三级夫妇交换| 97热精品久久久久久| 精品人妻一区二区三区麻豆| 欧美日本视频| 亚洲成人一二三区av| 久久久精品免费免费高清| 亚洲色图av天堂| 少妇人妻 视频| 91精品伊人久久大香线蕉| av线在线观看网站| 亚洲国产日韩一区二区| 亚洲美女视频黄频| 日日摸夜夜添夜夜爱| 久久精品国产亚洲av天美| 黄色配什么色好看| 欧美bdsm另类| 91精品伊人久久大香线蕉| 精品人妻一区二区三区麻豆| 精品国产露脸久久av麻豆| 亚洲精品色激情综合| 国产亚洲精品久久久com| 久久久久久久久久久丰满| .国产精品久久| 国产亚洲最大av| 国产精品麻豆人妻色哟哟久久| 亚洲美女黄色视频免费看| 欧美日韩国产mv在线观看视频 | 精华霜和精华液先用哪个| 51国产日韩欧美| 99精国产麻豆久久婷婷| 18禁在线无遮挡免费观看视频| 97超碰精品成人国产| 亚州av有码| 亚洲不卡免费看| 只有这里有精品99| 51国产日韩欧美| 永久网站在线| 毛片一级片免费看久久久久| 国产毛片在线视频| 成人特级av手机在线观看| 国产日韩欧美在线精品| 各种免费的搞黄视频| 中文字幕制服av| freevideosex欧美| 午夜激情福利司机影院| 久久热精品热| 精品人妻熟女av久视频| 亚洲欧美一区二区三区黑人 | 又爽又黄a免费视频| 亚洲成人中文字幕在线播放| 日韩一区二区三区影片| 日日啪夜夜撸| 久久久久性生活片| 交换朋友夫妻互换小说| 大香蕉97超碰在线| 欧美三级亚洲精品| 大香蕉97超碰在线| 亚洲第一区二区三区不卡| 国产精品久久久久久av不卡| 人妻制服诱惑在线中文字幕| 深爱激情五月婷婷| 久久久欧美国产精品| 久久人人爽人人爽人人片va| 成人综合一区亚洲| 亚洲精品乱久久久久久| 亚洲人成网站高清观看| 国产精品人妻久久久影院| 狠狠精品人妻久久久久久综合| 免费人妻精品一区二区三区视频| 久久精品夜色国产| 亚洲av国产av综合av卡| 国产黄色视频一区二区在线观看| 日韩一本色道免费dvd| 色婷婷久久久亚洲欧美| 1000部很黄的大片| 在线免费十八禁| 精品熟女少妇av免费看| 亚洲av免费高清在线观看| 最近中文字幕2019免费版| 天美传媒精品一区二区| 日本黄色日本黄色录像| 亚洲欧美日韩卡通动漫| 日韩,欧美,国产一区二区三区| 亚洲国产精品一区三区| 欧美高清成人免费视频www| 精品久久国产蜜桃| 新久久久久国产一级毛片| 午夜日本视频在线| 久久 成人 亚洲| 99热这里只有精品一区| av福利片在线观看| 99热网站在线观看| 亚洲精品国产av成人精品| 亚洲av中文字字幕乱码综合| 汤姆久久久久久久影院中文字幕| 又粗又硬又长又爽又黄的视频| 麻豆精品久久久久久蜜桃| 国产成人精品久久久久久| 国产伦精品一区二区三区视频9| 夜夜骑夜夜射夜夜干| 亚洲精华国产精华液的使用体验| 亚洲熟女精品中文字幕| 夜夜骑夜夜射夜夜干| 欧美高清成人免费视频www| 欧美日韩精品成人综合77777| 一区二区三区免费毛片| 成人美女网站在线观看视频| av在线观看视频网站免费| 精品久久久久久久末码| 黑丝袜美女国产一区| 欧美成人a在线观看| 国产欧美亚洲国产| 六月丁香七月| 插逼视频在线观看| 热99国产精品久久久久久7| 最近最新中文字幕大全电影3| 精品一区二区免费观看| 直男gayav资源| 一区二区av电影网| 国产在线一区二区三区精| 国产精品秋霞免费鲁丝片| 九九爱精品视频在线观看| 欧美日韩精品成人综合77777| 蜜桃亚洲精品一区二区三区| 欧美精品一区二区免费开放| 秋霞在线观看毛片| 国产一区二区三区av在线| 国产精品久久久久久精品古装| 亚洲精品久久久久久婷婷小说| 日韩 亚洲 欧美在线| 成人毛片a级毛片在线播放| 简卡轻食公司| 亚洲精品久久久久久婷婷小说| 亚洲精品第二区| 汤姆久久久久久久影院中文字幕| 建设人人有责人人尽责人人享有的 | 十分钟在线观看高清视频www | 欧美变态另类bdsm刘玥| 亚洲av男天堂| 色婷婷久久久亚洲欧美| 人妻少妇偷人精品九色| 国产成人freesex在线| 亚洲国产欧美人成| av在线老鸭窝| 久久久成人免费电影| 国产一级毛片在线| 亚洲真实伦在线观看| 亚洲精品第二区| 免费看不卡的av| 日本猛色少妇xxxxx猛交久久| 观看免费一级毛片| 亚洲欧美成人综合另类久久久| 亚洲精品中文字幕在线视频 | 国产大屁股一区二区在线视频| 欧美日韩在线观看h| 国产精品99久久99久久久不卡 | 亚洲精品久久午夜乱码| 美女中出高潮动态图| 亚洲伊人久久精品综合| 久热久热在线精品观看| 国产精品成人在线| 狂野欧美白嫩少妇大欣赏| 成年美女黄网站色视频大全免费 | 国产精品一区二区在线观看99| 一级毛片久久久久久久久女| 80岁老熟妇乱子伦牲交| 国产成人精品婷婷| 亚洲av在线观看美女高潮| 只有这里有精品99| 久久国内精品自在自线图片| 五月开心婷婷网| 亚洲aⅴ乱码一区二区在线播放| 亚洲无线观看免费| 国产精品爽爽va在线观看网站| 久热这里只有精品99| 亚洲国产欧美在线一区| 国产乱人偷精品视频| av播播在线观看一区| 久久人人爽人人片av| 国产永久视频网站| 毛片女人毛片| 久久久久久久久久久免费av| 超碰av人人做人人爽久久| 日韩视频在线欧美| 一区二区av电影网| 国产精品一区www在线观看| 制服丝袜香蕉在线| 久久国内精品自在自线图片| 欧美区成人在线视频| 天天躁日日操中文字幕| 国产在线免费精品| 激情五月婷婷亚洲| 成人美女网站在线观看视频| 国产精品国产三级国产av玫瑰| 九九爱精品视频在线观看| 视频区图区小说| 欧美日韩亚洲高清精品| 国产精品偷伦视频观看了| 五月天丁香电影| 成人免费观看视频高清| 麻豆国产97在线/欧美| 国产大屁股一区二区在线视频| 汤姆久久久久久久影院中文字幕| av国产久精品久网站免费入址| 日韩一区二区视频免费看| 日韩不卡一区二区三区视频在线| 中文乱码字字幕精品一区二区三区| 国产精品成人在线| 有码 亚洲区| 亚洲精品456在线播放app| 国产av精品麻豆| 多毛熟女@视频| 丝袜喷水一区| 美女主播在线视频| 狂野欧美激情性bbbbbb| 亚洲成人av在线免费| a级毛片免费高清观看在线播放| 亚洲不卡免费看| 国产黄色免费在线视频| 成人无遮挡网站| 久久精品国产亚洲av涩爱| av免费在线看不卡| 九九爱精品视频在线观看| 黄片wwwwww| 色视频www国产| 男女边摸边吃奶| 五月天丁香电影| 国产熟女欧美一区二区| 亚洲婷婷狠狠爱综合网| 国产在线视频一区二区| 少妇裸体淫交视频免费看高清| 熟女av电影| 男女国产视频网站| 亚洲av中文字字幕乱码综合| 日韩中文字幕视频在线看片 | 亚洲欧美一区二区三区黑人 | 超碰av人人做人人爽久久| 又黄又爽又刺激的免费视频.| 男女下面进入的视频免费午夜| 18禁动态无遮挡网站| 亚洲精品久久久久久婷婷小说| 丝袜脚勾引网站| 插逼视频在线观看| 午夜福利视频精品| 小蜜桃在线观看免费完整版高清| 久久久成人免费电影| 性色av一级| 国产精品一区二区性色av| 久久精品久久精品一区二区三区| 黄色欧美视频在线观看| 各种免费的搞黄视频| 亚洲第一av免费看| 久久久久久伊人网av| 极品少妇高潮喷水抽搐| 国产成人91sexporn| 久久久久久久国产电影| 久久99热这里只有精品18| 老熟女久久久| av播播在线观看一区| 色视频www国产| 久久99蜜桃精品久久| 美女高潮的动态| 午夜福利高清视频| 2021少妇久久久久久久久久久| 免费大片黄手机在线观看| 中国国产av一级| 国产高清三级在线| 欧美bdsm另类| 秋霞在线观看毛片| 中文字幕av成人在线电影| 插阴视频在线观看视频| 女性生殖器流出的白浆| 少妇裸体淫交视频免费看高清| 欧美人与善性xxx| 国产av国产精品国产| 国产欧美亚洲国产| 啦啦啦视频在线资源免费观看| 看免费成人av毛片| 国产成人免费无遮挡视频| www.av在线官网国产| 午夜免费鲁丝| 97超碰精品成人国产| 夫妻午夜视频| 亚洲第一av免费看| xxx大片免费视频| 九九爱精品视频在线观看| 国产真实伦视频高清在线观看| 乱系列少妇在线播放| 熟女av电影| 精品久久久久久电影网| 国产在线一区二区三区精| 一区二区三区精品91| 一区二区三区乱码不卡18| 久久久久久久久久久免费av| 亚洲成人手机| 三级经典国产精品| 欧美成人一区二区免费高清观看| 欧美最新免费一区二区三区| 国产av国产精品国产| 99国产精品免费福利视频| 噜噜噜噜噜久久久久久91| 男人添女人高潮全过程视频| 99热网站在线观看| 欧美高清性xxxxhd video| 成人高潮视频无遮挡免费网站| 成人毛片a级毛片在线播放| 男人爽女人下面视频在线观看| 欧美精品一区二区大全| 亚洲国产精品成人久久小说| 亚洲欧美一区二区三区黑人 | 色5月婷婷丁香| 国产精品免费大片| 99热这里只有是精品50| 精品久久国产蜜桃| 色5月婷婷丁香| 美女福利国产在线 | 99热国产这里只有精品6| 极品少妇高潮喷水抽搐| 亚洲国产欧美在线一区| 久久久久久久亚洲中文字幕| 色婷婷av一区二区三区视频| 免费黄频网站在线观看国产| 国产一区亚洲一区在线观看| 精品亚洲乱码少妇综合久久| 搡女人真爽免费视频火全软件| 婷婷色av中文字幕| 国产午夜精品久久久久久一区二区三区| 午夜激情福利司机影院| 亚洲精品视频女| 日韩一区二区三区影片| 午夜日本视频在线| 午夜激情福利司机影院| 久久久亚洲精品成人影院| 乱系列少妇在线播放| 永久免费av网站大全| 国产精品久久久久成人av| 国产av精品麻豆| 18禁裸乳无遮挡免费网站照片| 国产高清不卡午夜福利| av国产久精品久网站免费入址| 欧美三级亚洲精品| 人妻少妇偷人精品九色| 亚洲精品久久久久久婷婷小说| 久久人人爽人人片av| 日产精品乱码卡一卡2卡三| 麻豆乱淫一区二区| 国产精品国产三级专区第一集| 久久久久性生活片| 午夜福利在线在线| 麻豆乱淫一区二区| 蜜臀久久99精品久久宅男| 免费在线观看成人毛片| av在线观看视频网站免费| 国产精品久久久久久久久免| 少妇人妻久久综合中文| 久久精品熟女亚洲av麻豆精品| 免费av中文字幕在线| 欧美人与善性xxx| 啦啦啦视频在线资源免费观看| 九九在线视频观看精品| 成年人午夜在线观看视频| 只有这里有精品99| 亚洲美女搞黄在线观看| 一级毛片 在线播放| 久久这里有精品视频免费| 狂野欧美激情性xxxx在线观看| 另类亚洲欧美激情| 青青草视频在线视频观看| 人妻制服诱惑在线中文字幕| av卡一久久| 欧美三级亚洲精品| 国产老妇伦熟女老妇高清|