• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法

    2022-06-21 06:40:14陳代麗許國良
    計算機應(yīng)用 2022年5期
    關(guān)鍵詞:源域全局行人

    陳代麗,許國良*

    (1.重慶郵電大學(xué) 通信與信息工程學(xué)院,重慶 400065;2.重慶郵電大學(xué) 電子信息與網(wǎng)絡(luò)工程研究院,重慶 400065)(?通信作者電子郵箱xugl@cqupt.edu.cn)

    基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法

    陳代麗1,2,許國良1,2*

    (1.重慶郵電大學(xué) 通信與信息工程學(xué)院,重慶 400065;2.重慶郵電大學(xué) 電子信息與網(wǎng)絡(luò)工程研究院,重慶 400065)(?通信作者電子郵箱xugl@cqupt.edu.cn)

    針對行人重識別任務(wù)跨域遷移時性能嚴(yán)重衰退的問題,提出了一種基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法。首先,以ResNet50為基礎(chǔ)架構(gòu)并對其進(jìn)行調(diào)整使其適合行人重識別任務(wù),并引入實例-批歸一化網(wǎng)絡(luò)(IBN-Net)以提高模型的泛化能力,同時增加區(qū)域注意力分支以提取更具鑒別性的行人特征。對于源域的訓(xùn)練,將其作為分類任務(wù),使用交叉熵?fù)p失進(jìn)行源域的有監(jiān)督學(xué)習(xí),同時引入三元組損失來挖掘源域樣本的細(xì)節(jié),從而提高源域的分類性能。對于目標(biāo)域的訓(xùn)練,通過學(xué)習(xí)域內(nèi)變化來適應(yīng)源域和目標(biāo)域間的數(shù)據(jù)分布差異。在測試階段,以ResNet50 pool-5層的輸出作為圖像特征,并計算查詢圖像與候選圖像間的歐氏距離來度量兩者的相似度。在兩個大規(guī)模公共數(shù)據(jù)集Market-1501和DukeMTMC-reID上進(jìn)行實驗,所提方法的Rank-1準(zhǔn)確率分別達(dá)到80.1%和67.7%,平均精度均值(mAP)分別為49.5%和44.2%。實驗結(jié)果表明,所提方法在提高模型泛化能力方面性能較優(yōu)。

    無監(jiān)督域適應(yīng);域內(nèi)變化;行人重識別;注意力機制;鑒別特征

    0 引言

    作為智能安防領(lǐng)域的一個基本任務(wù),行人重識別(Person re-identification)[1]得到了學(xué)術(shù)界和工業(yè)界的長期關(guān)注。它旨在給定查詢圖像的前提下,檢索出不同時間、不同地點包含該行人的圖像。早期行人重識別主要集中于手工設(shè)計結(jié)構(gòu)特征或者距離度量學(xué)習(xí),隨著深度學(xué)習(xí)技術(shù)廣泛應(yīng)用于目標(biāo)檢測、目標(biāo)追蹤等領(lǐng)域,深度學(xué)習(xí)也逐漸應(yīng)用于重識別任務(wù)。在擁有良好的、足夠的訓(xùn)練數(shù)據(jù)的情況下,深度學(xué)習(xí)依靠強大的學(xué)習(xí)能力在大部分任務(wù)中可獲得較好的性能,包括行人重識別任務(wù)。然而,由于數(shù)據(jù)分布的較大偏差,在源域訓(xùn)練的模型直接部署于目標(biāo)域時將產(chǎn)生嚴(yán)重的性能衰退[2]。此外,有監(jiān)督學(xué)習(xí)需要大量有標(biāo)簽信息的訓(xùn)練數(shù)據(jù),這在實際場景中難以獲得。這些問題限制了有監(jiān)督重識別模型的應(yīng)用,因此研究者們提出了無監(jiān)督域適應(yīng)行人重識別方法以提高模型的泛化能力。

    最近無監(jiān)督域適應(yīng)行人重識別方法的重要思路之一是為缺少標(biāo)簽信息的目標(biāo)域樣本分配偽標(biāo)簽,使無監(jiān)督學(xué)習(xí)等同于有監(jiān)督學(xué)習(xí),比如:文獻(xiàn)[3]中對樣本特征相似度進(jìn)行聚類,并根據(jù)聚類結(jié)果為其分配偽標(biāo)簽;文獻(xiàn)[4]中通過比較未標(biāo)記的行人圖像與輔助域的參考行人圖像,為每個未標(biāo)記的行人學(xué)習(xí)標(biāo)簽似然向量,實現(xiàn)不同攝像機視域內(nèi)的行人重識別。也有方法主要關(guān)注如何縮小域差,例如文獻(xiàn)[5-7]中將來自源域的圖像翻譯到目標(biāo)域,形成具有目標(biāo)域圖像風(fēng)格的中間數(shù)據(jù)集并保留源域固有身份,使模型在中間數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練時就學(xué)習(xí)了目標(biāo)域圖像風(fēng)格,從而緩解目標(biāo)域與源域數(shù)據(jù)風(fēng)格差異對模型性能的影響。除此之外,有研究通過考慮目標(biāo)域域內(nèi)變化,提升重識別模型的泛化能力,比如:文獻(xiàn)[8]中研究了三種不變性即樣本不變性、相機不變性及鄰居不變性;文獻(xiàn)[9]中挖掘目標(biāo)數(shù)據(jù)集存在的一致性約束,增強全局線索和局部線索的協(xié)調(diào)性,并鼓勵給定實例與其正樣本有相似的特征,從而適應(yīng)域內(nèi)變化。

    總體來看,無監(jiān)督域適應(yīng)行人重識別研究基于解決思路和關(guān)注點不同,采用的方法也存在差異。從整體考慮,獲取更具鑒別性的行人特征是關(guān)注的基本問題;就考慮目標(biāo)域域內(nèi)變化的方法而言,不同樣本間的差異及不同攝像機所拍圖像風(fēng)格差異(攝像機編號分別為C1、C3、C6)如圖1所示,是影響模型跨域重識別性能的關(guān)鍵。

    圖1 域內(nèi)行人圖像變化Fig.1 Person image changes in domain

    針對上述問題,本文的主要工作如下:1)為提取更具鑒別性的行人特征,同時考慮樣本層級特征及區(qū)域注意力特征;2)引入實例-批歸一化網(wǎng)絡(luò)(Instance-Batch Normalization Network, IBN-Net),通過學(xué)習(xí)目標(biāo)域域內(nèi)變化,增強模型的泛化性。在兩個公開數(shù)據(jù)集Market-1501和DukeMTMC-reID上進(jìn)行了實驗,結(jié)果表明本文所提方法的綜合性能較優(yōu)。

    1 前期工作

    就跨域行人重識別任務(wù)而言,一般有兩個數(shù)據(jù)域:一是有標(biāo)簽信息的源域,它有位行人共張圖像,每個樣本對應(yīng)的身份標(biāo)簽為;二是沒有標(biāo)簽信息的目標(biāo)域,共有張圖像。除這些信息外,本文還需要目標(biāo)域攝像頭編號?;谝陨闲畔?,本文的目的是通過提取更具鑒別性的行人信息來學(xué)習(xí)目標(biāo)域的域內(nèi)變化,從而提升模型從源域遷移到目標(biāo)域的重識別性能。

    為估計目標(biāo)域樣本的相似性,本文首先構(gòu)建了一個樣本特征存儲庫,每一個位置存儲目標(biāo)域樣本的特征。在訓(xùn)練過程中,樣本特征存儲庫根據(jù)式(1)以迭代方式進(jìn)行更新:

    2 本文方法

    2.1 IBN-Net

    域間風(fēng)格差異是影響跨域行人重識別性能衰退的重要因素,與生成中間風(fēng)格圖像的方法[6,10]不同,本文直接提取風(fēng)格不變特征緩解域間風(fēng)格差異的影響。由于批歸一化(Batch Normalization, BN)[11]可以保存與內(nèi)容相關(guān)的信息,實例歸一化(Instance Normalization, IN)[12]對目標(biāo)的外觀變化具有魯棒性,因此用IN來處理與風(fēng)格相關(guān)的淺層特征,用BN來處理與高層特征相關(guān)的深度特征。在淺層網(wǎng)絡(luò)中加入IN時,同時加入BN層以保證與內(nèi)容相關(guān)的信息能順利通過深度網(wǎng)絡(luò)。IBN-Net結(jié)構(gòu)[13]如圖2所示。

    圖2 IBN-Net結(jié)構(gòu)Fig. 2 Structure of IBN-Net

    2.2 基于注意力機制的風(fēng)格不變網(wǎng)絡(luò)

    本文所提方法的總體結(jié)構(gòu)如圖3所示。該模型以ResNet50為基礎(chǔ)架構(gòu),其中ResNet50的殘差塊增加了IBN-Net,同時在ImageNet數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練。為進(jìn)行后續(xù)的重識別任務(wù),本文移除ResNet50-IBN用于分類的全連接層,并增加用于學(xué)習(xí)樣本特征的全局分支和用于學(xué)習(xí)區(qū)域注意力特征的區(qū)域注意力分支。

    對于全局特征分支,本文將ResNet50-IBN的pool-5層輸出通過全局平均池化(Global Average Pooling, GAP)處理后,經(jīng)過包含卷積、BN層及整流線性單元(Rectified Linear Unit, ReLU)激活的降維操作,得到一個256維的全局特征。

    圖3 所提方法的總體結(jié)構(gòu)Fig. 3 Overall structure of proposed method

    在提取區(qū)域注意力特征時,采用直接水平劃分特征圖的方式,將特征映射圖分為上下兩部分水平區(qū)域,再以注意力模塊CBAM(Convolutional Block Attention Module)[14]學(xué)習(xí)區(qū)域中重要特征并抑制其他無關(guān)特征,實現(xiàn)鑒別特征提取。CBAM依次使用通道和空間注意力模塊,以便每個分支可分別在通道和空間軸中學(xué)習(xí)要注意什么和注意哪里。將經(jīng)過切分后所得的上下部分區(qū)域特征圖、作為輸入,CBAM依次推斷1維通道注意映射圖、和2維空間注意映射圖、,如圖4所示。

    圖4 CBAM 結(jié)構(gòu)Fig. 4 Structure of CBAM

    當(dāng)?shù)玫絽^(qū)域注意力特征圖后,對每個特征圖使用全局最大池化(Global Max Pooling, GMP)和GAP的組合。與全局分支僅使用GAP不同,對區(qū)域注意力特征圖使用組合池化更有利于挖掘豐富的特征,之后再通過類似全局分支的降維操作獲得兩個256維的注意力特征。最后,將樣本特征與區(qū)域注意力特征沿通道維度連接,然后通過一個2 048維的全連接層,之后是BN層、ReLU層、Dropout層,最終得到行人鑒別特征。結(jié)合全局信息和區(qū)域注意信息可以彌補全局特征分支難以使用局部區(qū)域的語義信息[15]。利用主要特征并關(guān)注其中的關(guān)鍵特征,使得本文方法能識別相似度較高的難負(fù)樣本。

    2.3 源域的有監(jiān)督學(xué)習(xí)

    源域數(shù)據(jù)擁有身份信息,對該域數(shù)據(jù)的訓(xùn)練屬于有監(jiān)督范式。因此,本文使用交叉熵?fù)p失(Cross-entropy loss)和三元組損失(Triplet loss)的組合來進(jìn)行源域的有監(jiān)督學(xué)習(xí)。源域的交叉熵?fù)p失為:

    一般來說,訓(xùn)練數(shù)據(jù)中存在正樣本和負(fù)樣本,最小化正樣本間的距離和最大化負(fù)樣本間的距離有助于優(yōu)化行人的嵌入特征。故本文使用Hermans等[16]提出的三元組損失來挖掘訓(xùn)練圖像中的樣本細(xì)節(jié),源域的三元組損失為:

    通過聯(lián)合交叉熵?fù)p失和三元組損失得到源域有監(jiān)督損失為:

    在有標(biāo)簽信息的源域訓(xùn)練的重識別模型在具有相同數(shù)據(jù)分布的測試集上有相似的分類準(zhǔn)確率。事實上,不同數(shù)據(jù)集間的數(shù)據(jù)分布存在較大差異,直接將訓(xùn)練好的模型遷移到未知數(shù)據(jù)集上,模型性能可能發(fā)生嚴(yán)重衰減。為緩解該問題,本文進(jìn)一步學(xué)習(xí)目標(biāo)域的域內(nèi)變化,以提高模型的泛化能力。

    2.4 目標(biāo)域域內(nèi)變化學(xué)習(xí)

    在真實場景下,背景、姿態(tài)、照明、視角、相機等條件變化很大[17],采集的行人圖像在外觀上具有差異,甚至是擁有相同身份的行人樣本也不盡相同,即一張圖像只和自身有最高的相似度,故本文將每張圖像看作單獨的一類。對于目標(biāo)圖像,首先計算與存儲在樣本特征庫中的特征間的相似性,然后使用softmax函數(shù)預(yù)測樣本屬于類的概率:

    根據(jù)式(6),訓(xùn)練樣本被迫遠(yuǎn)離其他行人圖像,而同一身份的圖像特征應(yīng)該具有極高的相似性,強迫相同身份的行人具有明顯不同的表征將對模型產(chǎn)生消極影響[18]。為找到相同身份的行人,本文首先計算樣本與樣本特征庫中特征間的余弦相似性,并根據(jù)相似性,找到與最接近的個樣本作為它的最近鄰居集,并把對應(yīng)索引作為它的近鄰標(biāo)簽。不難想象,與樣本最相似的圖像是其本身,類別為。受ECN(Exemplar-invariance,Camera-invariance,Neighborhood-invariance)[8]的啟發(fā),目標(biāo)圖像應(yīng)和它對應(yīng)的最近鄰居共享相同身份,因此屬于鄰居標(biāo)簽的概率權(quán)重為:

    通過最小化相似圖像間的距離,充分利用了正樣本,提高了模型面對目標(biāo)域域內(nèi)變化的魯棒性。該目標(biāo)函數(shù)是一個軟標(biāo)簽損失,為:

    根據(jù)式(6)、(8),樣本間的損失為:

    在行人重識別任務(wù)中,行人可能在不同時間出現(xiàn)在不同攝像機視域內(nèi)。由于環(huán)境以及相機參數(shù)的影響,不同攝像機所攝圖像具有較大的風(fēng)格差異,如圖1(b)所示,這種差異可能會影響模型的重識別性能。為此,本文將每個攝像機視為不同的子域,用循環(huán)生成對抗網(wǎng)絡(luò)(Cycle-consistent Generative Adversarial Network, CycleGAN)[19]為目標(biāo)域訓(xùn)練相機風(fēng)格(Camera Style, CamStyle)[20]模型。根據(jù)CamStyle模型,來自攝像機的圖像將生成張其他攝像機風(fēng)格的圖像,同時保留原圖像的身份,是目標(biāo)域相機數(shù)量。訓(xùn)練時,從目標(biāo)域中選擇128張行人圖像作為模型輸入,其中部分圖像被隨機替換為對應(yīng)的風(fēng)格遷移圖像共同參與模型優(yōu)化。

    目標(biāo)域訓(xùn)練將樣本間的變化和攝像機風(fēng)格差異同時考慮在內(nèi),故總的目標(biāo)域優(yōu)化函數(shù)為:

    3 實驗與結(jié)果分析

    3.1 數(shù)據(jù)集和評估

    本文在常用的兩個大規(guī)模行人重識別數(shù)據(jù)集Martket-1501[21]和DukeMTMC-reID[22-23]上進(jìn)行驗證。

    Martket-1501包括由5個高清攝像頭和1個低清攝像頭共1 501位行人32 668幅行人圖像,其中用于訓(xùn)練的圖像有12 936張,分別來自于751位身份不同的行人,用于測試的數(shù)據(jù)來自750位行人共19 732張圖像數(shù)據(jù)。

    DukeMTMC-reID數(shù)據(jù)集是DukeMTMC數(shù)據(jù)集[23]的一個子集。它由隨機從視頻中每120幀采樣而得的702個身份共16 522張訓(xùn)練樣本、702個身份2 228張查詢圖像以及17 661張候選圖像組成,其中1 404人出現(xiàn)在大于兩個攝像頭下,有408人僅出現(xiàn)在一個攝像頭下。

    在訓(xùn)練過程中,以其中一個數(shù)據(jù)集作為源域,另一個數(shù)據(jù)集作為目標(biāo)域。在測試時,提取融合樣本特征和區(qū)域注意力特征的行人信息,計算查詢圖像與候選圖像間的歐氏距離作為它們的相似性,然后根據(jù)相似性計算累積匹配特征(Cumulated Matching Characteristics, CMC)曲線和平均精度均值(mean Average Precision, mAP)。

    3.2 實驗細(xì)節(jié)

    本文使用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的ResNet50-IBN作為主要框架,輸出層維度設(shè)置為批量輸入大小,移除最后的池化層和全連接層,得到特征映射圖后通過一個全局特征分支和一個區(qū)域注意力分支,并分別通過降維操作得到256維的特征圖,按照通道方向級聯(lián)。在訓(xùn)練時,固定ResNet50-IBN的layer1、layer2和layer3層的參數(shù),網(wǎng)絡(luò)輸出層參數(shù)則以正態(tài)分布初始化,并采用隨機梯度下降法(Stochastic Gradient Descent, SGD)來優(yōu)化模型。超參數(shù)的設(shè)置基本參照文獻(xiàn)[8]中,訓(xùn)練數(shù)據(jù)被重置為的大小,并經(jīng)過隨機翻轉(zhuǎn)、隨即裁剪及隨機擦除等常用數(shù)據(jù)增強操作,前40次迭代時,ResNet50-IBN的基礎(chǔ)層學(xué)習(xí)率設(shè)為0.01,其他新增網(wǎng)絡(luò)層學(xué)習(xí)率設(shè)為0.1,在后續(xù)的20次迭代中,學(xué)習(xí)率分別縮小為原來的1/10,Dropout概率設(shè)為0.3。目標(biāo)域最近鄰居數(shù)量,樣本特征存儲庫的特征更新率隨迭代次數(shù)的增加而增加,即。本文設(shè)置特征分布平衡因子,源域與目標(biāo)域損失比例。

    本文方法的構(gòu)建是基于Pytorch1.1.0的深度學(xué)習(xí)框架,所有實驗均在GPU型號為Tesla K40m的Linux服務(wù)器上進(jìn)行訓(xùn)練和測試。

    3.3 參數(shù)分析

    本文方法的各項參數(shù)可能對最終的行人重識別結(jié)果產(chǎn)生一定影響,如特征更新動量、特征分布、源域與目標(biāo)域損失權(quán)重以及鄰居范圍,其中參數(shù)是學(xué)習(xí)目標(biāo)域域內(nèi)變化的關(guān)鍵因素,故下面主要分析鄰居范圍對模型性能的影響。

    3.4 消融實驗

    表1給出了本文方法主要部分對模型性能的影響。與直接將ResNet50-IBN網(wǎng)絡(luò)(Baseline)在目標(biāo)域進(jìn)行測試相比,僅考慮全局特征分支(Global Feature Branch, GFB)學(xué)習(xí)目標(biāo)域域內(nèi)變化時,在Market-1501上Rank-1準(zhǔn)確率提高了33個百分點,結(jié)果表明模型對樣本變化和圖像風(fēng)格差異具有一定的魯棒性。若僅引入?yún)^(qū)域注意力分支(Region Attention Branch, RAB),特征映射圖被劃分為上下兩部分,CBAM注意力模塊提取重要特征,在學(xué)習(xí)域內(nèi)變化后,模型性能比僅考慮全局特征分支時略有提升,且相較于直接使用Baseline,性能提升更為顯著。同時考慮全局特征分支和區(qū)域注意力分支,以DukeMTMC-reID為源域,Market-1501為目標(biāo)域,模型的Rank-1準(zhǔn)確率達(dá)到80.1%,表明本文方法能有效提高跨域重識別性能。

    圖5 不同鄰居數(shù)在Rank-1準(zhǔn)確率上的評估Fig. 5 Evaluation of Rank-1 accuracy with different neighbor number

    3.5 性能對比

    將基于注意力機制學(xué)習(xí)域內(nèi)變化的行人重識別方法在兩個基準(zhǔn)數(shù)據(jù)集上的結(jié)果與其他無監(jiān)督域適應(yīng)方法進(jìn)行對比,包括:1)基于手工特征的表征模型LOMO(LOcal Maximal Occurrence)[24]和BoW(Bag-of-Words)[21];基于偽標(biāo)簽生成的方法SSG(Self-Similarity Grouping)[3]和MAR(MultilAbel Reference learning)[4];2)基于風(fēng)格遷移的方法SPGAN(Similarity Preserving Generative Adversarial Network)[5]、PTGAN(Person Transfer Generative Adversarial Network)[6]、CamStyle[20]及CSGAN(Cross-domain Similarity Generative Adversarial Network)[7];3)關(guān)注域內(nèi)變化的方法ECN[8]、D-MMD(Dissimilarity-based Maximum Mean Discrepancy)[25]和ICE(Intra-domain Consistency Enhancement)[9]。分別以Market-1501和DukeMTMC-reID為源域,DukeMTMC-reID和Market-1501為目標(biāo)域,將本文方法與對比方法的性能進(jìn)行比較,結(jié)果如表2所示。

    圖6 不同鄰居數(shù)在mAP上的評估Fig. 6 Evaluation of mAP with different neighbor number

    表1 不同分支性能對比 單位: %Tab. 1 Performance comparison of different branches unit: %

    表2 不同方法在Market-1501和DukeMTMC-reID上的性能比較 單位: %Tab. 2 Performance comparison of different methods on Market-1501 and DukeMTMC-reID unit: %

    由表2可知,本文方法在DukeMTMC-reID遷移到Market-1501和Market-1501遷移到DukeMTMC-reID上分別獲得了80.1%和67.7%的Rank-1準(zhǔn)確率,49.5%及44.2%的mAP。與ECN相比,對于DukeMTMC-reID遷移到Market-1501,本文方法的Rank-1和mAP分別提高了5個百分點和6.5個百分點;對于Market-1501遷移到DukeMTMC-reID,本文方法的Rank-1和mAP分別提高了4.4個百分點及3.8個百分點。雖然某些方法的性能優(yōu)于本文方法,比如模型ICE從DukeMTMC-reID遷移到Market-1501時,Rank-1達(dá)到了90.8%,mAP達(dá)到了73.8%,但是該方法使用教師學(xué)生模型緩解噪聲標(biāo)簽的影響,相較于本文所提方法更為復(fù)雜,故本文方法的綜合性能更優(yōu)。

    3.6 特征可視化

    為分析本文方法的有效性,本文使用Grad-CAM (Gradient-weighted Class Activation Mapping)[26]對模型的全局特征和區(qū)域注意力特征進(jìn)行可視化分析,可視化結(jié)果如圖7所示,依次是原始查詢圖、全局特征映射圖、區(qū)域注意力特征映射圖和總體特征映射圖,圖中顏色越深表示權(quán)重越大。全局特征分支從樣本層級關(guān)注行人鑒別信息,區(qū)域注意力分支從部分層級學(xué)習(xí)關(guān)鍵特征并抑制其他干擾信息,聯(lián)合兩個分支有助于模型提取更具鑒別力的特征。本文從樣本層級和部分層級出發(fā),通過學(xué)習(xí)行人鑒別信息及目標(biāo)域域內(nèi)變化,使模型的泛化能力有所提升,如圖7中的總體特征映射圖顯然比全局特征和注意力特征映射圖含有更多的信息。

    圖7 特征可視化結(jié)果Fig. 7 Feature visualization results

    4 結(jié)語

    本文提出了基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法,不僅在ResNet50的殘差塊中引入IBN-Net緩解跨域適應(yīng)問題,還引入CBAM注意力機制學(xué)習(xí)行人鑒別特征,同時通過學(xué)習(xí)目標(biāo)域域內(nèi)變化適應(yīng)不同數(shù)據(jù)集的數(shù)據(jù)分布差異,并在兩個行人重識別數(shù)據(jù)集上進(jìn)行驗證,驗證了本文方法的有效性,在數(shù)據(jù)集Market-1501和DukeMTMC-reID上的Rank-1準(zhǔn)確率分別達(dá)到了80.1%和67.7%,mAP分別達(dá)到了49.5%和44.2%。接下來將進(jìn)一步研究如何有效緩解不同數(shù)據(jù)集圖像間的風(fēng)格差異,進(jìn)一步提升重識別模型的易泛化性。

    [1] LI Y, WU Z Y, KARANAM S, et al. Real-world re-identification in an airport camera network [C]// Proceedings of the 2014 International Conference on Distributed Smart Cameras. New York: ACM,2014: 1-6.

    [2] LUO C C, SONG C F, ZHANG Z X. Generalizing person re-identification by camera-aware invariance learning and cross-domain mixup [C]// Proceedings of the 2020 16th European Conference on Computer Vision, LNCS 12360. Cham:Springer, 2020: 224-241.

    [3] FU Y, WEI Y C, WANG G S, et al. Self-similarity grouping: a simple unsupervised cross domain adaptation approach for person re-identification [C]// Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 6111-6120.

    [4] YU H X, ZHENG W S, WU A, et al. Unsupervised person re-identification by soft multi-label learning [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 2148-2157.

    [5] DENG W J, ZHENG L, YE Q X, et al. Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2018: 994-1003.

    [6] WEI L H, ZHANG S L, GAO W, et al. Person transfer GAN to bridge domain gap for person re-identification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 79-88.

    [7] ZHANG W Y, ZHU L, LU L. Improving the style adaptation for unsupervised cross-domain person re-identification [C]// Proceedings of the 2020 International Joint Conference on Neural Networks. Piscataway: IEEE. 2020: 1-8.

    [8] ZHONG Z, ZHENG L, LUO Z M, et al. Invariance matters: exemplar memory for domain adaptive person re-identification [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:598-607.

    [9] LI Y Y, YAO H T, XU C S. Intra-domain Consistency Enhancement for Unsupervised Person Re-identification [J]. IEEE Transactions on Multimedia, 2021, 24: 415-425.

    [10] WANG J Y, ZHU X T, GONG S G, et al. Transferable joint attribute-identity deep learning for unsupervised person re-identification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:2275-2284.

    [11] IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift [C]// Proceedings of the 2015 32nd International Conference on Machine Learning. New York: ACM, 2015: 448-456.

    [12] HUANG X, BELONGIE S. Arbitrary style transfer in real-time with adaptive instance normalization [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017:1510-1519.

    [13] PAN X G, LUO P, SHI J P, et al. Two at once: enhancing learning and generalization capacities via IBN-Net [C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11208. Cham: Springer, 2018:484-500.

    [14] WOO S Y, PARK J C, LEE J-Y, et al. CBAM: convolutional block attention module [C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211. Cham: Springer, 2018: 3-19.

    [15] 李佳賓,李學(xué)偉,劉宏哲,等.基于局部特征關(guān)聯(lián)與全局注意力機制的行人重識別[J].計算機工程,2022,48(1):245-252.(LI J B, LI X W, LIU H Z, et al. Person recognition based on local features relation and global attention mechanism [J]. Computer Engineering, 2022, 48(1): 245-252.)

    [16] HERMANS A, BEYER L, LEIBE B. In defense of the triplet loss for person re-identification [EB/OL]. [2020-12-13]. https://arxiv.org/pdf/1703.07737.pdf.

    [17] 廖華年,徐新.基于注意力機制的跨分辨率行人重識別[J].北京航空航天大學(xué)學(xué)報,2021,47(3):605-612.(LIAO H N, XU X Cross-resolution person re-identification based on attention mechanism [J]. Journal of Beijing University of Aeronautics and Astronautics, 2021, 47(3): 605-612.)

    [18] LIN Y T, XIE L X, WU Y, et al. Unsupervised person re-identification via softened similarity learning [C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020: 3387-3396.

    [19] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image to-image translation using cycle-consistent adversarial networks [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017:2242-2251.

    [20] ZHONG Z, ZHENG L, ZHENG Z D, et al. Camera style adaptation for person reidentification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2018: 5157-5166.

    [21] ZHENG L, SHEN L Y, TIAN L, et al. Scalable person re-identification: a benchmark [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015:1116-1124.

    [22] ZHENG Z D, ZHENG L, YANG Y. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 3774-3782.

    [23] RISTANI E, SOLERA F, ZOU R S, et al. Performance measures and a data set for multi-target, multi-camera tracking [C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9914. Cham: Springer, 2016:17-35.

    [24] LIAO S C, HU Y, ZHU X Y, et al. Person re-identification by local maximal occurrence representation and metric learning [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE, 2015: 2197-2206.

    [25] MEKHAZNI D, BHUIYAN A, ESKANDER G, et al. Unsupervised domain adaptation in the dissimilarity space for person re-identification [C]// Proceedings of the 2020 European Conference on Computer Vision, LNCS 12372. Cham: Springer, 2020:159-174.

    [26] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization [J]. International Journal of Computer Vision, 2020, 128(2): 336-359.

    Cross-domain person re-identification method based on attention mechanism with learning intra-domain variance

    CHEN Daili1,2, XU Guoliang1,2*

    (1.School of Communication and Information Engineering,Chongqing University of Posts and Telecommunications,Chongqing400065,China;2.Electronic Information and Networking Research Institute,Chongqing University of Posts and Telecommunications,Chongqing400065,China)

    To solve severe performance degradation problem of person re-identification task during cross-domain migration, a new cross-domain person re-identification method based on attention mechanism with learning intra-domain variance was proposed. Firstly, ResNet50 was used as the backbone network and some modifications were made to it, so that it was more suitable for person re-identification task. And Instance-Batch Normalization Network (IBN-Net) was introduced to improve the generalization ability of model. At the same time, for the purpose of learning more discriminative features, a region attention branch was added to the backbone network. For the training of source domain, it was treated as a classification task. Cross-entropy loss was utilized for supervised learning of source domain, and triplet loss was introduced to mine the details of source domain samples and improve the classification performance of source domain. For the training of target domain, intra-domain variance was considered to adapt the difference in data distribution between the source domain and the target domain. In the test phase, the output of ResNet50 pool-5 layer was used as image features, and Euclidean distance between query image and candidate image was calculated to measure the similarity of them. In the experiments on two large-scale public datasets of Market-1501 and DukeMTMC-reID, the Rank-1 accuracy of the proposed method is 80.1% and 67.7% respectively, and its mean Average Precision (mAP) is 49.5% and 44.2% respectively. Experimental results show that, the proposed method has better performance in improving generalization ability of model.

    unsupervised domain adaptation; intra-domain variance; person re-identification; attention mechanism; discriminative feature

    TP391.41

    A

    1001-9081(2022)05-1391-07

    10.11772/j.issn.1001-9081.2021030459

    2021?03?26;

    2021?06?22;

    2021?06?23。

    陳代麗(1996—),女,四川宜賓人,碩士研究生,主要研究方向:計算機視覺; 許國良(1973—),男,浙江金華人,教授,博士,主要研究方向:計算機視覺、大數(shù)據(jù)分析與挖掘。

    CHEN Daili, born in 1996,M. S. candidate. Her research interests include computer vision.

    XU Guoliang, born in 1973,Ph. D., professor. His research interests include computer vision, big data analysis and mining.

    猜你喜歡
    源域全局行人
    多源域適應(yīng)方法綜述
    Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
    量子Navier-Stokes方程弱解的全局存在性
    毒舌出沒,行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
    路不為尋找者而設(shè)
    揚子江(2019年1期)2019-03-08 02:52:34
    落子山東,意在全局
    金橋(2018年4期)2018-09-26 02:24:54
    我是行人
    可遷移測度準(zhǔn)則下的協(xié)變量偏移修正多源集成方法
    新思路:牽一發(fā)動全局
    另类亚洲欧美激情| 黑丝袜美女国产一区| 男女边摸边吃奶| 十分钟在线观看高清视频www| 国产成人av激情在线播放| 久久国产精品影院| 两个人免费观看高清视频| 免费观看av网站的网址| 老司机福利观看| 99九九在线精品视频| 久久久久久久国产电影| 美女高潮喷水抽搐中文字幕| av超薄肉色丝袜交足视频| 夜夜夜夜夜久久久久| 美女福利国产在线| 午夜精品国产一区二区电影| 高清视频免费观看一区二区| 亚洲五月婷婷丁香| 国产成人av激情在线播放| 黄网站色视频无遮挡免费观看| 两个人免费观看高清视频| 精品免费久久久久久久清纯 | 成人黄色视频免费在线看| 国产精品欧美亚洲77777| 国产成+人综合+亚洲专区| 午夜免费成人在线视频| 国产精品av久久久久免费| 国产熟女午夜一区二区三区| 久久国产精品人妻蜜桃| 12—13女人毛片做爰片一| 男女床上黄色一级片免费看| 亚洲,欧美精品.| 男女下面插进去视频免费观看| 18禁裸乳无遮挡动漫免费视频| 99九九在线精品视频| 老熟女久久久| 中文字幕另类日韩欧美亚洲嫩草| 一级片'在线观看视频| 又黄又粗又硬又大视频| 亚洲欧美色中文字幕在线| 狠狠婷婷综合久久久久久88av| aaaaa片日本免费| 亚洲成人手机| 午夜福利视频在线观看免费| 亚洲黑人精品在线| 欧美大码av| 午夜两性在线视频| 久久久水蜜桃国产精品网| 亚洲一区二区三区欧美精品| 亚洲欧洲日产国产| 午夜激情av网站| 欧美av亚洲av综合av国产av| 性色av乱码一区二区三区2| 亚洲精品乱久久久久久| 国产老妇伦熟女老妇高清| 免费少妇av软件| 亚洲欧美一区二区三区黑人| 正在播放国产对白刺激| 在线观看www视频免费| 国产精品免费一区二区三区在线 | 午夜精品久久久久久毛片777| 高潮久久久久久久久久久不卡| 不卡一级毛片| 亚洲精品国产精品久久久不卡| 中文字幕人妻熟女乱码| 久久精品国产综合久久久| 国产在线一区二区三区精| 亚洲人成77777在线视频| 国产一区二区在线观看av| 久久 成人 亚洲| 男人舔女人的私密视频| 亚洲av第一区精品v没综合| 老司机福利观看| 国产老妇伦熟女老妇高清| 亚洲美女黄片视频| 丝袜美腿诱惑在线| 在线av久久热| 欧美精品亚洲一区二区| 18禁国产床啪视频网站| 99久久国产精品久久久| 久久青草综合色| 成年版毛片免费区| 一区二区日韩欧美中文字幕| 国产有黄有色有爽视频| 午夜久久久在线观看| 九色亚洲精品在线播放| 日本精品一区二区三区蜜桃| 日本wwww免费看| 色播在线永久视频| 在线观看免费视频网站a站| 老鸭窝网址在线观看| 成人18禁在线播放| 丝袜在线中文字幕| 免费观看人在逋| 亚洲国产欧美在线一区| 激情视频va一区二区三区| 捣出白浆h1v1| 成年女人毛片免费观看观看9 | 天堂俺去俺来也www色官网| 男女床上黄色一级片免费看| 99热国产这里只有精品6| 精品卡一卡二卡四卡免费| 亚洲美女黄片视频| 最近最新免费中文字幕在线| 窝窝影院91人妻| 丝瓜视频免费看黄片| 黄色视频,在线免费观看| 国产精品亚洲av一区麻豆| 欧美精品啪啪一区二区三区| 人妻 亚洲 视频| 这个男人来自地球电影免费观看| 91老司机精品| 涩涩av久久男人的天堂| 1024视频免费在线观看| 热re99久久国产66热| 色在线成人网| 久久亚洲真实| 怎么达到女性高潮| 国产男靠女视频免费网站| 欧美激情高清一区二区三区| 高清av免费在线| 中文亚洲av片在线观看爽 | 国产欧美日韩一区二区精品| 成人永久免费在线观看视频 | 亚洲情色 制服丝袜| 女人被躁到高潮嗷嗷叫费观| 免费高清在线观看日韩| 男女高潮啪啪啪动态图| 男人舔女人的私密视频| 久久精品国产亚洲av高清一级| 国产精品欧美亚洲77777| 麻豆乱淫一区二区| 国产欧美日韩精品亚洲av| 国产欧美日韩综合在线一区二区| 老司机深夜福利视频在线观看| av在线播放免费不卡| 午夜福利在线观看吧| 人人澡人人妻人| 久久人人97超碰香蕉20202| 国产伦人伦偷精品视频| av一本久久久久| 久久婷婷成人综合色麻豆| 日韩视频一区二区在线观看| 国产成人啪精品午夜网站| 在线观看www视频免费| 90打野战视频偷拍视频| 丰满人妻熟妇乱又伦精品不卡| 不卡一级毛片| 国产免费福利视频在线观看| 黄片播放在线免费| 巨乳人妻的诱惑在线观看| 久久精品成人免费网站| 黑人操中国人逼视频| 国产又色又爽无遮挡免费看| 操出白浆在线播放| 在线十欧美十亚洲十日本专区| 热99久久久久精品小说推荐| 性少妇av在线| 变态另类成人亚洲欧美熟女 | 两性午夜刺激爽爽歪歪视频在线观看 | 日韩大片免费观看网站| 久久久久久免费高清国产稀缺| 人人妻人人澡人人爽人人夜夜| 色综合欧美亚洲国产小说| 女同久久另类99精品国产91| 亚洲国产欧美日韩在线播放| av网站免费在线观看视频| 精品一区二区三区av网在线观看 | 后天国语完整版免费观看| 丝袜美足系列| 宅男免费午夜| 日韩中文字幕视频在线看片| 欧美 日韩 精品 国产| 性色av乱码一区二区三区2| av天堂久久9| 国产欧美日韩一区二区三区在线| a级毛片在线看网站| 啦啦啦中文免费视频观看日本| videos熟女内射| 最近最新免费中文字幕在线| 香蕉久久夜色| 1024香蕉在线观看| 成年女人毛片免费观看观看9 | 女人高潮潮喷娇喘18禁视频| 久久免费观看电影| 精品国产国语对白av| 考比视频在线观看| 十分钟在线观看高清视频www| 麻豆成人av在线观看| 岛国毛片在线播放| 伦理电影免费视频| 国产深夜福利视频在线观看| 国产黄频视频在线观看| 一边摸一边抽搐一进一出视频| 亚洲久久久国产精品| 亚洲精品乱久久久久久| 18禁观看日本| 十八禁人妻一区二区| 亚洲国产欧美网| 久久精品国产亚洲av香蕉五月 | 精品卡一卡二卡四卡免费| 少妇被粗大的猛进出69影院| 最新在线观看一区二区三区| 少妇粗大呻吟视频| 麻豆av在线久日| 中文字幕高清在线视频| 国产精品免费一区二区三区在线 | 亚洲欧洲精品一区二区精品久久久| 天天躁夜夜躁狠狠躁躁| 免费人妻精品一区二区三区视频| 女性被躁到高潮视频| 亚洲熟妇熟女久久| 国产精品欧美亚洲77777| 久久人人97超碰香蕉20202| av超薄肉色丝袜交足视频| 午夜日韩欧美国产| 十八禁网站免费在线| 国产成人欧美在线观看 | 日本黄色日本黄色录像| 熟女少妇亚洲综合色aaa.| 每晚都被弄得嗷嗷叫到高潮| 又大又爽又粗| 一区二区三区乱码不卡18| 免费在线观看完整版高清| 首页视频小说图片口味搜索| 三上悠亚av全集在线观看| 男女免费视频国产| 99九九在线精品视频| 国产不卡av网站在线观看| 亚洲国产av新网站| av免费在线观看网站| 亚洲av电影在线进入| 高清在线国产一区| 天天躁夜夜躁狠狠躁躁| 两性夫妻黄色片| 超碰成人久久| 国产精品.久久久| 午夜成年电影在线免费观看| videos熟女内射| 99riav亚洲国产免费| 又黄又粗又硬又大视频| 一个人免费在线观看的高清视频| 我的亚洲天堂| 精品视频人人做人人爽| 一本色道久久久久久精品综合| 国产精品久久久久久精品古装| 亚洲av第一区精品v没综合| av国产精品久久久久影院| 日韩欧美一区视频在线观看| e午夜精品久久久久久久| 日韩中文字幕欧美一区二区| 天天操日日干夜夜撸| 日日摸夜夜添夜夜添小说| 国产免费av片在线观看野外av| 亚洲国产av影院在线观看| 午夜两性在线视频| 电影成人av| 一区二区三区乱码不卡18| 天堂动漫精品| svipshipincom国产片| 国产日韩欧美亚洲二区| 99久久国产精品久久久| 丝袜在线中文字幕| 国产色视频综合| 不卡av一区二区三区| 国产一区二区激情短视频| 欧美中文综合在线视频| 精品亚洲乱码少妇综合久久| 国产熟女午夜一区二区三区| 精品国产超薄肉色丝袜足j| 亚洲一码二码三码区别大吗| 久久精品国产综合久久久| 免费在线观看完整版高清| 日韩中文字幕视频在线看片| videos熟女内射| 亚洲人成电影免费在线| 精品国产超薄肉色丝袜足j| 亚洲一码二码三码区别大吗| 国产成+人综合+亚洲专区| 五月开心婷婷网| 欧美大码av| 日韩视频在线欧美| e午夜精品久久久久久久| 久久婷婷成人综合色麻豆| 视频在线观看一区二区三区| 老司机在亚洲福利影院| 亚洲欧美一区二区三区黑人| 又黄又粗又硬又大视频| 免费观看人在逋| 国精品久久久久久国模美| av视频免费观看在线观看| 亚洲成国产人片在线观看| 自线自在国产av| 大香蕉久久成人网| 久久国产精品影院| 色精品久久人妻99蜜桃| 黄色视频在线播放观看不卡| 亚洲一码二码三码区别大吗| 欧美 亚洲 国产 日韩一| 色94色欧美一区二区| 黄色怎么调成土黄色| 国产免费av片在线观看野外av| 18禁裸乳无遮挡动漫免费视频| 久久久久久久国产电影| 久9热在线精品视频| 麻豆乱淫一区二区| 免费看十八禁软件| 黄色成人免费大全| av超薄肉色丝袜交足视频| 99国产精品一区二区三区| 国产精品自产拍在线观看55亚洲 | 超碰97精品在线观看| 男女边摸边吃奶| 国产精品熟女久久久久浪| 91成年电影在线观看| 国产av国产精品国产| a级片在线免费高清观看视频| 婷婷丁香在线五月| 少妇精品久久久久久久| 在线av久久热| 午夜福利视频在线观看免费| 欧美黄色淫秽网站| 韩国精品一区二区三区| 精品国产一区二区久久| 国产高清视频在线播放一区| 国产精品成人在线| 国产视频一区二区在线看| 欧美精品一区二区大全| 激情在线观看视频在线高清 | 日韩中文字幕视频在线看片| 99re在线观看精品视频| 欧美成人免费av一区二区三区 | av欧美777| 成年女人毛片免费观看观看9 | 国产av一区二区精品久久| 久久精品国产99精品国产亚洲性色 | 久久久国产精品麻豆| 国产精品一区二区在线不卡| 国产一卡二卡三卡精品| 国产aⅴ精品一区二区三区波| av视频免费观看在线观看| 亚洲综合色网址| 男女午夜视频在线观看| 久久这里只有精品19| 91字幕亚洲| 日韩有码中文字幕| 伊人久久大香线蕉亚洲五| 欧美人与性动交α欧美精品济南到| 在线观看www视频免费| 国产黄色免费在线视频| 国产精品一区二区精品视频观看| 国产福利在线免费观看视频| 免费在线观看视频国产中文字幕亚洲| 狠狠婷婷综合久久久久久88av| 99久久99久久久精品蜜桃| 国产一区二区激情短视频| 中文字幕av电影在线播放| 十八禁网站免费在线| 国产一区二区 视频在线| 国产精品久久久人人做人人爽| 自拍欧美九色日韩亚洲蝌蚪91| 午夜福利视频在线观看免费| 中文字幕色久视频| 国产又色又爽无遮挡免费看| 免费久久久久久久精品成人欧美视频| 国产免费av片在线观看野外av| www.精华液| av在线播放免费不卡| 大码成人一级视频| h视频一区二区三区| 午夜激情久久久久久久| 精品视频人人做人人爽| 伦理电影免费视频| 亚洲久久久国产精品| 国产成人av激情在线播放| 男女床上黄色一级片免费看| 啦啦啦在线免费观看视频4| 国产一区二区三区综合在线观看| av国产精品久久久久影院| 亚洲精品美女久久av网站| 我的亚洲天堂| 国产一区二区激情短视频| 亚洲精品av麻豆狂野| 国产一区二区激情短视频| 99国产精品99久久久久| 一个人免费在线观看的高清视频| 一区二区三区乱码不卡18| 少妇裸体淫交视频免费看高清 | 国产成人欧美在线观看 | 日本a在线网址| 欧美精品啪啪一区二区三区| 久久久久久久久久久久大奶| 亚洲中文字幕日韩| 麻豆国产av国片精品| 国产成人欧美| 黄色片一级片一级黄色片| 日韩制服丝袜自拍偷拍| 操美女的视频在线观看| 亚洲第一av免费看| 久久久精品94久久精品| 99精品欧美一区二区三区四区| 亚洲国产中文字幕在线视频| 日韩欧美国产一区二区入口| 十八禁人妻一区二区| 天天躁日日躁夜夜躁夜夜| 精品乱码久久久久久99久播| av片东京热男人的天堂| 亚洲精品中文字幕在线视频| 国产精品国产高清国产av | av欧美777| 视频区图区小说| 精品一区二区三区视频在线观看免费 | 日韩中文字幕视频在线看片| 12—13女人毛片做爰片一| 如日韩欧美国产精品一区二区三区| 热99国产精品久久久久久7| 视频区欧美日本亚洲| 色视频在线一区二区三区| 丁香欧美五月| 免费人妻精品一区二区三区视频| 两性午夜刺激爽爽歪歪视频在线观看 | 精品国产一区二区三区久久久樱花| 窝窝影院91人妻| 欧美黄色片欧美黄色片| 色综合欧美亚洲国产小说| 精品一区二区三区视频在线观看免费 | 日韩有码中文字幕| 国产亚洲一区二区精品| 交换朋友夫妻互换小说| 亚洲国产欧美网| 老汉色av国产亚洲站长工具| 欧美精品av麻豆av| 波多野结衣av一区二区av| 18禁黄网站禁片午夜丰满| 久久久精品区二区三区| 国产精品久久久久久人妻精品电影 | 久久国产精品影院| 精品国产乱码久久久久久男人| 我的亚洲天堂| 两个人免费观看高清视频| 极品人妻少妇av视频| 婷婷成人精品国产| 国产成人精品久久二区二区91| 久久青草综合色| 麻豆成人av在线观看| 亚洲av日韩精品久久久久久密| 丰满人妻熟妇乱又伦精品不卡| 波多野结衣av一区二区av| 欧美日韩一级在线毛片| 国产精品98久久久久久宅男小说| 日韩视频一区二区在线观看| 久久久久久久久免费视频了| 久久亚洲精品不卡| 色综合欧美亚洲国产小说| 日本五十路高清| 中文字幕人妻熟女乱码| 日本黄色视频三级网站网址 | cao死你这个sao货| 国产成+人综合+亚洲专区| www日本在线高清视频| 国产精品久久久久久精品古装| 亚洲黑人精品在线| 成人永久免费在线观看视频 | 欧美日韩亚洲国产一区二区在线观看 | 欧美精品av麻豆av| 两个人免费观看高清视频| 首页视频小说图片口味搜索| 国产亚洲一区二区精品| 人成视频在线观看免费观看| 亚洲专区字幕在线| 十八禁网站免费在线| 91大片在线观看| 亚洲精品在线观看二区| 成人黄色视频免费在线看| 久久久久久免费高清国产稀缺| 久久人妻熟女aⅴ| 亚洲午夜理论影院| 国产午夜精品久久久久久| 成年女人毛片免费观看观看9 | 一个人免费在线观看的高清视频| 久久人人爽av亚洲精品天堂| 一区二区日韩欧美中文字幕| 一本—道久久a久久精品蜜桃钙片| 久久久久久久大尺度免费视频| 成人黄色视频免费在线看| 亚洲三区欧美一区| a在线观看视频网站| 9热在线视频观看99| 叶爱在线成人免费视频播放| 亚洲精品av麻豆狂野| 一本一本久久a久久精品综合妖精| 男女高潮啪啪啪动态图| 亚洲专区国产一区二区| 日韩精品免费视频一区二区三区| 午夜老司机福利片| 欧美日韩黄片免| 汤姆久久久久久久影院中文字幕| 国产精品免费视频内射| 久久99一区二区三区| 超碰成人久久| 亚洲av第一区精品v没综合| 一本久久精品| 亚洲性夜色夜夜综合| 日日夜夜操网爽| 亚洲精品美女久久久久99蜜臀| 久久国产精品人妻蜜桃| 蜜桃在线观看..| av一本久久久久| 两个人免费观看高清视频| 国产精品免费大片| 在线观看一区二区三区激情| 国产成人免费观看mmmm| 精品亚洲乱码少妇综合久久| 亚洲国产av影院在线观看| 日韩制服丝袜自拍偷拍| 日韩有码中文字幕| 国产野战对白在线观看| 成人18禁高潮啪啪吃奶动态图| 午夜福利免费观看在线| 国产精品久久久久久精品电影小说| 香蕉国产在线看| 久久久久久久国产电影| 国产精品欧美亚洲77777| 在线天堂中文资源库| 我要看黄色一级片免费的| 高清毛片免费观看视频网站 | 黄色丝袜av网址大全| 亚洲精品美女久久久久99蜜臀| 夜夜骑夜夜射夜夜干| a在线观看视频网站| 亚洲av成人不卡在线观看播放网| 欧美日韩亚洲国产一区二区在线观看 | 女人高潮潮喷娇喘18禁视频| 成人影院久久| 一个人免费在线观看的高清视频| 国产精品一区二区精品视频观看| 99久久国产精品久久久| h视频一区二区三区| 国产精品电影一区二区三区 | 久久久久国产一级毛片高清牌| 亚洲第一青青草原| 免费在线观看视频国产中文字幕亚洲| 日本av免费视频播放| 天天影视国产精品| 我的亚洲天堂| 久久99一区二区三区| 在线亚洲精品国产二区图片欧美| 熟女少妇亚洲综合色aaa.| 国产一区二区激情短视频| av免费在线观看网站| 黄色片一级片一级黄色片| 国产高清激情床上av| 亚洲中文日韩欧美视频| av网站免费在线观看视频| 成人特级黄色片久久久久久久 | 国产av国产精品国产| 欧美午夜高清在线| 国产精品欧美亚洲77777| 巨乳人妻的诱惑在线观看| 国产97色在线日韩免费| 国产淫语在线视频| av一本久久久久| 80岁老熟妇乱子伦牲交| 国产在线精品亚洲第一网站| 岛国毛片在线播放| 91九色精品人成在线观看| 久久人妻熟女aⅴ| 超碰成人久久| 久久亚洲真实| 在线观看免费视频日本深夜| 高清毛片免费观看视频网站 | 最近最新免费中文字幕在线| 一区二区三区激情视频| 午夜久久久在线观看| 午夜福利免费观看在线| 一级a爱视频在线免费观看| 免费不卡黄色视频| 宅男免费午夜| 又黄又粗又硬又大视频| 如日韩欧美国产精品一区二区三区| 在线观看一区二区三区激情| 亚洲欧美日韩高清在线视频 | 欧美激情久久久久久爽电影 | videos熟女内射| 91老司机精品| 在线看a的网站| 三上悠亚av全集在线观看| 亚洲精品国产色婷婷电影| 黄色视频,在线免费观看| 999久久久精品免费观看国产| 2018国产大陆天天弄谢| 成人免费观看视频高清| 一级a爱视频在线免费观看| 女人精品久久久久毛片| 十八禁网站网址无遮挡| 美女国产高潮福利片在线看| 久久这里只有精品19| 欧美黑人欧美精品刺激| 免费日韩欧美在线观看| 中文字幕人妻熟女乱码| 久久天堂一区二区三区四区| 日韩免费高清中文字幕av| 久久久国产成人免费| 热99久久久久精品小说推荐| 日韩免费高清中文字幕av| 亚洲天堂av无毛| 两个人免费观看高清视频| 丰满少妇做爰视频| 日本av免费视频播放| 国产主播在线观看一区二区| 欧美乱码精品一区二区三区| 国产av又大| 久久精品熟女亚洲av麻豆精品| 欧美日韩国产mv在线观看视频| 国产黄频视频在线观看|