• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于GAN的無監(jiān)督域自適應(yīng)行人重識(shí)別

      2021-03-11 07:38:58鄭聲晟殷海兵黃曉峰章天杰
      電信科學(xué) 2021年2期
      關(guān)鍵詞:行人姿勢(shì)標(biāo)簽

      鄭聲晟,殷海兵,黃曉峰,章天杰

      研究與開發(fā)

      基于GAN的無監(jiān)督域自適應(yīng)行人重識(shí)別

      鄭聲晟,殷海兵,黃曉峰,章天杰

      (杭州電子科技大學(xué)通信工程學(xué)院,浙江 杭州 310018)

      針對(duì)無監(jiān)督域自適應(yīng)行人重識(shí)別中存在的聚類不準(zhǔn)確導(dǎo)致網(wǎng)絡(luò)識(shí)別準(zhǔn)確率低的問題,提出一種基于生成對(duì)抗網(wǎng)絡(luò)的無監(jiān)督域自適應(yīng)行人重識(shí)別方法。首先通過在池化層后使用批量歸一化層、刪除一層全連接層和使用Adam優(yōu)化器等方法優(yōu)化CNN模型;然后基于最小錯(cuò)誤率貝葉斯決策理論分析聚類錯(cuò)誤率和選擇聚類關(guān)鍵參數(shù);最后利用生成對(duì)抗網(wǎng)絡(luò)調(diào)整聚類,有效提升了無監(jiān)督域自適應(yīng)行人重識(shí)別的識(shí)別準(zhǔn)確率。在源域Market-1501和目標(biāo)域DukeMTMC-reID下進(jìn)行實(shí)驗(yàn),mAP和Rank-1分別達(dá)到了53.7%和71.6%。

      無監(jiān)督域自適應(yīng);行人重識(shí)別;生成對(duì)抗網(wǎng)絡(luò)

      1 引言

      隨著城市人口的不斷增長(zhǎng)和視頻監(jiān)控系統(tǒng)的大量普及,社會(huì)公共安全問題越來越受到人們的重視。為了增強(qiáng)攝像頭網(wǎng)絡(luò)的安防水平,行人重識(shí)別(person re-identification,reID)技術(shù)得到了廣泛關(guān)注。行人重識(shí)別,也稱行人再識(shí)別,被視為圖像檢索問題的一個(gè)分支,其目的在于利用計(jì)算機(jī)技術(shù)在一些大型區(qū)域內(nèi)從非重疊多個(gè)攝像頭中檢索特定行人圖片[1-4]。行人重識(shí)別技術(shù)有效地解決了人工檢索的低效性問題,具有巨大的應(yīng)用價(jià)值和發(fā)展前景。目前的行人重識(shí)別技術(shù)在智能安防領(lǐng)域、無人超市、智能機(jī)器人等領(lǐng)域有廣泛的實(shí)際應(yīng)用。但同時(shí)行人重識(shí)別也面臨著許多困難,諸如服裝、光照、姿勢(shì)變換、遮擋物、攝像頭視角轉(zhuǎn)換和分辨率低等。

      傳統(tǒng)的行人重識(shí)別主要通過基于特定場(chǎng)景下大量帶標(biāo)簽的視頻圖像數(shù)據(jù)訓(xùn)練出一個(gè)穩(wěn)定可靠的模型[1-4]。但是這類監(jiān)督學(xué)習(xí)方法忽略了在實(shí)際應(yīng)用中系統(tǒng)對(duì)新場(chǎng)景的適應(yīng)性,并且依賴大量帶標(biāo)簽的行人數(shù)據(jù),而標(biāo)注工作往往需要耗費(fèi)大量的人力和物力,不利于系統(tǒng)的部署。在許多實(shí)際情況下,面臨的問題是訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)來自于不同的領(lǐng)域。無監(jiān)督域自適應(yīng)指將給定標(biāo)注的源數(shù)據(jù)集上學(xué)習(xí)好的模型應(yīng)用在未標(biāo)注的目標(biāo)數(shù)據(jù)集上,比如將在給定的數(shù)據(jù)集上訓(xùn)練好的模型投入機(jī)場(chǎng)、火車站、汽車站等公共場(chǎng)所中使用,可省去在新場(chǎng)景下行人數(shù)據(jù)采集標(biāo)注和模型訓(xùn)練的時(shí)間與精力,極具有實(shí)用性。

      生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network,GAN)自2014年被提出以來發(fā)展迅速,極大地推動(dòng)了行人重識(shí)別技術(shù)的發(fā)展[5-8]。眾所周知,行人重識(shí)別數(shù)據(jù)集構(gòu)建需要消耗大量的時(shí)間和精力,但生成對(duì)抗網(wǎng)絡(luò)可以通過生成圖片解決數(shù)據(jù)集內(nèi)每類樣本數(shù)量較少的問題,從而有效彌補(bǔ)了這一缺陷。目前的生成對(duì)抗網(wǎng)絡(luò)在行人重識(shí)別方面的作用主要是為傳統(tǒng)的行人重識(shí)別技術(shù)擴(kuò)充其訓(xùn)練所需的數(shù)據(jù)集,而本文提出了利用生成對(duì)抗網(wǎng)絡(luò)調(diào)整無監(jiān)督域自適應(yīng)行人重識(shí)別自訓(xùn)練框架中的聚類,有效地提高了識(shí)別準(zhǔn)確率。

      2 相關(guān)工作

      2.1 無監(jiān)督域自適應(yīng)的行人重識(shí)別

      早期的reID學(xué)者嘗試尋找在域之間共享的潛在特征空間來解決在目標(biāo)域上適應(yīng)的問題。Pan等[9]和Chen等[10]嘗試著找到一個(gè)特征空間,在特征空間中源域和目標(biāo)域的分布是相似的,并且采用了統(tǒng)計(jì)最大平均差(maximum mean discrepancy,MMD),為無監(jiān)督域自適應(yīng)reID發(fā)展奠定了基礎(chǔ)。

      目前為了解決reID域自適應(yīng)問題,學(xué)者提出了很多方法。Nigam等[11]提出了自訓(xùn)練框架,指在目標(biāo)域上進(jìn)行迭代猜測(cè),并且與期望最大化(expectation maximization,EM)算法密切相關(guān),該自訓(xùn)練框架的提出有效地提高了reID的性能,具有劃時(shí)代的意義。Deng等[12]和Wei等[13]將生成模型應(yīng)用于域自適應(yīng)中。Wang等[14]設(shè)計(jì)了一個(gè)學(xué)習(xí)屬性語義和身份識(shí)別特征表示的網(wǎng)絡(luò)。Li等[15]利用數(shù)據(jù)集之間的信息,并通過域自適應(yīng)和reID網(wǎng)絡(luò)得出域不變的特征。Song等[16]首先在源域上訓(xùn)練模型,然后對(duì)目標(biāo)域數(shù)據(jù)執(zhí)行聚類適應(yīng)模型,該聚類再訓(xùn)練的方法較為新穎,但是仍存在諸如聚類準(zhǔn)確性不高等問題。

      本文基于Song等[16]的自訓(xùn)練框架進(jìn)行優(yōu)化,自訓(xùn)練框架如圖1所示。在該框架中,首先利用在源域上訓(xùn)練好的CNN模型提取無標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)集的特征獲得矩陣T,接著通過距離度量獲得源域數(shù)據(jù)集與目標(biāo)數(shù)據(jù)集之間的距離矩陣ST,然后采用DBSCAN聚類算法對(duì)其進(jìn)行聚類,以賦予無標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)集標(biāo)簽數(shù)據(jù)。

      其中,τ為半徑,其取值為MST內(nèi)前P%元素的平均值,Song等[16]通過實(shí)驗(yàn)獲得最佳P值為1.610?3,n為密度閾值。最后將聚類的結(jié)果作為目標(biāo)數(shù)據(jù)集的標(biāo)簽來訓(xùn)練CNN模型,實(shí)現(xiàn)無監(jiān)督域自適應(yīng)達(dá)到reID較高的mAP和Rank-1。

      2.2 生成對(duì)抗網(wǎng)絡(luò)

      Goodfellow等[4]在2014年提出GAN,采用對(duì)抗策略訓(xùn)練模型。GAN由生成器和判別器組成,訓(xùn)練時(shí)極小化生成器損失,極大化判別器損失,交替進(jìn)行訓(xùn)練,這樣就形成了互相博弈對(duì)抗的過程。Ma等[17]首次解決人體姿勢(shì)轉(zhuǎn)換問題,根據(jù)給定的參考圖像,以目標(biāo)姿勢(shì)生成人體圖像。根據(jù)18個(gè)關(guān)鍵點(diǎn)組成18通道的關(guān)鍵點(diǎn)熱圖,然后將其與參考圖像連接起來,并輸入CNN中進(jìn)行對(duì)抗訓(xùn)練。

      目前GAN在行人重識(shí)別方面的作用主要是為傳統(tǒng)的行人重識(shí)別技術(shù)擴(kuò)充其訓(xùn)練所需的源域數(shù)據(jù)集,通過生成圖片解決數(shù)據(jù)集內(nèi)每類樣本數(shù)量較少的問題。而本文提出一種GAN在無監(jiān)督域自適應(yīng)reID上應(yīng)用的新思路,在圖1的自訓(xùn)練框架中使用GAN,而非直接擴(kuò)充源域訓(xùn)練所需的數(shù)據(jù)集。創(chuàng)新步驟體現(xiàn)在以下兩點(diǎn):第一步進(jìn)行聚類分析,基于最小錯(cuò)誤率貝葉斯決策理論來分析聚類錯(cuò)誤率和選擇聚類關(guān)鍵參數(shù);第二步利用GAN調(diào)整聚類,首先根據(jù)目標(biāo)域數(shù)據(jù)集聚類結(jié)果訓(xùn)練GAN,然后通過GAN生成不同姿勢(shì)的行人圖片來調(diào)整目標(biāo)域數(shù)據(jù)集聚類,最后按照調(diào)整后的聚類結(jié)果標(biāo)簽數(shù)據(jù)訓(xùn)練CNN,從而提高無監(jiān)督域自適應(yīng)reID的性能,整體優(yōu)化流程如圖2所示。

      3 優(yōu)化方法

      3.1 CNN優(yōu)化

      本文在CNN優(yōu)化部分基于Xiong等[18]的方法。第一步優(yōu)化是在池化(pooling)層之后直接使用批量歸一化(batch normalization,BN)層,BN層可以提供更穩(wěn)定的梯度,實(shí)現(xiàn)更快的收斂速度和更好的性能。第二步優(yōu)化是刪除一層全連接(fully connected,F(xiàn)C)層,以減少對(duì)最終效果的影響。第一步優(yōu)化是使用Adam優(yōu)化器代替SGD優(yōu)化器,防止過擬合。CNN模型優(yōu)化如圖3所示。

      3.2 聚類分析及參數(shù)選擇

      由上文可知,聚類結(jié)果的好壞會(huì)直接影響最后的自訓(xùn)練結(jié)果,而參數(shù)值的選擇又是影響聚類的關(guān)鍵之一。Song等[16]沒有解釋如何有效地選擇值,同時(shí)由于已對(duì)CNN優(yōu)化,當(dāng)前的值未必是最佳的值,因此本文提出一種基于最小錯(cuò)誤率貝葉斯決策的理論分析,以找到聚類錯(cuò)誤率最低的值。

      圖2 優(yōu)化流程

      圖3 CNN模型優(yōu)化

      因此對(duì)于源類ci,判定有nimax張圖片為聚類準(zhǔn)確,把這nimax張圖片所在的類認(rèn)為是源類ci的對(duì)應(yīng)正確類,稱之為目標(biāo)類Ci,該類包含的所有圖片數(shù)量為。而其他沒有被聚到目標(biāo)類Ci的源類ci圖片被聚到其他ID的目標(biāo)類Cj中,共有ei張,。其中,eij是源類ci的圖片被聚到其他ID的目標(biāo)類Cj中的圖片數(shù)量。所以,源類ci的圖片樣本數(shù)量,其組成如圖4所示。目標(biāo)類Ci不僅包含源類ci的部分圖片,可能還包含其他目標(biāo)類cj的圖片,共有Ei張,其中。其中,eji為源類cj的圖片被聚到目標(biāo)類Ci的數(shù)量。所以目標(biāo)類Ci的圖片樣本數(shù)量,其組成如圖5所示。

      圖5 目標(biāo)類Ci的圖片樣本數(shù)量組成

      獲得每個(gè)ID的聚類錯(cuò)誤概率后,可求出在該值下的錯(cuò)誤聚類概率密度函數(shù)。其中,由于每個(gè)ID的行人圖片數(shù)量都不相同,所以求和時(shí)要考慮各個(gè)ID圖片數(shù)量在總圖片數(shù)量的權(quán)重。因此在某個(gè)值下,兩種錯(cuò)誤聚類概率密度函數(shù)和合計(jì)錯(cuò)誤概率分別為:

      3.3 基于GAN的聚類調(diào)整

      該自訓(xùn)練框架中存在的不足就是在聚類時(shí)由于行人姿勢(shì)不同,常常將同一ID的行人圖片錯(cuò)分為多個(gè)類。如圖6所示,類1和類2中的行人圖片均屬于目標(biāo)域數(shù)據(jù)集中的同一ID,卻沒有被聚到一起。如果能將同一ID不同姿勢(shì)的圖片聚在一起,那么reID的性能將會(huì)得到提升。因此本文提出一種利用GAN調(diào)整聚類的方法,其流程圖如圖7所示,算法流程如算法1所示。

      圖6 聚類錯(cuò)誤

      算法1 基于GAN的無監(jiān)督域自適應(yīng)行人重識(shí)別算法

      輸入源域數(shù)據(jù)集,目標(biāo)域數(shù)據(jù)集,半徑,密度閾值

      輸出對(duì)于目標(biāo)域的特征提取器

      在源域上訓(xùn)練特征提取器;

      對(duì)目標(biāo)域進(jìn)行特征提取,計(jì)算距離矩陣1;

      聚類獲得標(biāo)簽數(shù)據(jù)1= DBSCAN(1,,);

      根據(jù)標(biāo)簽數(shù)據(jù)訓(xùn)練GAN;

      利用GAN生成相應(yīng)的規(guī)范姿勢(shì)圖片;

      對(duì)目標(biāo)域和生成圖片進(jìn)行特征提取,計(jì)算距離矩陣2;

      聚類獲得標(biāo)簽數(shù)據(jù)2= DBSCAN(2,,);

      針對(duì)2聚類結(jié)果進(jìn)行類別調(diào)整;

      針對(duì)2中任意兩個(gè)類A、B:

      if A中存在由B生成的圖片 then 合并AB;

      else if B中存在由A生成的圖片 then 合并AB;

      根據(jù)調(diào)整后的標(biāo)簽數(shù)據(jù)訓(xùn)練特征提取器;

      因?yàn)樵跓o監(jiān)督域自適應(yīng)reID中不能使用目標(biāo)域數(shù)據(jù)集的真實(shí)標(biāo)簽信息,所以從自訓(xùn)練中獲取聚類結(jié)果,對(duì)每一個(gè)類給定相應(yīng)的偽標(biāo)簽作為該類的ID,而不是直接使用真實(shí)的行人ID,利用偽標(biāo)簽訓(xùn)練GAN。

      訓(xùn)練好GAN后選定一組規(guī)范姿勢(shì),可選取前后左右4個(gè)方向差異較大的姿勢(shì)作為規(guī)范姿勢(shì)。將目標(biāo)域的每張圖片根據(jù)這組規(guī)范姿勢(shì)通過GAN生成其相應(yīng)的姿勢(shì)圖片,生成圖片可以按原目標(biāo)域圖片名稱加上姿勢(shì)名稱命名,方便后面調(diào)整聚類尋找。由生成姿勢(shì)圖片和目標(biāo)域圖片合成新的數(shù)據(jù)集,稱之為混合數(shù)據(jù)集,將其放入DBSCAN聚類中。得到混合數(shù)據(jù)集聚類結(jié)果后進(jìn)行調(diào)整,生成的姿勢(shì)圖片的作用是調(diào)整的依據(jù)。對(duì)于兩類A和B,首先在A中尋找是否存在由B中原目標(biāo)域圖片生成的姿勢(shì)圖片,尋找方式可由圖片名稱尋找,判斷A中生成圖片名稱所包含的原目標(biāo)域圖片是否存在B中,若存在則直接合并A和B;若不存在則在B中尋找是否存在由A中原目標(biāo)域圖片生成的姿勢(shì)圖片,若存在則合并A和B;若不存在則不合并,繼續(xù)尋找下兩個(gè)類。調(diào)整好聚類后將目標(biāo)域數(shù)據(jù)集按照調(diào)整后的標(biāo)簽進(jìn)行訓(xùn)練。

      圖7 基于GAN的聚類調(diào)整算法流程

      4 實(shí)驗(yàn)與分析

      4.1 數(shù)據(jù)集準(zhǔn)備

      實(shí)驗(yàn)使用數(shù)據(jù)集為Market-1501和DukeMTMC-reID,見表1。Market-1501數(shù)據(jù)集是清華大學(xué)于2015年公開的數(shù)據(jù)集,共有6個(gè)攝像頭、1 501個(gè)行人和32 668個(gè)已標(biāo)注的行人矩形框。其中訓(xùn)練集采集了751人的數(shù)據(jù),共12 936張圖像;測(cè)試集采集了750人的數(shù)據(jù),共19 732張圖像。DukeMTMC-reID數(shù)據(jù)集是杜克大學(xué)于2016年公開的數(shù)據(jù)集,共有8個(gè)攝像頭、1 404個(gè)行人和36 411個(gè)已標(biāo)注的行人矩形框。其中訓(xùn)練集采集了702人的數(shù)據(jù),共16 522張圖像;測(cè)試集采集了702人的數(shù)據(jù),共19 889張圖像。

      表1 數(shù)據(jù)集細(xì)節(jié)

      4.2 CNN優(yōu)化及參數(shù)分析選擇

      圖8 兩種錯(cuò)誤概率密度

      圖9 合計(jì)錯(cuò)誤概率密度

      根據(jù)實(shí)驗(yàn)結(jié)果可以看出取1.5×10?3時(shí)合計(jì)錯(cuò)誤概率最低,同時(shí)標(biāo)記對(duì)應(yīng)的半徑值0,以便后面使用。同時(shí)獲取了對(duì)應(yīng)的值下Market- 1501→DukeMTMC-reID的自訓(xùn)練結(jié)果,見表2??梢娫?1.5×10?3時(shí)Market-1501→ DukeMTMC- reID的mAP、Rank-1、Rank-5和Rank-10最好,分別為52.2%、70.2%、81.8%和85.5%,與合計(jì)錯(cuò)概率結(jié)果吻合。

      4.3 基于GAN的聚類調(diào)整

      在將混合數(shù)據(jù)集放入自訓(xùn)練聚類中時(shí)使用第4.2節(jié)中提到的半徑值0,以減少生成姿勢(shì)圖片對(duì)目標(biāo)域圖片的聚類影響。通過調(diào)整聚類有效解決了圖6的情況,將目標(biāo)域DukeMTMCT-reID的聚類類數(shù)從852個(gè)減少到736個(gè),同時(shí)其自訓(xùn)練結(jié)果mAP、Rank-1、Rank-5和Rank-10分別在第4.2節(jié)的基礎(chǔ)上提升了1.5%、1.4%、1.5%和2.7%。表3為各個(gè)無監(jiān)督域自適應(yīng)reID方法在Market- 1501→DukeMTMC-reID的比較。實(shí)驗(yàn)表明通過優(yōu)化CNN模型、聚類錯(cuò)誤分析和參數(shù)選擇可使reID性能顯著提升;通過調(diào)整聚類可改善由于姿勢(shì)不同導(dǎo)致的聚類錯(cuò)誤問題,從而進(jìn)一步提升reID性能。

      表2 不同P值Market-1501→DukeMTMC-reID比較

      表3 無監(jiān)督域自適應(yīng)reID方法Market-1501→DukeMTMC-reID比較

      5 結(jié)束語

      本文提出一種基于生成對(duì)抗網(wǎng)絡(luò)的無監(jiān)督域自適應(yīng)行人重識(shí)別方法,為生成對(duì)抗網(wǎng)絡(luò)在無監(jiān)督域自適應(yīng)行人重識(shí)別上的應(yīng)用提供了新思路,有效提升了無監(jiān)督域自適應(yīng)行人重識(shí)別的識(shí)別準(zhǔn)確率。該方法主要注重行人姿勢(shì)問題,將有助于促進(jìn)行人重識(shí)別在實(shí)際場(chǎng)景的應(yīng)用。但是行人重識(shí)別還存在著行人換衣、步態(tài)等難點(diǎn)亟待解決,相信隨著對(duì)抗生成網(wǎng)絡(luò)和其他科學(xué)技術(shù)的發(fā)展,越來越多的學(xué)者將在這些方向上開展更深的研究。

      [1]ZHENG L, YANG Y, HAUPTMANN A G, et al. Person re-identification: past, present and future[J]. arXiv: 1610. 02984, 2016.

      [2]王志宏, 楊震. 人工智能技術(shù)研究及未來智能化信息服務(wù)體系的思考[J]. 電信科學(xué), 2017, 33(5): 1-11.

      WANG Z H, YANG Z. Research on artificial intelligence technology and the future intelligent information service architecture[J]. Telecommunications Science, 2017, 33(5): 1-11.

      [3]楊鋒, 許玉, 尹夢(mèng)曉, 等. 基于深度學(xué)習(xí)的行人重識(shí)別綜述[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(5): 1243-1252.

      YANG F, XU Y, YIN M X, et al. Review on deep learning-based pedestrian re-identification[J]. Journal of Computer Applications, 2020, 40(5): 1243-1252.

      [4]羅浩. 深度學(xué)習(xí)時(shí)代的行人重識(shí)別技術(shù)[J]. 人工智能, 2019(2): 40-49.

      LUO H. Person re-identification technology in the era of deep learning[J]. Artificial Intelligence, 2019(2): 40-49.

      [5]GOODFELLOW I, POUGETABADIE J, MIRZA M, et al. Generative adversarial nets[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems-Volume 2. New York: ACM Press, 2014: 2672-2680.

      [6]賈川民, 趙政輝, 王苫社. 基于神經(jīng)網(wǎng)絡(luò)的圖像視頻編碼[J]. 電信科學(xué), 2019, 35(5): 32-42.

      JIA C M, ZHAO Z H, WANG S S. Neural network based image and video coding technologies[J]. Telecommunications Science, 2019, 35(5): 32-42.

      [7]王萬良, 李卓蓉. 生成式對(duì)抗網(wǎng)絡(luò)研究進(jìn)展[J]. 通信學(xué)報(bào), 2018, 39(2): 135-148.

      WANG W L, LI Z R. Advances in generative adversarial network[J]. Journal on Communications, 2018, 39(2): 135-148.

      [8]陳亮, 吳攀, 劉韻婷, 等. 生成對(duì)抗網(wǎng)絡(luò)GAN的發(fā)展與最新應(yīng)用[J]. 電子測(cè)量與儀器學(xué)報(bào), 2020, 34(6): 70-78.

      CHEN L, WU P, LIU Y T, et al. Development and application of the latest generation against the network of GAN[J]. Journal of Electronic Measurement and Instrumentation, 2020, 34(6): 70-78.

      [9]PAN S J, TSANG I W, KWOK J T, et al. Domain adaptation via transfer component analysis[J]. IEEE Transactions on Neural Networks, 2011, 22(2): 199-210.

      [10]CHEN B, LAM W, TSANG I W, et al. Extracting discriminative concepts for domain adaptation in text mining[C]//Proceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2009: 179-188.

      [11]Nigam K, Mccallum A, Mitchell T. Semi-supervised text classification using EM[M]//Semi-supervised learning. Cambridge: MIT Press, 2006: 33-38

      [12]DENG W, ZHENG L, YE Q, et al. Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification[J]. arXiv: 1711. 07027, 2018.

      [13]WEI L, ZHANG S, GAO W, et al. Person transfer GAN to bridge domain gap for person re-identification[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2018: 79-88.

      [14]WANG J, ZHU X, GONG S, et al. Transferable joint attribute-identity deep learning for unsupervised person re-identification[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2018: 2275-2284.

      [15]LI Y, YANG F, LIU Y, et al. Adaptation and re-identification network: an unsupervised deep transfer learning approach to person re-identification[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2018: 172-178.

      [16]SONG L, WANG C, ZHANG L, et al. Unsupervised domain adaptive re-identification: theory and practice[J]. arXiv: 1807. 11334, 2018.

      [17]MA L, JIA X, SUN Q, et al. Pose guided person image generation[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. New York: ACM Press, 2017: 406-416.

      [18]XIONG F, XIAO Y, CAO Z, et al. Towards good practices on building effective CNN baseline model for person re-identification[J]. arXiv: 1807.11042, 2018.

      GAN-based unsupervised domain adaptive person re-identification

      ZHENG Shengsheng, YIN Haibing, HUANG Xiaofeng, ZHANG Tianjie

      College of Communication Engineering, Hangzhou Dianzi University, Hangzhou 310018, China

      Aiming at the problem that the inaccurate clustering in the unsupervised domain adaptive pedestrian re-recognition results in low network recognition accuracy, an unsupervised domain adaptive pedestrian re-recognition method based on generative confrontation network was proposed. Firstly, the CNN model was optimized by using the batch normalization layer after the pooling layer, deleting a fully connected layer and adopting the Adam optimizer. Secondly, the cluster error was analyzed and the important parameter in the cluster was decided based on minimum error rate Bayesian decision theory. Finally, the generative adversarial network was utilized to adjust the cluster. These steps effectively improved the recognition accuracy of unsupervised domain adaptive person re-identification. In the case of the source domain Market-1501 and the target domain DukeMTMC-reID, experimental results show that mAP and Rank-1 can reach 53.7% and 71.6%, respectively.

      unsupervised domain adaptive, person re-identification, generative adversarial network

      TP391

      A

      10.11959/j.issn.1000?0801.2021016

      2020?07?19;

      2020?09?02

      鄭聲晟(1996? ),男,杭州電子科技大學(xué)通信工程學(xué)院碩士生,主要研究方向?yàn)樾腥酥刈R(shí)別。

      殷海兵(1974? ),男,博士,杭州電子科技大學(xué)通信工程學(xué)院教授,主要研究方向?yàn)閿?shù)字視頻編解碼、多媒體信號(hào)處理、芯片結(jié)構(gòu)設(shè)計(jì)驗(yàn)證。

      黃曉峰(1988? ),男,博士,杭州電子科技大學(xué)通信工程學(xué)院講師,主要研究方向?yàn)閿?shù)字視頻編解碼與芯片架構(gòu)設(shè)計(jì)。

      章天杰(2000? ),男,杭州電子科技大學(xué)通信工程學(xué)院在讀,主要研究方向?yàn)樾腥酥刈R(shí)別。

      猜你喜歡
      行人姿勢(shì)標(biāo)簽
      毒舌出沒,行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      倒掛在樹上,我的主要姿勢(shì)
      文苑(2020年5期)2020-06-16 03:18:10
      看書的姿勢(shì)
      路不為尋找者而設(shè)
      解鎖咳嗽的正確姿勢(shì)
      無懼標(biāo)簽 Alfa Romeo Giulia 200HP
      車迷(2018年11期)2018-08-30 03:20:32
      不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
      海峽姐妹(2018年3期)2018-05-09 08:21:02
      我是行人
      標(biāo)簽化傷害了誰
      基于多進(jìn)制查詢樹的多標(biāo)簽識(shí)別方法
      陆丰市| 曲阳县| 灵山县| 肇东市| 雷州市| 云林县| 同德县| 尼玛县| 博客| 屯留县| 博野县| 德化县| 长泰县| 美姑县| 镇巴县| 上高县| 怀集县| 武邑县| 盘锦市| 庆云县| 台北县| 都兰县| 吴忠市| 苏尼特右旗| 商都县| 江津市| 贵港市| 公主岭市| 浏阳市| 东莞市| 麟游县| 靖西县| 衡东县| 苗栗市| 河池市| 芦溪县| 盐津县| 柳江县| 论坛| 凌云县| 明溪县|