• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學習的女襯衫圖案樣式識別分類

      2022-08-03 08:58:02冀艷波郭濠奇劉凱旋
      現(xiàn)代紡織技術 2022年4期
      關鍵詞:襯衫準確率卷積

      李 青,冀艷波,郭濠奇,劉凱旋

      (1.西安工程大學服裝與藝術設計學院,西安 710048;2.江西理工大學電氣工程與自動化學院,江西贛州 341000)

      網(wǎng)購作為新時代下的虛擬平臺與實物交易的購物模式,打破了商品區(qū)域性,其“一鍵式”購物逐步被眾人接受與應用。服裝業(yè)呈現(xiàn)出個性化、多元化的發(fā)展趨勢,并且結合便捷的電商平臺,展現(xiàn)出經(jīng)濟蓬勃發(fā)展、效益顯著提升的局面。在發(fā)達的商品化網(wǎng)購時代下,傳統(tǒng)特征信息的分類效率與層出不窮的商品供應之間存在不平衡,可表現(xiàn)為商品量大、款式更迭快,但人工分類效率低、主觀性較強等方面,導致分類速度跟不上新商品涌現(xiàn)的速度。而卷積神經(jīng)網(wǎng)絡CNN[1-2]技術的日益成熟,為服裝行業(yè)的圖像分類、款式生成、圖形設計等提供了可行性方案。

      近年來,隨著深度學習技術的不斷成熟,卷積神經(jīng)網(wǎng)絡在圖像分類領域脫穎而出,在服裝圖像分類方面,張振煥等[3]針對目前服裝分類算法在解決多類別服裝分類問題時分類精度一般的問題,提出了一種基于殘差的優(yōu)化卷積神經(jīng)網(wǎng)絡服裝分類算法;厲智等[4]針對服裝圖像分類精度較低的問題提出基于深度卷積神經(jīng)網(wǎng)絡的改進服裝圖像分類檢索算法;針對L2-normalization無法跟蹤全局信息問題上,Zhe等[5]研究了一種矢量分布的深度度量學習模型,通過定期更迭類中心的替代學習方法,實現(xiàn)了對嵌入層全局信息的捕獲和類分布的近似表達;湯清云[6]提出了一種基于注意力區(qū)域特征表達的服裝圖像檢索方法;于雨桐[7]利用多特征融合和圖像分類識別技術,對服裝款式進行明確分類;胡夢瑩等[8]提出了利用卷積神經(jīng)網(wǎng)絡對不同品牌服裝風格特征進行自動提取、識別和分類的方法實現(xiàn)品牌服裝的分類任務;Lü等[9]設計了一種帶有姿態(tài)預測的深度神經(jīng)網(wǎng)絡模型,提取相關的目標區(qū)域特征,并融合分類特征生成服裝圖像的最終屬性。

      上述方法更多的是傾向于服裝整體類別的研究,而對于服裝單獨特征的研究較少;在分類模型中依然存在計算量偏大、時效性不足等問題。本文將女襯衫作為研究對象,以深度學習為技術手段,以提高襯衫分類識別率為目標。結合遷移學習優(yōu)化Inception v3模型,并將其應用到女襯衫圖案樣式識別分類中,針對8種典型的女襯衫圖案樣式數(shù)據(jù)集,在傳統(tǒng)服裝分類模型中基于一種模型遷移關系,選取對女襯衫訓練有益的模型權重分配,并為襯衫數(shù)據(jù)集提供一個精度高、可靠性強的識別訓練模型,有效縮短了模型訓練周期,提高了服裝類型識別率,在服裝分類及設計領域,具有一定的應用價值。

      1 模型架構

      1.1 數(shù)據(jù)集

      襯衫,歸屬為常見的上衣類品,可搭配的服裝較多,且一年四季皆可穿著,而女襯衫在款式、色彩、圖案等方面相較于男襯衫具有更迭較快、種類繁多等特點,且市場需求量較大。同時,女襯衫圖案分類的高準確率也可進一步為圖案生成與設計提供了一定的技術參考。因此,在訓練數(shù)據(jù)集中,綜合選取了多類別服裝數(shù)據(jù)集DeepFashion[10]以及網(wǎng)絡購物平臺的公開服裝數(shù)據(jù),依據(jù)女襯衫的圖案特點進行標注與分類,共計8種類別的8121張女襯衫圖片,如表1 所示。

      表1 女襯衫分類數(shù)據(jù)集Tab.1 Blouse classification dataset

      在此數(shù)據(jù)集選取65%(即5279張)作為網(wǎng)絡訓練樣本集,驗證集和測試集分別選取20%(1624張)和15%(1218張),且在3種數(shù)據(jù)子集中不存在數(shù)據(jù)交集與并集問題。其中驗證集選取分類特征相對明顯的照片,用于對模型參數(shù)進行調(diào)整與優(yōu)化,確保模型訓練的準確性;測試集則直接在對應數(shù)據(jù)集中隨機選取,保障對模型結果的可信度。

      1.2 算法設計

      1.2.1 Inception v3模型

      自2014年Google提出Inception模型以來,相繼研發(fā)了包括Inception-Resnet在內(nèi)的五代分類模型,其通過底層設計1*1卷積、3*3卷積、5*5卷積以及3*3池化等簡化網(wǎng)絡架構,保障了每層網(wǎng)絡結構都能學習到目標稀疏特征,增加網(wǎng)絡寬度和深度同時,也提高了網(wǎng)絡對尺度的適應性。在網(wǎng)絡結構中,Inception模型有效避免了網(wǎng)絡深度和精度需求與結構性能飽和之間的矛盾,保障了不犧牲網(wǎng)絡分類識別精準率的環(huán)境下,降低目標模型的運算結構和硬件配置的依賴性。在目標分類問題中,Inception模型提供了良好的識別方案,例如,Inception模型在醫(yī)療診斷[11]、冶煉工藝檢測[12]等方面均有不同程度的研究與應用。

      針對服裝圖案樣式分類問題,本文參考了張靖等[13]和Mednikov等[14]的研究,分別以服裝和生活垃圾為目標的識別算法的評估,其中包括典型的VGG、Inception v3、Xception、ResNet 和MnasNet等模型,在服裝和垃圾分類中,VGG和Inception v3具備較優(yōu)的識別精度。同時,在綜合考慮了訓練模型的網(wǎng)絡結構、模型大小等性能指標后直接采用后者作為優(yōu)化算法進行設計,并與幾種常見模型作性能對比驗證。

      由Liu等[15]提出的引入適當?shù)姆纸饩矸e(Factorized convolutions)和積極的正則化(Aggressive regularization)來降低目標計算復雜度這一理論,即Inception v3的問世,相比Inception v2的特征歸一化(Batch normalization)技術,在模型參數(shù)和計算量上均有不俗的表現(xiàn)。在結構上,Inception v3整體延續(xù)了Inception v2的網(wǎng)絡架構,如圖1所示。該算法使用 Inception模塊能夠同時對輸入圖像執(zhí)行多個卷積運算或池化操作,并將所有輸出結果拼接為一個比較深的圖像。同時,網(wǎng)絡架構采用2個1*n和n*1的卷積核取代n*n的卷積核,卷積分解降低了參數(shù)計算量,輔助分類器用作正則化器,解決了梯度消失問題,提高了訓練期間的收斂性。將原始大卷積核分解為有同等輸出的小卷積核,在更有效地保留圖像特征的同時減少計算量。將較大的卷積分解為若干個較小的卷積,在保證效果相同的前提下降低參數(shù)量,提升泛化能力。

      圖1 Inception v3的網(wǎng)絡結構Fig.1 Network structure diagram of Inception v3

      綜合上述,本文將直接選用Inception v3作為圖案分類的實現(xiàn)手段。如圖1,該模型以多組小型卷積層取代較大網(wǎng)絡卷積層,提高模型泛化能力。此外,也包含了以下技術革新:

      a)使用LSR方法降低過擬合。用標簽q(k/x)采用獨熱編碼的形式進行模型訓練,輸出為softmax歸一的預測概率分布p(k/x),其中:

      (1)

      其損失函數(shù)為:

      (2)

      為解決過擬合問題,Inception v3以權重加入某一概率分布構成新的標簽的方式進行處理,具體方式如下:

      (3)

      式中:α∈(0,1),屬于均勻分布,損失函數(shù)表示為:

      (4)

      當u服從均勻分布時,H(u,p)為常數(shù),能夠衡量預測分布p和均勻分布的不相似程度,實現(xiàn)了正則化。

      b)采用雙層1*n和n*1的卷積核取代n*n的卷積核,節(jié)省計算量。

      c)在auxiliary classifier的全連接層進行了批標準化操作。

      d)采用RMSProp優(yōu)化結構,具備自適應學習能力。

      (5)

      式中:β為衰減系數(shù)。

      1.2.2 遷移學習

      將遷移學習[16]引入到Inception v3訓練模型中,保障在少樣本情況下的學習效率和準確率,例如刺繡襯衫僅500余張。通過遷移學習可以提高模型的穩(wěn)定性和泛化能力,有效避免了因部分圖像像素變化、差異等因素造成的對模型訓練精度影響。將遷移學習中獲得的知識作為瓶頸層的輸出應用于女襯衫數(shù)據(jù)集中,其全連接(FC)層和 softmax 層之前的卷積層將被中止,而后通過不斷調(diào)整網(wǎng)絡參數(shù),訓練新的FC層和新的softmax層來提取襯衫圖像的深層特征,從而在較短的時間內(nèi)實現(xiàn)模型訓練和圖像分類,其網(wǎng)絡特征提取如圖2所示。為了保證模型網(wǎng)絡深度結構,文章選用多尺寸過濾器選取,并通過矩陣拼接形式構成網(wǎng)絡框架,最終形成由11個Inception模塊構成的46組卷積層。

      圖2 遷移學習的深度特征提取結構Fig.2 Deep feature extraction architecture for transfer learning

      2 實驗與分析

      2.1 實驗設計

      實驗驗證的硬件配置:采用64位Ubuntu18.0操作系統(tǒng)的DELL R740服務器,Intel Xeon E5-2603v4處理器,外設2個GPU:Tesla-P100,模型訓練在TensorFlow和PyCharm2020平臺完成。

      為了評估Inception v3算法的識別效果,本文引入其余3種經(jīng)典識別模型進行對比,其訓練的準確率和損失率如圖3所示。在訓練中,實驗模型參數(shù)選用學習率為0.0001,模型優(yōu)化器選用Adagrad,迭代次數(shù)為200,批尺寸(Batch_size)為32,數(shù)據(jù)集的照片尺寸取224*224*3,激活函數(shù)取ReLU函數(shù)等。

      圖3 4種訓練模型的準確率和損失值Fig.3 Accuracy and loss values for the four trained models

      針對女襯衫圖案特征識別中,4種訓練模型均有良好的識別精度,大約在100代逐步進入收斂區(qū),且保持在90%以上的準確率和0.5以下的損失函數(shù)值。而初始的Inception v3模型在準確率和損失值上并未表現(xiàn)出顯著的優(yōu)勢在識別精度上不及VGG模型(識別精度達94%),但其收斂速率具有明顯的快速性,在第10代之后進入10%的準確誤差帶之內(nèi)。這也說明了VGG與Inception v3在目標識別分類方面具有高精度識別率性能。

      2.2 模型優(yōu)化與分析

      在保持良好收斂速率前提下,如何保證較高識別率,降低模型訓練對計算硬件性能的依賴性也是當下研究的方向之一。因此,將遷移學習引入到Inception v3模型(Inception v3-transfer),并在相同數(shù)據(jù)集上進行驗證分析。其中,遷移學習直接利用Inception v3在ImageNet數(shù)據(jù)集獲取的預訓練權重,對特征提取部分進行權重的初始化,在訓練過程中凍結特征提取部分,只讓分類層的權重參數(shù)進行學習并更新,有效避免了模型的“零”起點學習訓練,實現(xiàn)降低學習成本,提升模型識別精度的目的。

      結合2.1小節(jié),將遷移學習和原始的Inception v3、VGG進行效果對比,如表2所示。

      表2 3種訓練模型的準確率對比Tab.2 Accuracy comparison of the three training models

      由表2可見,結合遷移學習的Inception v3模型具備較好的識別效果,且遷移學習的引入有效的提高了訓練模型的學習起點;相比VGG,其識別精度高出52.26%;在收斂速率上,Inception v3-transfer 在30至40代之間率先達到90%,而Inception v3和VGG分別在100代和80代左右;在識別準確率上,Inception v3-transfer經(jīng)過200次的迭代訓練,精度基本穩(wěn)定在98%附近,而Inception v3和VGG分別在92%和94%左右。不論在識別速率或識別精度上Inception v3-transfer模型均有不俗的表現(xiàn)。

      進一步將改進前后的兩種Inception v3模型在準確率和損失值的性能指標上進行對比,如圖4所示。

      圖4 基于Inception v3訓練模型的準確率和損失值Fig.4 Accuracy and loss values of training models based on Inception v3

      圖4中,遷移模型很好的繼承了初始Inception v3的快速收斂性,進一步優(yōu)化了數(shù)據(jù)特征的識別率和損失值,且模型初始值更優(yōu)、識別精度更加趨于平滑。相比初始模型92%的準確率,改進后模型識別率提高了6%,達98%;相應損失函數(shù)值降低至 0.06,優(yōu)化了約70%;這也說明在女襯衫圖案識別問題上,遷移學習依然具備良好的繼承性和訓練模型的適應性。

      在概述上,遷移學習就是運用已存有的知識對不同但相關領域問題進行求解的一種新的機器學習方法,可有效的降低目標訓練模型的參數(shù)量,提高訓練效率。結合兩種訓練模型,提取了模型訓練參數(shù)量進行對比。其中,Pall為訓練模型的參數(shù)總量,Ptr為實際參與訓練的模型參數(shù)量,Pnt為未參與訓練的模型參數(shù)量,Ptr/%=Ptr/Pall×100;如表3所示。

      表3中,基于Inception v3的初始模型所涉及的訓練參數(shù)量幾乎調(diào)用了所有參數(shù),而遷移模型下的訓練計算量僅調(diào)用了約8.81%,這意味著達到了降低模型訓練需求量和保持良好識別性能的設計目標,且在訓練平均周期中優(yōu)化了31%的運算效率。

      表3 兩種模型的訓練參數(shù)量Tab.3 The amount of training parameters for the two models

      結合上述兩種訓練模型,選用20%的樣本集作為驗證集用于調(diào)整網(wǎng)絡分類器的訓練參數(shù),發(fā)揮驗證集對訓練模型的性能評估與調(diào)參作用,驗證近似模型的泛化能力,有效避免訓練模型的過擬合或收斂過慢等問題。

      將改進前后的兩種Inception v3在驗證模型準確率和損失值的性能指標上進行對比,如圖5所示。

      圖5 基于Inception v3測試模型的準確率和損失值Fig.5 Accuracy and loss values of the test model based on Inception v3

      在圖5中,驗證集伴隨著訓練集識別精度的升高,其參數(shù)調(diào)節(jié)機制逐步處于穩(wěn)定狀態(tài),并在20代之后逐漸收斂。特別的,在模型訓練初始參數(shù)的調(diào)節(jié)能力更強,波動幅度較大。在100代之后,由驗證集對訓練模型的識別度趨于穩(wěn)定,保持在90%以上。在逐步收斂過程中,改進的遷移模型在準確率和損失值上均有明顯的優(yōu)勢。

      3 結 論

      針對女襯衫圖案樣式分類問題,本文提出了一種基于Inception v3網(wǎng)絡模型結合遷移學習的分類方法。并在自定義的女襯衫數(shù)據(jù)集中得到了驗證,結合遷移學習的Inception v3較好的繼承了原始模型的識別精度和收斂速率。其中,遷移模型的識別精度高達98%,提升6%,參與訓練的參數(shù)量降低約91%,平均訓練周期降低31%。而訓練集和驗證集良好的收斂特性,在模型魯棒性和識別特性中均優(yōu)于四種初始化模型,為服裝圖案、款式等分類及智能網(wǎng)絡生成等研究提供了技術參考。

      猜你喜歡
      襯衫準確率卷積
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
      2015—2017 年寧夏各天氣預報參考產(chǎn)品質(zhì)量檢驗分析
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      快樂人的襯衫
      高速公路車牌識別標識站準確率驗證法
      時髦襯衫穿搭提案
      好日子(2018年6期)2018-06-27 17:56:34
      基于傅里葉域卷積表示的目標跟蹤算法
      格格不入
      唐海县| 南京市| 台安县| 平和县| 乌海市| 陇川县| 连城县| 普格县| 贡嘎县| 广饶县| 都昌县| 息烽县| 高安市| 唐山市| 喀喇沁旗| 吉水县| 承德县| 高尔夫| 德安县| 治县。| 武安市| 灵石县| 邵阳市| 沅陵县| 花莲县| 岳阳县| 博客| 青田县| 青冈县| 白山市| 五原县| 奉化市| 天镇县| 岚皋县| 大足县| 蓬安县| 镇远县| 将乐县| 河曲县| 丹寨县| 恩平市|