• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      利用PCA進(jìn)行深度學(xué)習(xí)圖像特征提取后的降維研究①

      2019-01-18 08:30:42楊博雄楊雨綺
      關(guān)鍵詞:降維特征向量特征值

      楊博雄, 楊雨綺

      1(三亞學(xué)院 信息與智能工程學(xué)院, 三亞 572022)

      2(北京師范大學(xué)研究生院 珠海分院, 珠海 519085)

      1 引言

      隨著以深度學(xué)習(xí)為代表的新一代人工智能算法的研究與快速發(fā)展, 建立在該方法之上的各種智能應(yīng)用系統(tǒng)越來越依賴大數(shù)據(jù)的自主訓(xùn)練與學(xué)習(xí), 特別是在一些復(fù)雜的智能應(yīng)用系統(tǒng), 如圖像識(shí)別、語音識(shí)別、視頻檢索、自然語音處理等領(lǐng)域更是如此[1]. 深度學(xué)習(xí)對(duì)數(shù)據(jù)的依賴導(dǎo)致數(shù)據(jù)的體量和維度均出現(xiàn)指數(shù)級(jí)增長(zhǎng). 很明顯, 過高的數(shù)據(jù)維度會(huì)造成維度災(zāi)難, 既影響了計(jì)算效率, 也影響分類性能[2]. 這就有必要采用某種方法來降低數(shù)據(jù)維度, 以此降低進(jìn)一步數(shù)據(jù)處理的復(fù)雜度, 提高處理效率[3].

      由于深度學(xué)習(xí)的本質(zhì)依然是機(jī)器學(xué)習(xí), 因此在降維處理方面可以借鑒傳統(tǒng)的機(jī)器學(xué)習(xí)方法, 并在此基礎(chǔ)上進(jìn)行優(yōu)化以適應(yīng)深度學(xué)習(xí)的應(yīng)用場(chǎng)景. 機(jī)器學(xué)習(xí)中較常采用的降維方法有: 主成分分析法(Principal Component Analysis, PCA)、線性判別分析法(Linear Discriminant Analysis, LDA)、局部線性嵌入法(Locally linear embedding, LLE)、拉普拉斯特征映射法(Laplacian Eigenmaps)等[4-7].

      下面, 本文將以卷積神經(jīng)網(wǎng)絡(luò)獲取圖像特征為研究目標(biāo), 以 Caltech 101 圖像數(shù)據(jù)集為實(shí)驗(yàn)對(duì)象, 采用 VGG-16深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像的特征提取. 在此基礎(chǔ)上, 通過研究圖像高維特征信息, 選取統(tǒng)計(jì)學(xué)中的PCA法作為降維處理方法, 并配合SVD分解算法降低處理的復(fù)雜度, 進(jìn)而再通過以相似性對(duì)降維后特征進(jìn)行精度比對(duì), 來分析降維后不同維度圖像特征的精度損失.

      2 PCA降維

      2.1 PCA原理

      主成分分析PCA也稱主分量分析, 它是一種將原有的多個(gè)變量通過線性變換轉(zhuǎn)化為少數(shù)幾個(gè)新的綜合變量的統(tǒng)計(jì)分析方法. 這些新變量(也稱主成分)互不相關(guān), 能有效地表示原變量的信息, 不丟失或盡量少丟失原有變量的信息). PCA追求的是在降維之后依然能夠最大化保持?jǐn)?shù)據(jù)的內(nèi)在信息, 并通過衡量在投影方向上的數(shù)據(jù)方差的大小來判斷該方向的重要性. 其基本數(shù)學(xué)原理如下:

      設(shè)n維向量w是低維映射空間的一個(gè)映射向量,則經(jīng)過最大化數(shù)據(jù)映射后其方差公式如下:

      式(1)中,m是參與降維的數(shù)據(jù)個(gè)數(shù),是隨機(jī)數(shù)據(jù)i具 體向量表達(dá)是所有參與降維的數(shù)據(jù)的平均向量.

      定義W為包含所有特征映射向量的列向量組成的矩陣, 該矩陣可以較好地保留數(shù)據(jù)中的信息, 該矩陣經(jīng)過代數(shù)的線性變換可以得到一個(gè)優(yōu)化的目標(biāo)函數(shù)如下:

      式(2)中tr是矩陣的跡,A是協(xié)方差矩陣, 表達(dá)式如下:

      2.2 SVD分解

      PCA需要計(jì)算其特征值和正交歸一化的特征向量, 這兩個(gè)向量在實(shí)際應(yīng)用中都會(huì)非常大, 直接計(jì)算非常困難, 通常會(huì)用SVD分解來解決這個(gè)問題[8].

      SVD 即 Singular Value Decomposition, 它是處理維數(shù)很高的矩陣經(jīng)常用的方法, 通過SVD分解可以有效的將很高維的矩陣分解到低維空間里面來進(jìn)行求解.通過SVD分解可以很容易的求解出高維矩陣的特征值和其相應(yīng)的特征向量. SVD分解的基本原理如下:

      設(shè)A是一個(gè)秩為r的維矩陣, 則存在兩個(gè)正交矩陣(4)、(5)和一個(gè)對(duì)角矩陣(6).

      式(4)、(5)、(6)三式滿足:

      其中, λi(i=1,2,···,r)為矩陣的非零特征值;分別為對(duì)應(yīng)于的特征向量.

      因此求出構(gòu)造矩陣為:

      該特征向量通過計(jì)算較低維矩陣R的特征值和特征向量而間接求出的, 從而實(shí)現(xiàn)從高維到低維的快速計(jì)算.

      2.3 PCA特征降維流程

      在SVD分解中U一共有M個(gè)特征向量. 雖然在很多情況下M要比小很多, 然而在通常情況下,M仍然顯得較大, 所以需要對(duì)特征向量進(jìn)行選取, 在實(shí)際應(yīng)用中并不需要保留所有的特征向量. PCA降維處理的具體流程如下:

      1) 首先計(jì)算特征平均值構(gòu)建特征數(shù)據(jù)的協(xié)方差矩陣;

      2) 再通過SVD分解求解該協(xié)方差矩陣的特征值以及特征向量;

      3) 求出來的特征值依次從大到小的排列以便于選出主成分的特征值;

      4) 當(dāng)選出了主成分的特征值后, 這些特征值所對(duì)應(yīng)的特征向量就構(gòu)成了降維后的子空間.

      3 基于CNN的圖像特征提取

      3.1 CNN卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是深度學(xué)習(xí)技術(shù)中極具代表的網(wǎng)絡(luò)結(jié)構(gòu)之一, 在圖像處理領(lǐng)域取得了很大的成功, 許多成功的深度學(xué)習(xí)模型都是基于CNN的[9,10]. CNN相較于傳統(tǒng)的圖像處理算法的優(yōu)點(diǎn)之一在于可以直接輸入原始圖像提取人工特征, 避免了對(duì)圖像復(fù)雜的前期預(yù)處理過程[11].

      本文選取VGG-16作為CNN特征提取網(wǎng)絡(luò), VGG-16獲得2014年ImageNet比賽的冠軍, 在學(xué)界有很廣泛的應(yīng)用, 而且被驗(yàn)證為最有效的卷積神經(jīng)網(wǎng)絡(luò)之一[12].VGG-16網(wǎng)絡(luò)的總體結(jié)構(gòu)共有16層, 其中包括13個(gè)卷積層和3個(gè)全連接層[13], 如圖1所示.

      圖1 VGG-16結(jié)構(gòu)圖

      實(shí)驗(yàn)輸入的圖像像素大小為224×224, 輸出層為1000維. 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn)是靠近輸入層的節(jié)點(diǎn)表示圖像在低維度上的抽象, 而靠近輸出層的節(jié)點(diǎn)表示圖像更高維度的抽象. 低維抽象描述圖像的紋理和風(fēng)格, 而高維度抽象描述了圖像的布局和整體特征, 因此高維度特征能夠較好的表示圖像的內(nèi)容. 在本次實(shí)驗(yàn)中, 以卷積神經(jīng)網(wǎng)絡(luò)的fc3層的輸出的高維度特征作為圖像的特征向量, 由于fc3是網(wǎng)絡(luò)的第三個(gè)全連接層,根據(jù)網(wǎng)絡(luò)結(jié)構(gòu), 它具有4096維的輸出, 因此我們獲得的特征維度就是4096.

      3.2 數(shù)據(jù)集選取

      Caltech 101數(shù)據(jù)集是加利福尼亞理工學(xué)院整理的圖片數(shù)據(jù)集, Caltch101包括了101類前景圖片和1個(gè)背景類, 總共9146張圖片, 其中有動(dòng)物、植物、卡通人物、交通工具、物品等各種類別. 每個(gè)類別包括40-800張左右的圖片, 大部分類別包括50張左右的圖片.圖片的大小不一, 但是像素尺寸在300×200左右[14].

      為了減少實(shí)驗(yàn)時(shí)的計(jì)算量, 本文從102類數(shù)據(jù)中選擇了25類數(shù)據(jù), 每類選擇40張圖片, 總共1000張圖片. 這25類數(shù)據(jù)都屬于動(dòng)物(此舉增加判別難度, 動(dòng)物和動(dòng)物比動(dòng)物和其他類別更相近), 每類都選40張.

      4 實(shí)驗(yàn)測(cè)試

      4.1 實(shí)驗(yàn)環(huán)境搭建

      為使PCA降維后對(duì)普遍特征的影響效果進(jìn)行一個(gè)比對(duì), 本文以圖像特征的相似度比對(duì)為精確度檢驗(yàn)指標(biāo), 采用歐式距離作為相似度特征度量指標(biāo), 檢驗(yàn)降維后圖像特征與沒有降維前的精度損失變化情況. 實(shí)驗(yàn)軟件環(huán)境為L(zhǎng)inux操作系統(tǒng)和Keras神經(jīng)網(wǎng)絡(luò)框架,編程語言采用Python 3.5, 硬件為配置有支持支持CUDA的NVIDIA GPU顯卡GeForce GTX 285、至強(qiáng)四核處理器和32 GB內(nèi)存的PC機(jī). 實(shí)驗(yàn)流程如圖2所示.

      4.2 實(shí)驗(yàn)結(jié)果

      采用VGG-16的fc3提取的特征有4096維, 當(dāng)在1000張圖片的數(shù)據(jù)集中進(jìn)行特征比對(duì), 能夠在較快的時(shí)間內(nèi)完成. 但是, 在真實(shí)的檢索環(huán)境下, 圖片庫(kù)中的圖片要遠(yuǎn)遠(yuǎn)大于1000, 此時(shí)數(shù)據(jù)的維度會(huì)顯著的影響檢索效率. 降低數(shù)據(jù)的維度是檢索中非常重要的一個(gè)環(huán)節(jié).

      先分析降維的可行性, VGG-16原本用于ImageNet圖像分類競(jìng)賽, 競(jìng)賽任務(wù)是對(duì)100多萬張屬于1000個(gè)類別的圖片進(jìn)行識(shí)別. 這1000類數(shù)據(jù)囊括了已知的各種類別的事物, 所以可以將VGG-16定義為一個(gè)泛化的神經(jīng)網(wǎng)絡(luò), 即對(duì)于各種類別的事物都具有學(xué)習(xí)能力.然而實(shí)驗(yàn)的數(shù)據(jù)集僅僅具有25類, 且均為動(dòng)物, 可以視為ImageNet數(shù)據(jù)集的一個(gè)子集. 但是使用一個(gè)大數(shù)據(jù)集的特征來描述其子集的特征是會(huì)存在冗余的.

      圖2 實(shí)驗(yàn)流程圖

      本實(shí)驗(yàn)采用PCA去除數(shù)據(jù)集中的冗余, PCA通過線性映射將高維空間的數(shù)據(jù)投影到低維空間中, 并且盡量使低維空間上數(shù)據(jù)的方差盡量大. 這樣在保持原有數(shù)據(jù)點(diǎn)關(guān)系不變的情況下能夠有效的降低維度. 基于此原理, 實(shí)驗(yàn)使用PCA降維, 統(tǒng)計(jì)降維后維度與精確度的數(shù)據(jù)如表1所示.

      表1 PCA不同維度的相似度精度比對(duì)值

      對(duì)應(yīng)的變化折線圖如圖3所示.

      5 結(jié)論

      從實(shí)驗(yàn)的數(shù)據(jù)變化和曲線表現(xiàn)來進(jìn)行分析, 本實(shí)驗(yàn)獲得兩點(diǎn)結(jié)論.

      1) 進(jìn)行PCA降維后, 并沒有產(chǎn)生精度的損失, 相反, 當(dāng)維度降低到 64 的時(shí)候, 精度最高, 相比于不降維的情況, 提高了2.7%. 分析折線圖可以看出, 維度從4096降到8維經(jīng)歷了緩慢上升和快速下降兩個(gè)階段. 第一個(gè)階段從4096維到64維, 這個(gè)階段的緩慢上升, 原因是由于冗余信息的去除導(dǎo)致的. 實(shí)驗(yàn)結(jié)果證明, CNN特征也有一定的信息冗余, 信息冗余所帶來的影響比降維所帶來的損失的影響要更大, 因此去除冗余能夠提升準(zhǔn)確率. 第二個(gè)階段從64維到8維, 這個(gè)階段準(zhǔn)確率急速下降, 這是因?yàn)樘卣骶S度小于64后, 降低維度會(huì)去除有用信息, 有用信息受損, 導(dǎo)致了準(zhǔn)確率的急速下降.

      圖3 PCA降維后的比對(duì)準(zhǔn)確率折線圖

      2) 進(jìn)行PCA降維后, 除歐式距離外, 其他相似性度量的準(zhǔn)確率都非常低. 產(chǎn)生這個(gè)現(xiàn)象是因?yàn)镻CA計(jì)算時(shí)僅僅保證低維空間上數(shù)據(jù)的方差盡量大. 在僅考慮方差的降維條件下, 其他相似性度量方式失效就不難理解了.

      綜合以上實(shí)驗(yàn)得出: 當(dāng)提取VGG-16神經(jīng)網(wǎng)絡(luò)fc3層的4096維特征, 使用PCA降至64維, 并采用歐氏距離作為相似性度量時(shí)依然能夠獲得最高的準(zhǔn)確率,保持最佳的圖像特征信息.

      猜你喜歡
      降維特征向量特征值
      Three-Body’s epic scale and fiercely guarded fanbase present challenges to adaptations
      二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
      克羅內(nèi)克積的特征向量
      一類帶強(qiáng)制位勢(shì)的p-Laplace特征值問題
      單圈圖關(guān)聯(lián)矩陣的特征值
      降維打擊
      海峽姐妹(2019年12期)2020-01-14 03:24:40
      一類特殊矩陣特征向量的求法
      EXCEL表格計(jì)算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
      基于商奇異值分解的一類二次特征值反問題
      關(guān)于兩個(gè)M-矩陣Hadamard積的特征值的新估計(jì)
      大荔县| 驻马店市| 彭泽县| 南京市| 孝昌县| 岫岩| 申扎县| 镇平县| 肇州县| 基隆市| 汉川市| 嵩明县| 侯马市| 荣成市| 南溪县| 庆元县| 镇雄县| 荆州市| 阳高县| 崇明县| 宝清县| 侯马市| 连城县| 裕民县| 固阳县| 通江县| 武强县| 兴业县| 营山县| 云梦县| 全椒县| 图片| 高州市| 大荔县| 托克逊县| 云霄县| 时尚| 兰溪市| 仲巴县| 达拉特旗| 宁国市|