李燦
提出了一種新的基于商品圖像的檢索系統(tǒng),充分利用當(dāng)前學(xué)術(shù)界的一些高效算法,包括基于Hadoop平臺(tái)的大數(shù)據(jù)處理技術(shù),基于E2LSH的高維數(shù)據(jù)近鄰查找技術(shù),基于圖像全局特征提取的GIST技術(shù)以及基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)技術(shù)CNN。緊密結(jié)合這些新技術(shù),在基于商品圖像的檢索方面取得了較好的檢索效果。
1 引言
基于內(nèi)容的商品圖像檢索作為移動(dòng)互聯(lián)網(wǎng)中一種新興的購物方式和商品推薦方式,目前仍然處于研發(fā)階段。相比于普通的基于內(nèi)容的圖像檢索(如Google識(shí)圖、百度識(shí)圖等),它主要側(cè)重于電商平臺(tái)的商品圖像檢索和廣告推薦。為了使其能夠應(yīng)用到商業(yè)平臺(tái)并且為人們提供更加便捷的購物方式,這就對(duì)基于內(nèi)容的圖像檢索提出了更高的要求。因?yàn)闄z索結(jié)果不僅要與被檢索商品圖像非常相似,而且要與被檢索商品圖像同屬于一個(gè)類別。如用戶希望查詢相似的衣服,那么反饋給用戶的檢索結(jié)果只能是與用戶查詢圖像相似的衣服類圖像?,F(xiàn)在是信息爆炸的時(shí)代,像阿里巴巴、京東以及亞馬遜等大的電商平臺(tái)同樣也面臨著日益增長(zhǎng)的海量商品圖像數(shù)據(jù)以及高訪問量所帶來的壓力,顯然傳統(tǒng)的基于集中式的數(shù)據(jù)處理方式很難滿足這方面的需求。而在大數(shù)據(jù)處理方面,開源的Hadoop框架是目前非常流行的分布式并行計(jì)算框架。因此,將其應(yīng)用在圖像數(shù)據(jù)處理方面是一個(gè)很好的選擇。
位置敏感的哈希算法(Locality Sensitive Hashing,LSH)[1]是解決高維數(shù)據(jù)近似最近鄰檢索算法?;趦?nèi)容的圖像檢索方法往往是將提取圖像的內(nèi)容特征,如紋理、顏色、形狀、輪廓等轉(zhuǎn)化成一個(gè)高維向量,通過檢索相似的高維向量來進(jìn)行圖像匹配。因此,將LSH應(yīng)用在基于內(nèi)容的圖像檢索方面也是目前的一個(gè)研究熱點(diǎn)。
基于內(nèi)容的圖像檢索同樣也存在自身的局限性,那就是太依賴圖像的特征提取,圖像特征提取的好壞會(huì)直接影響查詢的正確率。目前雖然已經(jīng)有比較多的圖像特征提取算法被提出,但這方面的提取算法依然處于發(fā)展階段。而基于深度學(xué)習(xí)的圖像識(shí)別算法,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)[2]在圖像識(shí)別準(zhǔn)確率上是非常高的。因此,如果將其和一般的基于內(nèi)容的圖像檢索算法相結(jié)合,過濾掉一些非同一類別的候選結(jié)果,這樣可以大大提高用戶檢索的準(zhǔn)確性。
基于以上原因,提出了一種新的基于內(nèi)容的商品圖像檢索技術(shù)及系統(tǒng),并實(shí)現(xiàn)了基于Hadoop[3]大數(shù)據(jù)處理框架的圖像檢索算法。在圖像特征提取方面選取經(jīng)典的GIST[4]圖像特征提取算法,在圖像檢索上選取E2LSH[5]算法,而在候選結(jié)果集的過濾上選取開源的深度學(xué)習(xí)處理框架Caffe[6]提供的CNNs圖像識(shí)別算法。
2 總體框架
2.1 Hadoop框架
Hadoop是Apache共享出的一個(gè)開源的分布式計(jì)算基礎(chǔ)架構(gòu)。在該平臺(tái)上提交上來的計(jì)算任務(wù)被稱之為“Job”。而這些“Job”又會(huì)被分割為一個(gè)個(gè)的“任務(wù)(Task)”。通過將這些分割出來的“Task”分發(fā)到不同的集群節(jié)點(diǎn)中實(shí)現(xiàn)分布式并行計(jì)算,可以大大地提高“Job”的處理速度。而HDFS則是Hadoop提供的一個(gè)分布式文件系統(tǒng),用于數(shù)據(jù)的存儲(chǔ)。在數(shù)據(jù)處理方面提供了MapReduce的編程模型。
(1)分布式文件系統(tǒng)HDFS
HDFS是Hadoop的一個(gè)分布式文件系統(tǒng),由于它具有存儲(chǔ)容量大、容錯(cuò)能力強(qiáng)、吞吐量高等特點(diǎn)同樣也得到了一些其它的分布式計(jì)算平臺(tái)的支持。HDFS主要采用主/從(Master/Slave)的結(jié)構(gòu)模型,在HDFS中有兩個(gè)非常重要的組成部分,一個(gè)是主要負(fù)責(zé)整個(gè)分布式文件系統(tǒng)的命名空間,存儲(chǔ)文件的元數(shù)據(jù)和集群中各個(gè)節(jié)點(diǎn)與數(shù)據(jù)塊之間的映射。通過“心跳機(jī)制”監(jiān)控著集群中各個(gè)節(jié)點(diǎn)的存儲(chǔ)情況,將其稱之為“NameNode”節(jié)點(diǎn);另一個(gè)是“DataNode”,它主要負(fù)責(zé)存儲(chǔ)用戶數(shù)據(jù),數(shù)據(jù)在這些節(jié)點(diǎn)中均以塊的形式進(jìn)行存儲(chǔ)。
在HDFS中,當(dāng)用戶提交存儲(chǔ)數(shù)據(jù)之后,這些數(shù)據(jù)均會(huì)被劃分成塊的形式,然后分發(fā)保存在集群中不同的“DataNode”中。
(2)MapReduce編程模型
MapReduce是Hadoop提供的處理海量數(shù)據(jù)的分布式編程模型和并行計(jì)算框架。在MapReduce編程模型中,用戶只需要將主要精力放在Map()方法和Reduce()方法的設(shè)計(jì)上,同時(shí)Map階段將以塊形式輸入的數(shù)據(jù)按照
在MapReduce模型中同樣運(yùn)用到了“分而治之”的思想。其中,通過JobTracker將用戶提交的作業(yè)分割成多個(gè)任務(wù)并分配給TaskTracker執(zhí)行。MapReduce框架采用“移動(dòng)計(jì)算優(yōu)于移動(dòng)數(shù)據(jù)”的理念,計(jì)算的執(zhí)行應(yīng)該盡量存儲(chǔ)在有相關(guān)數(shù)據(jù)的DateNode中,這樣做可以節(jié)省寬帶資源。
2.2 圖像的全局特征GIST
本系統(tǒng)所處理的數(shù)據(jù)都是一些背景比較簡(jiǎn)單的商品圖像,因此本系統(tǒng)選用提取圖像全局特征的方式來表征圖像,即圖像的GIST特征。這種方式所描述的是圖像的一些比較宏觀的信息,提取出來的GIST特征向量主要由圖像的開放度、粗糙度、自然度、膨脹度和險(xiǎn)峻度5個(gè)維度信息組成,并不考慮圖像的一些局部特征信息,如SIFT算法需要提取非常多的圖像局部特征信息。
2.3 LSH
令q∈B(o,s)={q∈Rd|‖o,q‖≤s}記作以數(shù)據(jù)對(duì)象o∈D為中心,半徑為s的超球體。因此,LSH函數(shù)定義如下:
其中,P[h(o)=h(q)]表示對(duì)象o和q落入相同桶中的概率,c>1和p1>p2。此外,組合的哈希函數(shù)表示成g=(h1, … , hk),其中h1, …, hk是從LSH哈希函數(shù)族中隨機(jī)抽取的k個(gè)距離敏感函數(shù)。根據(jù)文獻(xiàn)[18],一個(gè)用以構(gòu)造適用于l2距離度量的LSH函數(shù)家族的形式如下:
其中,o為數(shù)據(jù)對(duì)象o∈Rd的向量表示;a為每個(gè)維度均符合隨機(jī)分布,從標(biāo)準(zhǔn)正態(tài)分布中抽取的d維向量;w是一個(gè)常數(shù)代表,劃分出桶的寬度;b是隨機(jī)地從均勻分布[0, w)中抽取的實(shí)數(shù)。
一個(gè)LSH函數(shù)ha,b(o)哈希過程如下:首先,把數(shù)據(jù)對(duì)象o投影到以向量a表示的一維空間上;再把o的投影移動(dòng)b的長(zhǎng)度;最后把a(bǔ)以寬度w劃分成多個(gè)區(qū)間;返回o經(jīng)過投影后所得的桶號(hào)。令s=‖o1,o2‖,表示對(duì)于任意兩個(gè)數(shù)據(jù)對(duì)象o1和o2的距離,則o1和o2在LSH函數(shù)ha,b(o)作用下產(chǎn)生碰撞的概率p(s)為:
對(duì)于給定的桶寬w,碰撞概率p(s)隨著s的增大而減小。因此,哈希函數(shù)ha,b是(s, cs, p1, p2)敏感的,其中p1=p(s),p2=p(cs)。當(dāng)s=1時(shí),該函數(shù)為(1, c, p1, p2)敏感,且p1=p(1),p2=p(c)[7]。
2.4 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種。與其它神經(jīng)網(wǎng)絡(luò)不同的是,這種網(wǎng)絡(luò)采用的是權(quán)值共享的方式,與生物神經(jīng)網(wǎng)絡(luò)更相似。通過這種設(shè)計(jì)不僅可以使模型的復(fù)雜度降低,而且使網(wǎng)絡(luò)權(quán)值的數(shù)量也大大地減少。在卷積神經(jīng)網(wǎng)絡(luò)中,可以直接對(duì)圖像數(shù)據(jù)進(jìn)行處理,而無需像傳統(tǒng)神經(jīng)網(wǎng)絡(luò)算法那樣對(duì)數(shù)據(jù)進(jìn)行特征提取和重新構(gòu)建,往往這些過程需要耗費(fèi)非常大的開銷。因此,在卷積神經(jīng)網(wǎng)絡(luò)中,相比于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),模型的訓(xùn)練速度是很快的。通過卷積神經(jīng)網(wǎng)絡(luò)中多層感知器的構(gòu)造方式可以對(duì)一些結(jié)構(gòu)平移的圖像、比例不同的圖像或者圖像內(nèi)容有傾斜的圖像都有較高的容忍能力。
CNNs利用權(quán)值共享的方式減少需要學(xué)習(xí)的參數(shù)數(shù)目,和一般前向BP[8]算法相比,使得訓(xùn)練速度和準(zhǔn)確度得到了極大的提高。CNNs作為一個(gè)深度學(xué)習(xí)算法,可以使數(shù)據(jù)的預(yù)處理開銷達(dá)到最小化。在該算法中,作為層級(jí)結(jié)構(gòu)的最低層的輸入只是圖像的一小部分(即局部感受區(qū)域或者視野感受子),經(jīng)過處理后的信息再傳輸?shù)礁畹膶哟?,每層?huì)通有濾波器來取得上層輸入的觀測(cè)數(shù)據(jù)特征。
圖1展示了在卷積神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)組成以及圖像數(shù)據(jù)在各個(gè)層次網(wǎng)絡(luò)中的轉(zhuǎn)化,其中C1層稱之為特征映射層。在特征映射層中,圖像數(shù)據(jù)會(huì)以每5個(gè)像素為一組進(jìn)行求和以及加上權(quán)值和偏置,然后通過符號(hào)函數(shù)得到S1層,即濾波層。通過對(duì)S1層進(jìn)行濾波得到C2層。然后通過重復(fù)之間的處理方式一直到得到S4層。最終,這些像素值被光柵化并通過BP全連接網(wǎng)絡(luò)得到最終的輸出。
卷積過程如圖2所示,包括用可訓(xùn)練的濾波器fx對(duì)輸入的圖像進(jìn)行卷積,并且通過與偏置bx求和,得到卷積層Cx。在子采樣過程中,通過對(duì)每4個(gè)像素的鄰域求和轉(zhuǎn)化成一個(gè)像素,然后通過與標(biāo)量Wx+1進(jìn)行運(yùn)算,再加上bx+1偏置,最后通過一個(gè)符號(hào)函數(shù),產(chǎn)生一個(gè)大概縮小四倍的特征映射圖Sx+1。
3 系統(tǒng)流程圖及各個(gè)部分的實(shí)現(xiàn)
圖3展示了本系統(tǒng)中索引文件的建立過程和用戶在線查詢過程的流程圖。整個(gè)系統(tǒng)劃分為兩個(gè)部分。首先是離線建立索引階段;其次便是在線查詢階段。這也與一般的基于Web的服務(wù)相同。從流程圖也可知,整個(gè)系統(tǒng)的核心分為以下幾個(gè)部分:一是基于GIST圖像特征的E2LSH算法和Hadoop平臺(tái)索引文件的建立;二是CNN算法的實(shí)現(xiàn)。下面將從這兩個(gè)方面對(duì)該系統(tǒng)進(jìn)行介紹。
3.2 基于圖像GIST特征的E2LSH算法
圖像的GIST特征是圖像的全局特征信息,并不像SIFT特征那樣具有多樣性。一幅圖像只能提取出一個(gè)GIST特征向量,并且以高維特征向量(維數(shù)都超過10維)來表示。由于“維度災(zāi)難”的原因,并不適合選用KD-tree、R-tree等樹形索引結(jié)構(gòu)來對(duì)這些高維數(shù)據(jù)進(jìn)行檢索。
E2LSH算法是近似最近鄰檢索算法,并且在維度很高的情況下比一般的樹形結(jié)構(gòu)的檢索算法效果更加明顯。本算法將其應(yīng)用到了基于圖像GIST特征的檢索上?;趫D像的GIST特征的E2LSH算法主要包括兩個(gè)階段,分別是創(chuàng)建索引文件階段和離線圖像檢索階段。
(1)創(chuàng)建索引文件階段
由于本算法是基于Hadoop分布式并行處理框架,所以在創(chuàng)建索引文件階段需要首先將圖庫圖像數(shù)據(jù)集存儲(chǔ)到Hadoop分布式文件系統(tǒng)HDFS中,然后對(duì)這些圖像進(jìn)行GIST特征提取,提取出來的GIST特征向量保存到HDFS文件上。由于數(shù)據(jù)量較大,這些數(shù)據(jù)會(huì)以塊的形式被單獨(dú)保存到各個(gè)節(jié)點(diǎn)中。
特征向量的數(shù)據(jù)格式為<圖像名, 高維特征向量>的鍵值對(duì)形式。每一行保存一幅圖像的圖像名和特征向量對(duì)。圖像名不僅包含圖像的文件名同時(shí)也包含圖像在HDFS文件系統(tǒng)中的邏輯路徑,方便后續(xù)階段取出圖像源文件。高維特征向量則使各個(gè)維度之間以空格的形式保存。同時(shí)圖像與特征向量之間以“,”進(jìn)行標(biāo)識(shí)。
將這些數(shù)據(jù)保存在HDFS上后,便可以用E2LSH位置敏感的哈希函數(shù)對(duì)這些特征向量建立索引。通過將圖像GIST高維特征哈希到相同的哈希桶中,并保存到以桶號(hào)所代表的文件中,使得圖像集中原本比較相似的圖像保存到一起。
經(jīng)過LSH函數(shù)后高維GIST特征向量變成一維哈希桶號(hào),但是準(zhǔn)確率和查全率并不高。因此,為了提高算法的準(zhǔn)確率和查全率,E2LSH算法對(duì)位置敏感的哈希函數(shù)的使用進(jìn)行了改變。將每一幅圖像改為使用由k個(gè)h(o)組成的g(o)函數(shù),其中g(shù)(o)=
在單個(gè)g(o)中,每幅圖像被映射成一個(gè)k維的組合哈希桶號(hào),這可能會(huì)使很多原本相似的圖像得到不相近的k維索引值,從而使得算法的查全率降低。為了解決這個(gè)問題,可以通過使用L個(gè)g(o),即G=(g1, g2, …, gL)來創(chuàng)建L個(gè)索引表。這樣在查詢的時(shí)候通過多個(gè)索引表之間的“OR”操作可以避免“AND”操作所導(dǎo)致的假陰性增大的問題。
其中每一行保存著一個(gè)k維索引值代表“AND”之后的組合哈希桶號(hào)以及其中所保存的圖像名列表(其中圖像名代表的是圖像的絕對(duì)路徑)。
(2)基于開源Caffe框架CNNs的實(shí)現(xiàn)
本系統(tǒng)在圖像識(shí)別上采用的是目前非常流行的伯克利實(shí)驗(yàn)室的Caffe開源深度學(xué)習(xí)框架,即6層的深度學(xué)習(xí)算法CNN。其中訓(xùn)練圖片在各個(gè)層次中的轉(zhuǎn)化如圖4所示。
圖4展示了在CNN算法中經(jīng)過各個(gè)層次的特征提取C層或者濾波S層后輸出的圖像數(shù)據(jù)。其中每幅圖片只是對(duì)結(jié)果中的一部分進(jìn)行展示。如第一層特征提取層的輸出C1有256個(gè),只顯示了前36個(gè)特征提取進(jìn)行顯示。一層過濾器S1有256個(gè),其中每個(gè)尺寸為5×5×48像素,只顯示前48個(gè)過濾器,每個(gè)通道分別顯示,使每個(gè)過濾器是一排。其中第五層為采用BP算法的全連接層。最終輸出結(jié)果用直方圖進(jìn)行展示,如圖5所示。
最終的預(yù)測(cè)結(jié)果如圖6所示,其中橫軸坐標(biāo)為類別(有1000個(gè)類別),按照相似圖表示成柱狀圖。
得到預(yù)測(cè)的類別圖后,取其中最相似的類別進(jìn)行輸出,結(jié)果如表2所示:
4 實(shí)驗(yàn)數(shù)據(jù)及結(jié)果
4.1 Hadoop分布式環(huán)境的部署
Hadoop部署在4臺(tái)Ubuntu12.04的Linux操作系統(tǒng)PC機(jī)上。其中,Hadoop的主服務(wù)器(即Master節(jié)點(diǎn))運(yùn)行NameNode、JobTracker進(jìn)程;其余作為Hadoop的工作節(jié)點(diǎn)(即Slave節(jié)點(diǎn)),運(yùn)行著DataNode和TaskTracker等進(jìn)程。
4.2 實(shí)驗(yàn)的圖像數(shù)據(jù)集以及開發(fā)工具
在圖像檢索中有很多評(píng)價(jià)方式,常見的評(píng)價(jià)測(cè)度包括查全率(Recall)和準(zhǔn)確率(Precision),本文采用比較常用的評(píng)價(jià)測(cè)度方式。如對(duì)于一幅查詢圖像,根據(jù)檢索返回的結(jié)果的正確性將其標(biāo)記為4種類型:假陽性FP(False Positive)、真陰性TN(True Negative)、真陽性TP((True Positive)、假陰性FN(False Negative)。根據(jù)以上概念,可以得到Precision和Recall的計(jì)算公式定義為:
其中符號(hào)代表該項(xiàng)結(jié)果的數(shù)據(jù)個(gè)數(shù),TP和FN的和是數(shù)據(jù)庫所有相關(guān)圖片的總數(shù)。其中,F(xiàn)P的含義是檢索判定為相似圖像,但實(shí)際上這些結(jié)果與查詢圖像卻并不相似;TP的含義是檢索為相似的圖像,實(shí)際上與查詢圖像也不相似;FN的含義是檢索為不相似圖像,但實(shí)際上這些結(jié)果與查詢圖像是相似的;TN的含義是檢索為不相似的圖像,實(shí)際上這些結(jié)果與查詢圖像的確不相似。
本文采用的三個(gè)實(shí)驗(yàn)數(shù)據(jù)集分別來自:(1)ImageNet[9]:這是一個(gè)計(jì)算機(jī)視覺系統(tǒng)識(shí)別項(xiàng)目,是目前世界上圖像識(shí)別最大的數(shù)據(jù)庫,是美國(guó)哈佛的計(jì)算機(jī)科學(xué)家模擬人類的識(shí)別系統(tǒng)建立的。從中挑選出了具有商品圖片性質(zhì)的1000幅圖片作為實(shí)驗(yàn)數(shù)據(jù)集。(2)Flickr[10]:Flickr是目前世界上最好的線上相片管理和分享應(yīng)用程式之一,從中挑選出了1000幅圖像作為實(shí)驗(yàn)數(shù)據(jù)集。(3)來自于亞馬遜商城[11]收集的商品圖片2000幅。實(shí)驗(yàn)圖片在選取過程中主要集中于鞋子、衣服、皮包、首飾等類別。
從實(shí)驗(yàn)(1)和實(shí)驗(yàn)(2)可以看出:k值越大,查準(zhǔn)率普遍升高,其中Shoes的查準(zhǔn)率由62%升到了86%,Leather Bag由85%升到100%;但是查準(zhǔn)率提高的同時(shí),查全率下降的也比較明顯,Clothes的查全率由66%下降到43%,Bag的查全率由55%降到29%;如果k值較小,查找到的圖片總數(shù)量會(huì)很多,但準(zhǔn)確率會(huì)下降,因?yàn)槠渲胁幌嗨频膱D片數(shù)量也會(huì)增多,而查全率會(huì)升高。
從實(shí)驗(yàn)(1)和實(shí)驗(yàn)(3)可以得出,隨著L值的減小,準(zhǔn)確率和查全率都呈下降趨勢(shì)。因此,從上述實(shí)驗(yàn)結(jié)果得出,L值和k值也不能很大,隨著L值的增大,雖然會(huì)使算法的查全率和準(zhǔn)確率相應(yīng)地提高但會(huì)使索引文件的數(shù)量增多,增加查詢時(shí)間的開銷;對(duì)于k值,隨著k增大,算法的準(zhǔn)確率會(huì)提高,但又會(huì)降低算法的查全率。參數(shù)L值和k值的選取需要通過實(shí)驗(yàn)進(jìn)行優(yōu)化。
5 結(jié)束語
本文主要研究了基于內(nèi)容的商品圖像檢索系統(tǒng)并將其應(yīng)用到了Hadoop分布式計(jì)算平臺(tái)上,詳細(xì)地描述了系統(tǒng)的實(shí)現(xiàn)以及所用到的核心技術(shù)。其中,基于Hadoop圖像GIST特征的E2LSH算法是檢索相似商品圖像的算法;基于Caffe的CNNs深度學(xué)習(xí)算法是開源高效的圖像識(shí)別算法。通過Hadoop的MapReduce編程模型實(shí)現(xiàn)了E2LSH算法,生成圖像的索引文件并保存在Hadoop的HDFS文件系統(tǒng)中。算法的實(shí)現(xiàn)主要分為兩個(gè)階段,一是創(chuàng)建索引文件階段,另一階段即為離線查詢階段。通過實(shí)驗(yàn)對(duì)算法中所涉及的各個(gè)參數(shù)進(jìn)行優(yōu)化,本文進(jìn)行了大量的實(shí)驗(yàn)來測(cè)試本系統(tǒng)的效果,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了分析對(duì)比。
通過實(shí)驗(yàn)可以發(fā)現(xiàn),在圖像的檢索階段通過采用E2LSH的近似最近鄰檢索算法可以加快候選集的檢索速度,然后通過CNN的深度學(xué)習(xí)算法可以過濾掉候選集中和被檢索圖像不屬于同一個(gè)類別的圖像,從而大大提高了檢索的正確率。這也說明了該系統(tǒng)在基于內(nèi)容的商品圖像檢索上的有效性。
參考文獻(xiàn):
[1] Gionis A, Indyk P, Motwani R. Similarity Search in High Dimensions via Hashing[A]. Proc of the 25th International Conference on Very Large Data Bases, 1999: 518-529.
[2] Roska T, Chua L O. The CNN universal machine: an analogic array computer[J]. IEEE Transactions on Circuits & Systems II Analog & Digital Signal Processing, 1993,40(3): 163-173.
[3] Chansler R, Sunnyvale Y. The Hadoop Distributed File System[J]. IEEE Symposium on Mass Storage Systems & Technologies, 2010(11): 1-10.
[4] Oliva A, Torralba A. Modeling the shape of the scene: A holistic representation of the spatial envelope[J]. International journal of computer vision, 2001,42(3): 145-175.
[5] Datar M, Indyk P, Immorlica N, et al. Locality-Sensitive Hashing Scheme Based on p-Stable Distributions[J]. SoCG, 2004(2): 253-262.
[6] Sun Y, Wang X, Tang X. Deep learning face representation from predicting 10,000 classes[A]. Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on IEEE, 2014: 1891-1898.
[7] Tao Yu fei, Yi Ke, Sheng Cheng, et al. Quality And Efficiency In High Dimensional Nearest Neighbor Search[A]. Proc of the 35th SIGMOD international conference on Management of data, 2009: 563-575.
[8] STUIVER M, REIMER P J, BARD E, et al. INTCAL98 radiocarbon age calibration, 24 000-0 cal BP[J]. Radiocarbon, 1998,40(3): 1041-1083.
[9] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 2012(2): 1097-1105.
[10] Sawant N, Li J, Wang J Z. Automatic image semantic interpretation using social action and tagging data[J]. Multimedia Tools & Applications, 2011,51(1): 213-246.