• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    動(dòng)態(tài)奇異值網(wǎng)絡(luò)的三維模型識(shí)別

    2020-05-12 09:09:44羅文劼田學(xué)東
    關(guān)鍵詞:集上視圖檢索

    羅文劼,張 涵,倪 鵬,田學(xué)東

    (河北大學(xué) 網(wǎng)絡(luò)空間安全與計(jì)算機(jī)學(xué)院,河北 保定 071002)

    E-mail:luowenjie@hbu.edu.cn

    1 介 紹

    卷積神經(jīng)網(wǎng)絡(luò)的出現(xiàn)使得三維模型識(shí)別任務(wù)得到了快速發(fā)展,如AlexNet[1],VGGNet[2]和GoogLeNet[3].對(duì)于大量的三維模型來(lái)說(shuō),較為成熟的研究工作是將2D圖像與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,但會(huì)導(dǎo)致每張圖像不能充分表達(dá)三維模型的特征,如何更好地融合這些圖像的信息使之具有更全面的表達(dá)是投影方法的研究重點(diǎn).文獻(xiàn)[4]使用最大池化(max pooling)方法將多個(gè)三維模型視圖進(jìn)行特征融合,如圖1(a)所示.然而這樣的最大值融合忽略了其他視圖的有效信息,對(duì)于一些差距較大的視圖信息不能全面地反應(yīng)三維模型的整體特征.文獻(xiàn)[5]利用視圖之間的內(nèi)部關(guān)聯(lián)和區(qū)分度進(jìn)行分組整合,得到一系列加權(quán)的視圖特征作為三維模型的特征描述符,如圖1(b)所示,但這樣增加了額外的參數(shù).

    SVD分解和PCA(principal component analysis)都是主成分分析的表達(dá)方式,被廣泛應(yīng)用到圖像識(shí)別任務(wù)中.文獻(xiàn)[6]結(jié)合2D圖像的張量表示,將每個(gè)視圖特征的標(biāo)準(zhǔn)差作為權(quán)值與其特征相結(jié)合,提出加權(quán)多線性主成分分析方法.文獻(xiàn)[7]將PCA與神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合,使用級(jí)聯(lián)的PCA卷積核模擬卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行特征提取,展示了傳統(tǒng)方法在淺層神經(jīng)網(wǎng)絡(luò)的有效性.但這樣的結(jié)合方式只是簡(jiǎn)單的將PCA做一種固定化的線性降維手段,在多維特征屬性下并不具備靈活性.文獻(xiàn)[8]中的協(xié)調(diào)子層(Harmonizing sub-layer)和卷積子層(Conv sub-layer)也使用了SVD分解進(jìn)行特征提取,但只是簡(jiǎn)單地將這一層中的所有特征作為一個(gè)整體進(jìn)行操作,并不能很好地進(jìn)行非線性變換.如圖1(c)所示,動(dòng)態(tài)奇異值法根據(jù)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)的權(quán)重對(duì)奇異值進(jìn)行動(dòng)態(tài)更新,提取出影響較大的動(dòng)態(tài)奇異值信息,從而在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中將同一三維模型的不同視圖進(jìn)行自適應(yīng)融合.

    圖1 最大值融合法、視圖分組融合法和動(dòng)態(tài)奇異值融合法

    2 相關(guān)工作

    三維模型檢索的種類(lèi)分為基于三維結(jié)構(gòu)(3D structures)和基于投影兩大類(lèi)型,基于三維結(jié)構(gòu)計(jì)算的方式有點(diǎn)云(point clouds)、多邊形網(wǎng)格(polygon meshes)和體積網(wǎng)格(volumetric grid)等,基于投影的方法則是利用模型2D圖像進(jìn)行特征提取.雖然三維結(jié)構(gòu)可以全面地反應(yīng)出模型的特征,但由于點(diǎn)與點(diǎn)之間的復(fù)雜結(jié)構(gòu),導(dǎo)致不能很好的與神經(jīng)網(wǎng)絡(luò)相結(jié)合,分類(lèi)檢索的效果不如投影方法.

    2.1 基于三維結(jié)構(gòu)方法

    基于三維結(jié)構(gòu)的方法是用距離、角度、區(qū)域面積、體積結(jié)構(gòu)、距離直方圖[9,24-26]、熱擴(kuò)散特征(Heat kernel signature)[10]和卷積神經(jīng)網(wǎng)絡(luò)[11]來(lái)學(xué)習(xí).文獻(xiàn)[12]模仿沙漏網(wǎng)絡(luò)的編碼器解碼器(encoder-decoder),用kd-tree對(duì)三維點(diǎn)云模型建立encoder網(wǎng)絡(luò),通過(guò)學(xué)習(xí)調(diào)整decoder參數(shù)還原輸入層.文獻(xiàn)[13]通過(guò)深度信念網(wǎng)絡(luò)(deep belief network)訓(xùn)練三維模型的點(diǎn)云數(shù)據(jù),并構(gòu)造2.5D圖像來(lái)分類(lèi)三維模型.然而基于三維結(jié)構(gòu)的方法都要計(jì)算三維模型點(diǎn)與點(diǎn)之間的關(guān)系,這些點(diǎn)的信息具有數(shù)量龐大、豐富多變的性質(zhì),增加了分析計(jì)算的成本,方法[14]通過(guò)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)減小了計(jì)算量.

    2.2 基于投影方法

    投影方法致力于研究視圖的角度、顏色、邊緣特征等影響,文獻(xiàn)[15]在預(yù)先定義的視點(diǎn)處設(shè)置一系列虛擬相機(jī)以捕捉視圖,這些視點(diǎn)可以是十二面體的頂點(diǎn),文獻(xiàn)[16]將模型位于單位球體上投影.由于計(jì)算單位是像素值,相比于基于三維結(jié)構(gòu)的方法更加簡(jiǎn)潔,而且分類(lèi)檢索效果也更好.對(duì)于不同角度進(jìn)行分類(lèi)處理的方法有文獻(xiàn)[5],對(duì)于神經(jīng)網(wǎng)絡(luò)特征再處理的方法有文獻(xiàn)[17],融合多種特征提取方法的文獻(xiàn)有[18,24-26].

    第3、4章分別描述了動(dòng)態(tài)奇異值網(wǎng)絡(luò)的組成部分和其在識(shí)別檢索任務(wù)中的規(guī)則.

    3 動(dòng)態(tài)奇異值層

    動(dòng)態(tài)奇異值層是一個(gè)多級(jí)運(yùn)算單元,集合了區(qū)域化層、自適應(yīng)SVD層和壓縮層.如圖2所示,假設(shè)區(qū)域X×Y×C被劃分為一系列x×y×C大小的矩陣,其中C表示通道維度大小,這些子區(qū)域經(jīng)過(guò)自適應(yīng)SVD層處理后聯(lián)合得到中間層特征Fmid,這個(gè)特征可以根據(jù)條件要求選擇性地進(jìn)入?yún)^(qū)域?qū)拥募?jí)聯(lián)模式,最后經(jīng)過(guò)壓縮層的維度變換得到最后的全局特征.

    圖2 動(dòng)態(tài)奇異值層的計(jì)算過(guò)程

    3.1 區(qū)域化層

    通過(guò)步長(zhǎng)值s將CNN的特征作為區(qū)域切分對(duì)象,這一屬性類(lèi)似于卷積神經(jīng)網(wǎng)絡(luò)中卷積核的計(jì)算過(guò)程,可以有效地關(guān)注局部特征.假設(shè)模型A具有N個(gè)角度的視圖特征,用集合表示為A={a1,…,aN},這些特征的定義域?yàn)镽w×h×C×N,表示其張量大小為w×h×C.所有子區(qū)域及其定義域表示為K∈Rx×y,在每個(gè)獨(dú)立的區(qū)域內(nèi)會(huì)沿著所有通道進(jìn)行相同的操作,其中x×y(x≤w,y≤h)代表了子區(qū)域的大小.因?yàn)樵贑NN的特征張量中都為方陣,所以也滿足w=h及x=y.對(duì)于每一個(gè)a的子區(qū)域K按如下劃分

    ?x+ms」=w,?y+ns」=h

    (1)

    每個(gè)子區(qū)域kZ(a)的劃分在最初定義時(shí)就被固定且不變.

    3.2 自適應(yīng)SVD層

    SVD分解過(guò)程被表示為

    (2)

    (3)

    (4)

    為了方便的表示梯度值計(jì)算,SVD分解被描述為

    P→UWUT

    (5)

    圖3 自適應(yīng)冪權(quán)值對(duì)奇異值的影響

    (6)

    其中⊙表示為阿達(dá)瑪乘積(Hadamard product),關(guān)于SVD分解的詳細(xì)的倒數(shù)推導(dǎo)在文獻(xiàn)[19]中.矩陣φ定義為

    (7)

    (8)

    其中It表示一個(gè)t×t對(duì)角線是零元素但其他位置都為1的矩陣,矩陣ψ′(W)被定義為

    (9)

    3.3 壓縮層

    (10)

    其中fx(.)表示為

    (11)

    重構(gòu)層將2D目標(biāo)矩陣的維度轉(zhuǎn)換為1D 向量

    (12)

    (13)

    其中mat(.)是可以將一維向量轉(zhuǎn)換為二維矩陣的方法.使用全連接層將全局特征進(jìn)行L2歸一化:

    (14)

    (15)

    4 識(shí)別任務(wù)

    經(jīng)過(guò)動(dòng)態(tài)奇異值層的特征計(jì)算后,模型A的全局特征被表示為

    (16)

    NA表示模型A的視圖個(gè)數(shù).

    4.1 模型分類(lèi)

    (17)

    Θ(γ)方法表示被分到γ類(lèi)的視圖個(gè)數(shù),初始值為0.

    (18)

    4.2 模型Top-N檢索

    視圖與模型存在著多對(duì)一對(duì)應(yīng)關(guān)系,但每張視圖所包含的信息量是不同的,由此可以利用信息量較大的圖像代表每個(gè)模型,建立視圖和模型的一對(duì)一方法,這樣可以加速模型的檢索速度.將虛擬相機(jī)傾斜于水平面夾角60度并且固定在非正視圖的位置可以使更多的點(diǎn)被投影到圖像中,有效地增大模型的拍攝面積.

    單視圖Top-N檢索有多種評(píng)判方式,這里使用視圖到模型的冪次距離來(lái)確定檢索結(jié)果.冪次距離作為非線性變換的一種表達(dá)方法,可以增大較大值與較小值之間的差值,但相近的值不會(huì)有明顯變化.以1為分界點(diǎn),當(dāng)特征的數(shù)值大于1時(shí),冪次方將擴(kuò)大數(shù)值的大小,否則減小數(shù)值大小.假設(shè)一個(gè)模型和其投影圖像為B=,需要對(duì)其進(jìn)行逐模型的特征比較(shape-wise matching).用符號(hào)G表示數(shù)據(jù)集中所有的被查詢模型,最小冪次距離法定義模型B到所有被查詢模型的距離集合為

    (19)

    其中〈-〉表示逐元素相減(elements-wise subtract),TopN代表模型到模型之間的距離方法R(.,.)的排序結(jié)果,這種方法可以有效排除那些與視圖差異較多的模型特征,將多數(shù)視圖距離更近的模型排列到前排檢索結(jié)果中.

    平均冪次距離法可以有效降低單一視圖的誤差影響,同時(shí)在視圖融合樣也可以緩解單視圖匹配的信息量不足的問(wèn)題.與最小冪次距離法類(lèi)似,查詢模型B的視圖要與被查詢模型G的每個(gè)視圖特征進(jìn)行比較,表示如下

    (20)

    其中sum(α)方法表示對(duì)α中所有元素進(jìn)行求和運(yùn)算,α表示一個(gè)向量或一個(gè)矩陣.

    5 實(shí) 驗(yàn)

    實(shí)驗(yàn)用到的基礎(chǔ)網(wǎng)絡(luò)模型為Inception-v4[20],DSVN(Dynamic singular value network)的構(gòu)建是通過(guò)去除網(wǎng)絡(luò)最頂層并替換為動(dòng)態(tài)奇異值層后得到的,圖4展示了不同方法的精準(zhǔn)率與召回率曲線,從中可以看出Inception-v4具有較好的泛化能力,可以很好地適應(yīng)三維模型的特征提取任務(wù),同樣DSVN也展示出明顯的提升.

    圖4 不同方法在Mode1Net40數(shù)據(jù)集上的準(zhǔn)確率召回度曲線

    ModelNet是一個(gè)開(kāi)源的三維模型數(shù)據(jù)集,包含了訓(xùn)練和測(cè)試的數(shù)據(jù)文件,已經(jīng)成為了眾多研究者驗(yàn)證實(shí)驗(yàn)結(jié)果的數(shù)據(jù)來(lái)源和重要佐證.ModelNet 涉及10類(lèi)和40類(lèi)兩種數(shù)據(jù)集,包含150K 3D CAD 模型和660個(gè)獨(dú)立的模型種類(lèi).實(shí)驗(yàn)在這些模型中每個(gè)類(lèi)別選取出80個(gè)訓(xùn)練樣本和20個(gè)測(cè)試樣本.

    由于三維模型是由.obj、.off、.stl等文件格式構(gòu)成,轉(zhuǎn)換為2D圖像就需要渲染過(guò)程,兩種不同的渲染方式被應(yīng)用到多視圖三維模型識(shí)別中,Phong[21]和Blender(一種構(gòu)建三維模型的軟件)結(jié)合的渲染效果相比于OpenGL 細(xì)節(jié)更為突出,可以渲染出明顯的紋理結(jié)構(gòu),但缺點(diǎn)是渲染時(shí)間較長(zhǎng).投影方法是將虛擬相機(jī)設(shè)立于與水平面呈30度的夾角,并旋轉(zhuǎn)一周獲得12個(gè)獨(dú)立視角圖像.為了確保與網(wǎng)絡(luò)模型的輸入層一致,每張圖像的大小設(shè)定為224×224像素.

    網(wǎng)絡(luò)訓(xùn)練過(guò)程中要保證所有超參數(shù)(hyper-parameters)的一致性,確保所有對(duì)比實(shí)驗(yàn)的可靠性.學(xué)習(xí)率設(shè)定為4×10-4,使用批量梯度下降算法(mini-batch stochastic gradient descent)加速網(wǎng)絡(luò)參數(shù)的收斂速度,每一輪(epoch)進(jìn)行2000 次迭代,共進(jìn)行20輪,所用設(shè)備為:GeForce GTX 1080Ti GPU、中央處理器Intel Xeon E5-2680 v2 2.80GHz、內(nèi)存64 GB、操作系統(tǒng)CentOS 7.2.1511.訓(xùn)練大約花費(fèi)1天時(shí)間,為了獲得最好的模型參數(shù),每一輪都保存參數(shù)模型結(jié)果.訓(xùn)練過(guò)程中σ和λ都會(huì)最終達(dá)到一個(gè)相對(duì)平衡的位置,可視化結(jié)果如圖5所示.可以看出特征σ在5輪之后在0到1附近平衡,這代表了全局情況下的σ平均值變化情況,而λ先是有一個(gè)小幅度上升并在第5輪之后趨于平衡狀態(tài),最終在0.4附近震蕩.(n,5,5,1536) 是網(wǎng)絡(luò)結(jié)構(gòu)中的最后一層輸出的張量,其中n代表圖像數(shù)量,后三個(gè)參數(shù)分別是5×5的特征大小和1536個(gè)通道維度.關(guān)于動(dòng)態(tài)奇異值層的一種方案設(shè)計(jì)如下.

    圖5 多個(gè)三維模型的平均σ的變化(左)及平均λ的變化(右)

    9×:動(dòng)態(tài)奇異值網(wǎng)絡(luò)結(jié)構(gòu)的維度變換為:子區(qū)域化大小定義為3×3,CNN特征被劃分為3×3×9×1536,再經(jīng)SVD分解變換為3×9×1536的張量,最后維度壓縮將特征變換為(n,9×1536)的向量.

    圖6 平均冪次距離法在ModelNet10數(shù)據(jù)集上的檢索樣本.其中錯(cuò)誤的檢索結(jié)果用方框標(biāo)出

    不同方法的性能對(duì)比如表1所示,較早的方法精度都低于80%,MVCNN的分類(lèi)精度接近90%,GVCNN的分類(lèi)精度超過(guò)了90%,然而所有的數(shù)據(jù)都低于MVCNN使用Inception-v4網(wǎng)絡(luò)訓(xùn)練的精度.通過(guò)擴(kuò)大9倍動(dòng)態(tài)奇異值層輸出維度以及使用最大壓縮方式得到在ModelNet40數(shù)據(jù)集上的分類(lèi)精度為94.4%,mAP值為93.4%.而使用平均壓縮的方式分類(lèi)精度在ModelNet40數(shù)據(jù)集上提升到95%,mAP提升到94%.

    為了測(cè)試不同參數(shù)下的網(wǎng)絡(luò)Top-N 檢索性能,選擇了每個(gè)類(lèi)別50個(gè)三維模型和檢索庫(kù)中的每類(lèi)20個(gè)模型進(jìn)行比較.實(shí)驗(yàn)結(jié)果如表2所示,平均精度曲線(A-P curves)與平均找回曲線(A-R curves)如圖7所示.由于特征向量的數(shù)值范圍在[0,1]之間,為了擴(kuò)大特征數(shù)值之間的距離,實(shí)驗(yàn)中取ρ,μ=2.對(duì)于在ModelNet10數(shù)據(jù)集上的最小冪次距離法, DSVN, max 9×高于MVCNN (Inception-v4) 2.1個(gè)百分點(diǎn),DSVN, mean 9×高于MVCNN (Inception-v4) 2.9個(gè)百分點(diǎn).而在ModelNet40數(shù)據(jù)集上的最小冪次距離法DSVN, max 9×高于MVCNN (Inception-v4) 1.8個(gè)百分點(diǎn),DSVN, mean 9×高于MVCNN (Inception-v4) 2.5個(gè)百分點(diǎn).對(duì)于在ModelNet10數(shù)據(jù)集上的平均冪次距離法,DSVN, max 9×和DSVN, mean 9×分別高于MVCNN(Inception-v4) 2.9和4個(gè)百分點(diǎn),在ModelNet40數(shù)據(jù)集上分別高于3.7和4個(gè)百分點(diǎn).

    表1 不同方法在ModelNet40數(shù)據(jù)集上的分類(lèi)和檢索結(jié)果

    Table 1 Classification and retrieval results of ModelNet40 dataset compared with the state-of-the-art methods

    methodTraining Config.Pre trainFine tuneTest Config.#ViewsClassification(Accuracy)Retrieval(mAP)(1)SPH[22]———68.2%33.3%(2)LFD[23]———75.5%40.9%(3)3D Shape Nets[24]ModelNet40ModelNet40—77.3%49.2%(4)MVCNN[4],12?ImageNet1KModelNet401289.9%70.1%(5)MVCNN[4],metric,12?ImageNet1KModelNet401289.5%80.2%(6)MVCNN[4],80?ImageNet1KModelNet408090.1%70.4%(7)MVCNN[4],metric,80?ImageNet1KModelNet408090.1%79.5%(8)PointNet++[14]—ModelNet40—90.4%—(9)KD-Network[23]—ModelNet40—91.8%—(10)MHBN[21]ImageNet1KModelNet40692.2%—(11)GVCNN[9],8?ImageNet1KModelNet40893.1%79.7%(12)GVCNN[9],12?ImageNet1KModelNet401292.6%81.3%(13)MVCNN(Inception-v4)ImageNet1KModelNet401293.8%93.2%(14)DSVN,max 9?ImageNet1KModelNet401294.4%93.4%(15)DSVN,mean 9?ImageNet1KModelNet401295%94%

    *metric=low-rank Mahalanobis metric learning

    表2 兩種距離方法在不同參數(shù)網(wǎng)絡(luò)下的Top-10檢索性能比較

    Table 2 Performance of two distance methods in different network parameters result for top-10 retrieval

    方法距離ModelNet10(精準(zhǔn)度)ModelNet40(精準(zhǔn)度)MVCNN(Inception-v4)min-power93.7%91.7%DSVN,max 9?min-power95.8%93.5%DSVN,mean 9?min-power96.6%94.2%MVCNN(Inception-v4)avg-power95.9%94%DSVN,max 9?avg-power98.8%97.7%DSVN,mean 9?avg-power99.9%98%

    表3 不同網(wǎng)絡(luò)參數(shù)下在ModelNet40數(shù)據(jù)集上的性能比較

    Table 3 Performance of different parameters perform on ModelNet40 dataset

    網(wǎng)絡(luò)模型子區(qū)域大小壓縮方式級(jí)聯(lián)精準(zhǔn)度mAPDSVN,max 5?5×5max92.4%92%DSVN,max 3?3×3max 93.6%92.8%DSVN,max 9?3×3max94.4%93.4%DSVN,max 16?2×2max94%93.1%DSVN,max 8?2×2max 93.7%92.6%DSVN,mean 5?5×5mean92.6%92.5%DSVN,mean 3?3×3mean 94.1%93.4%DSVN,mean 9?3×3mean95%94%DSVN,mean 16?2×2mean94.5%93.2%DSVN,mean 8?2×2mean 93.9%92.9%

    圖6展示了平均冪次距離檢索的結(jié)果,方框中為錯(cuò)誤檢索的模型類(lèi)別,而ModelNet中存在特征相似但不屬于同一類(lèi)別的模型,人眼也無(wú)法做到準(zhǔn)確辨別,因此平均冪次距離法的相似度匹配具有較好的檢索效果.

    6 參數(shù)討論

    本節(jié)討論動(dòng)態(tài)奇異值網(wǎng)絡(luò)不同參數(shù)對(duì)實(shí)驗(yàn)結(jié)果的影響以及冪次距離對(duì)檢索的影響,網(wǎng)絡(luò)中的參數(shù)包括區(qū)子域結(jié)構(gòu)的大小、選取維度壓縮的方式和影響輸出維度大小的級(jí)聯(lián)參數(shù)的使用.除了上一節(jié)介紹的9×外其余的參數(shù)模型如下:

    5×:子區(qū)域大小為5×5是一種設(shè)計(jì)簡(jiǎn)單的方案,由于直接將CNN的輸出特征作為整體,區(qū)域化層未被激活,從而特征維度變化最小,不利于局部特征的表達(dá).

    3×:子區(qū)域大小為3×3,這種方法同9×不同的是使用了選擇性參數(shù)——級(jí)聯(lián),經(jīng)過(guò)SVD分解得到1×9張量,所有被分解的張量聚合后有形成一個(gè)新的特征維度,再次被區(qū)域化層處理和自適應(yīng)SVD層處理,得到1×3大小的張量,最后經(jīng)過(guò)壓縮層轉(zhuǎn)變?yōu)?n,3×1536).

    16×:2×2的子區(qū)域大小可以獲得一個(gè)2×16的特征矩陣,卻成為最大輸出規(guī)模的方案.

    8×:這種方案同樣用到了級(jí)聯(lián)屬性,是在16×的基礎(chǔ)上縮小了一半特征維度.

    通過(guò)實(shí)驗(yàn)數(shù)據(jù)表3所示,使用了級(jí)聯(lián)參數(shù)的模型表現(xiàn)效果并不理想,雖然這樣的做法可以將網(wǎng)絡(luò)維度縮小一半,但循環(huán)使用此方法提取特征會(huì)降低算法的有效性,建議每層只使用一次可以降低局部特征的損失.一個(gè)明顯的結(jié)果是壓縮方式的使用情況,多數(shù)的均值方法高于最大值方法的表現(xiàn).而子區(qū)域大小選擇3×3時(shí)效果最好.

    表4分析了冪次距離中的參數(shù)ρ和μ對(duì)檢索的影響,可以發(fā)現(xiàn)ρ,μ=2時(shí)的表現(xiàn)效果最好.

    圖7 平均準(zhǔn)確率和平均召回率

    表4 MVCNN(Inception-v4)使用平均冪次距離在ModelNet10數(shù)據(jù)集上的檢索效果

    Table 4 MVCNN(Inception-v4)uses avg-power distance to retrieve results on the ModelNet10 dataset

    ρμ-1 123095.04%95.82%95.2%0.5—95.92%95.84%1—95.88%95.86%

    7 結(jié) 論

    本文提出了一種動(dòng)態(tài)奇異值方法,與卷積神經(jīng)網(wǎng)絡(luò)形成端對(duì)端網(wǎng)絡(luò)框架,動(dòng)態(tài)冪權(quán)值的奇異值屬性可以對(duì)多角度的視圖進(jìn)行自適應(yīng)特征融合.同時(shí),使用區(qū)域化方法和壓縮方法極大地關(guān)注了局部特征的表達(dá),平衡了多個(gè)維度下的特征參數(shù).冪次距離與平均距離的結(jié)合方式對(duì)于三維模型的檢索具有較為突出的效果,實(shí)驗(yàn)部分設(shè)計(jì)了多種方案對(duì)比不同參數(shù)的影響,并找到一組泛化能力最好的參數(shù)值,對(duì)檢索問(wèn)題中不同種類(lèi)的模型有很強(qiáng)的特征區(qū)分度,驗(yàn)證了本方法在三維模型分類(lèi)和檢索工作中的有效性.

    猜你喜歡
    集上視圖檢索
    Cookie-Cutter集上的Gibbs測(cè)度
    鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
    2019年第4-6期便捷檢索目錄
    復(fù)扇形指標(biāo)集上的分布混沌
    5.3 視圖與投影
    視圖
    Y—20重型運(yùn)輸機(jī)多視圖
    SA2型76毫米車(chē)載高炮多視圖
    專(zhuān)利檢索中“語(yǔ)義”的表現(xiàn)
    幾道導(dǎo)數(shù)題引發(fā)的解題思考
    长沙县| 洪湖市| 开鲁县| 磴口县| 齐齐哈尔市| 肃宁县| 延安市| 正宁县| 嫩江县| 财经| 伽师县| 大宁县| 田阳县| 亳州市| 龙游县| 墨江| 九龙坡区| 长汀县| 淮安市| 花莲县| 合川市| 城口县| 赤水市| 鸡东县| 子洲县| 鄄城县| 东港市| 永胜县| 宣城市| 桂林市| 扎赉特旗| 怀来县| 新郑市| 沈阳市| 贵港市| 奉节县| 托克逊县| 永丰县| 商都县| 泾川县| 昌乐县|