• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      抗多遮擋物干擾的光場深度信息估計算法

      2020-06-18 05:54:54李學華
      計算機工程與應(yīng)用 2020年12期
      關(guān)鍵詞:光場像素點景點

      羅 燦,李學華

      北京信息科技大學 信息與通信工程學院,北京100101

      1 引言

      光場[1]描述了來自三維空間中光線的光強和方向信息,因此光場很好地表達了場景的視覺屬性。隨著基于微透鏡陣列的光場相機[2-3]的普及,基于光場分析的計算機視覺問題引起了廣泛關(guān)注,例如三維重建、圖像分割、圖像超分辨率等任務(wù)[4-6],而這些任務(wù)依托于精確的場景深度信息,因此,深度信息估計是需要重點研究的問題。

      光場相機能夠在單次曝光中獲取到場景點不同視角的圖像,這些圖像稱之為光場子孔徑圖像,類似于雙目匹配法[7]估計深度,一般的光場的深度信息估計方法基于多視角匹配構(gòu)建目標函數(shù)的思想:Tao等人[8]提出了匹配代價與重聚焦代價結(jié)合的思想進行深度信息估計,首先將光場圖像處理為EPI(Epipolar Plane Image)圖像,然后對EPI圖像進行角度旋轉(zhuǎn)并按照視角方向求積分,不同的旋轉(zhuǎn)角得到不同大小的匹配代價和重聚焦代價,最后將兩個代價進行綜合構(gòu)建目標函數(shù),通過最小化目標函數(shù),求解場景的深度信息;Jeon等人[9]通過多視角移位匹配的方法構(gòu)建目標函數(shù),首先通過傅氏變換的平移性質(zhì)對其他視角圖像進行亞像素點的平移,然后對多個視角進行像素點的匹配,計算像素點之間的歐氏距離和梯度構(gòu)建目標函數(shù),最后最小化目標函數(shù)求解場景深度值。然而,基于多視角匹配的思路在構(gòu)建目標函數(shù)時會嚴重受到遮擋的影響,原因在于被遮擋的場景點在部分視角下會缺失,導致該場景點出現(xiàn)錯誤匹配,影響目標函數(shù)的正確構(gòu)建,導致最小化目標函數(shù)求解的深度估計值在遮擋處的估計精度低,因此處理遮擋帶來的干擾是深度信息估計中需要考慮的重要問題。對此,Wang等人[10]提出遮擋分析理論,該分析基于光場的angular patch圖像進行,其證明了angular patch中的遮擋邊界的切線斜率與中心視角的邊緣切線斜率一致,由此,可通過該關(guān)系將遮擋光線進行分離,降低遮擋干擾,但是文章只分析了單個遮擋物的情況,對于包含多個遮擋物時,其算法魯棒性較差。

      綜合上述分析,本文針對遮擋干擾帶來的問題,提出抗多遮擋物干擾的光場深度信息算法。首先,對光場angular patch圖像中的多遮擋物干擾問題進行進一步分析;其次,基于分析結(jié)果提出改進AP聚類算法將angular patch圖像中的場景點和多個遮擋物進行分離,排除多遮擋物的干擾;然后,對排除遮擋干擾的angular patch圖像構(gòu)建聯(lián)合像素強度信息熵及中心方差的目標函數(shù),求解場景點的初始深度估計值;最后,構(gòu)建基于MAP-MRF框架的能量函數(shù)對初始深度值估計進行平滑優(yōu)化,得到場景點的最終深度值估計。

      2 基于angular patch圖像的遮擋分析

      光場的函數(shù)表達式記為L(x,y,u,v),其中,(u,v)是視角坐標,(x,y)是空間坐標,L代表空間中的某處光線,光場記錄了場景中各個方向光線信息,因此,光場相機可以在單次曝光中獲取到場景在不同視角下的圖像,這些圖像稱為光場子孔徑圖像。光場的angular patch圖像是光場另一種表征方式,與子孔徑圖像描述整個場景不同,該圖像只記錄場景中某一點在所有視角下的光線,因此,構(gòu)成該圖像需要找到所有子孔徑圖像下來自同一場景點的像素點,這一步通過視角間的移位關(guān)系實現(xiàn),以中心視角作為參考視角,構(gòu)建點p(x*,y*)的angular patch,令α為位移系數(shù),則(u,v)視角下點p(x*,y*)的光線Lα為:

      由式(1)可知,某場景點p(x*,y*)的angular patch圖像中記錄的其他視角光線和位移系數(shù)α有關(guān),只有在正確的α下,其中的光線來自于同一場景點,因此,某場景點p(x*,y*)的angular patch圖像記為:

      由于angular patch記錄來自同一場景點的光線,因此該圖像具有像素強度一致性[11],即圖像中所有像素點的像素強度都一致,該性質(zhì)建立在正確的α上;除此之外,文獻[11]還表示,深度值相同的場景點,構(gòu)建angular patch圖像的α相同,由此可知,α與場景的深度值呈一一對應(yīng)關(guān)系。綜上,本文利用場景點構(gòu)成angular patch圖像的α和該圖像像素強度的關(guān)系構(gòu)建α的目標函數(shù),求解場景點的深度值。

      由于場景中遮擋的干擾,造成被遮擋的場景點在某些視角下缺失光線,因此,被遮擋的場景點其angular patch圖像有部分像素點來自遮擋物,破壞了像素一致性,導致目標函數(shù)與深度值的映射關(guān)系錯誤,所以,需要對圖像中的遮擋干擾進行分析處理,排除angular patch圖像中的遮擋物,正確地建立目標函數(shù)。本文沿襲文獻[10]的思想,改進為對場景包含多個遮擋物的情況進行分析:首先,觀察某場景點p在中心視角下的成像,如圖1所示。

      圖1 場景點的中心視角成像

      由圖1可知,當出現(xiàn)遮擋物時,場景點周邊的光線來自于遮擋物,像素點m來自于遮擋物2的光線,像素點n來自于遮擋物1的光線。然后,觀察場景點p在angular patch下的成像,如圖2所示。

      圖2 場景點的angular patch成像

      由圖2可知,來自于同一場景點p的光線中,有部分視角的光線被遮擋物遮擋,與中心視角成像的遮擋情況一致,像素點m來自于遮擋物2的光線,像素點n來自于遮擋物1的光線。觀察圖1及圖2的遮擋點位置分布,可以得出多遮擋物的分析理論:光場中,某場景點的angular patch圖像中各個遮擋物的像素點位置分布與其在中心視角圖像的分布是一致的?;谠撜趽醴治隼碚?,本文提出抗多遮擋物干擾的光場深度信息估計算法。

      3 抗遮擋干擾的光場深度信息估計算法

      3.1 改進AP聚類的多遮擋物分離方法

      介紹了基于angular patch圖像的多遮擋物分析理論,在此分析理論的基礎(chǔ)上,提出改進AP聚類的多遮擋物分離方法:由于場景點的中心視角圖像的遮擋點位置分布與該點angular patch圖像中遮擋點的位置分布一致,所以,本文對場景點的中心視角圖像的像素進行聚類,目的是將多遮擋物和場景點分離,得到分類標記矩陣Mask(x,y),用于angular patch圖像中的遮擋處理。

      由于angular patch圖像由同一場景點的各個視角的光線構(gòu)成,所以其分辨率與光場的視角數(shù)(U,V)一致,因此,要得到所有場景點的angular patch圖像的遮擋點位置分布,需要遍歷中心視角圖像下以場景點為中心的(U,V)大小的窗,并對窗進行聚類,得到所有場景點的分類標記矩陣Mask(x,y)。

      對于圖像聚類,本文借鑒并改進AP聚類算法的思想對窗進行聚類。不同于K-means等聚類算法需要指定聚類中心的數(shù)量,AP聚類算法將所有可能的數(shù)據(jù)點作為潛在的聚類中心,通過消息傳遞的思想迭代更新進行聚類。AP聚類算法的思想迎合了本文多遮擋物分離的需求(由于不同場景點angular patch圖像中的遮擋物數(shù)量不一致),但是,傳統(tǒng)AP聚類算法[12]傳遞的消息僅基于像素強度進行,這意味著聚類時沒有考慮到圖像內(nèi)蘊含的幾何關(guān)系,產(chǎn)生的聚類結(jié)果可能不符合實際的幾何形狀,如圖3所示。

      圖3 傳統(tǒng)AP聚類算法結(jié)果

      如圖3,(a)中框出的區(qū)域為待分類區(qū)域,該區(qū)域中只包含有前景的白色部分和背景的黃色部分,所以理想的分類結(jié)果如(b),但應(yīng)用傳統(tǒng)AP聚類算法的結(jié)果如(c),可以看到,由于算法未能考慮圖像內(nèi)含的幾何關(guān)系,增加了無意義的類中心,得到錯誤的分類結(jié)果。針對該問題,本文提出改進AP聚類算法:

      定義1聚類準則函數(shù)為F(B,S),其表達式為:

      (1)B={bik}N×N,bik∈{0,1},bik=1表示點k是點i的類中心,否則bik=0,點k是類中心則bkk=1。

      (2)S(i,k)描述點k和點i之間的相似度。

      (3)fk(b1k,b2k,…,bNk)和gk(b1k,b2k,…,bNk)表示聚類的約束條件:

      式(4)保證不允許沒有類中心的類存在,式(5)保證每個點屬于且僅屬于一個類中心。

      聚類的根本目的就是最大化式(3)所示的準則函數(shù),保證類的正確劃分割以及將點歸屬于合適的類中。

      對于定義1中(2)所表示的相似度,本文對其定義式如下:

      式(6)中,S(i,k)i≠k表示當像素點i,k之間的像素強度的歐式距離,該值越小時,代表兩者之間相似度越高;S(k,k)=p(k)為偏向參數(shù),代表像素點k作為類中心的先驗偏向程度。

      傳統(tǒng)的AP聚類算法將p(k)設(shè)為相同的常數(shù),且在消息傳遞的過程中保持不變,這造成了圖3(c)中不正確的聚類結(jié)果。但是,圖像中的像素點之間存在幾何關(guān)系,屬于同一區(qū)域的像素點具有高度相似性,因此不同的像素點成為類代表的可能性不同,對此,本文改進定義每個點k的偏向參數(shù)如下:

      其中,[?]表示當s(i,k)>μ時,[s(i,k)>μ]=1,否則[s(i,k)>μ]=0,從式(7)可以看出,當像素點與周圍相似度鄰域(半徑為μ)內(nèi)的像素點的相似度越高,該點成為類中心的先驗偏向程度越大。

      對于求準則函數(shù)的最優(yōu)解,即消息傳遞更新的過程,本文基于傳統(tǒng)AP算法的max-sum算法改進,由于傳統(tǒng)算法在消息傳遞過程中沒有更新偏向參數(shù),而偏向參數(shù)直接影響了聚類結(jié)果(見定義1中準則函數(shù)的表達式),導致了如圖3(c)所示的無意義的類中心出現(xiàn),對此,本文改進消息傳遞過程:

      式(8)、(9)兩者傳遞了點k作為點i類中心的吸引度和可信度消息,隨著消息的傳遞更新,會有某些點被確定為類中心,此時式(10)更新各個點的偏向參數(shù):式(10)表示若某點確定為類中心,那么其他點作為該點類中心的吸引度和可信度消息降低,該點的偏向參數(shù)增加;反之,對于從屬于某個類中心的點,其偏向參數(shù)減小。偏向參數(shù)的更新會直接影響消息的傳遞更新,從而避免當某些點應(yīng)當從屬于某個類中心時,由于其偏向參數(shù)過大,并且在消息傳遞過程不更新,造成該點被錯誤地確立為類中心的情況。

      需要說明的是,為了防止更新過程振蕩,式(8)、(9)的更新過程寫為:

      最后,當消息傳遞過程收斂時,求得點i的類中心點k為:

      由本文提出的改進AP聚類算法得到的聚類結(jié)果如圖4所示,由圖可知,改進AP聚類算法可以更好地將圖像合理地分類。

      圖4 改進AP聚類算法結(jié)果

      綜上所述,改進AP聚類的多遮擋物分離方法記為以下步驟:

      算法1改進AP聚類的多遮擋物分離方法

      輸入:中心視角圖像Centre(x,y)。

      輸出:所有場景點p(x,y)的對應(yīng)(U,V)大小的窗的分類標記矩陣Mask(x,y)。

      算法過程:

      While循環(huán)(當點p(x,y)屬于Centre(x,y)時)

      1.取點p(x,y)為中心的(U,V)大小的窗,記為window(x,y);

      2.對window(x,y)進行改進的AP聚類,得到分類標記矩陣Mask(x,y)。

      End

      3.2 去遮擋干擾的初始深度值估計

      由于angular patch圖像具有像素強度一致性,傳統(tǒng)的方法通過構(gòu)建圖像的像素強度方差作為目標函數(shù),通過最小化目標函數(shù)求解場景點的深度值,但是當angular patch受到遮擋物干擾時,像素強度一致性被破壞,導致目標函數(shù)與深度值的映射關(guān)系錯誤,對此,本文提出去遮擋干擾的初始深度信息估計方法。

      受遮擋干擾的angular patch圖像雖然整體的像素強度一致性遭到破壞,但是圖像中非遮擋的區(qū)域仍然保留像素強度一致,因為該區(qū)域的光線來自同一場景點,因此,只要對angular patch圖像排除遮擋點,對非遮擋區(qū)域構(gòu)建目標函數(shù)即可。

      提出了改進AP聚類的多遮擋物分離方法,通過該方法可以獲取到angular patch圖像的遮擋點位置分布,即分類標記矩陣Mask(x,y)。假設(shè)分類標記矩陣將點p的angular patch圖像分為N個區(qū)域,本文對各個區(qū)域提出聯(lián)合像素強度信息熵及中心方差的目標函數(shù)。首先建立信息熵。

      定義2設(shè)n像素強度,h(n)為像素強度的概率。

      (1)像素強度信息熵的計算式為:

      (2)為了不損失精度,計算RGB三個通道的像素強度信息熵的均值表示信息熵:

      像素強度信息熵代表了圖像像素強度的不確定性,由于非遮擋區(qū)域具有像素強度一致性,所以該區(qū)域的像素強度概率集中,不確定性最小,如圖5所示:(a)、(b)分別表示angular patch圖像(在正確的α下構(gòu)建)非遮擋及遮擋區(qū)域各個通道的像素強度概率,由圖可知,非遮擋區(qū)域的像素強度概率最為集中,其信息熵最小,而遮擋區(qū)域像素強度概率分散,信息熵變大。

      信息熵描述的是區(qū)域的整體關(guān)系,然而,當遮擋物區(qū)域光線來自于平滑且體積大的遮擋物時,該區(qū)域的信息熵可能低于非遮擋區(qū)域,造成混淆,如圖6所示。

      由圖6(b)可知,當遮擋來自大體積平滑遮擋物時,其像素強度概率可能比非遮擋區(qū)域稍集中一些,使得其信息熵低于非遮擋區(qū)域,對此,本文建立中心方差。

      圖5 angular patch非遮擋和受遮擋區(qū)域像素強度概率

      圖6 大體積遮擋下的angular patch像素強度概率

      該方差描述了angular patch圖像中的某個區(qū)域的光線和點p光線的相似度,方差越大,相似度越低,代表該區(qū)域為遮擋區(qū)域的可能性大。因此,本文用中心方差約束各區(qū)域信息熵的大小,避免平滑且體積大的遮擋物帶來的混淆,提出聯(lián)合像素強度信息熵及中心方差的目標函數(shù)。

      定義4若HNi(p,α)為angular patch圖像某區(qū)域的像素強度信息熵、CNi(p,α)為該區(qū)域像素點與點p的中心方差,則該區(qū)域聯(lián)合像素強度信息熵及中心方差的目標函數(shù)為H?Ni(p,α),其計算式為:

      由式(16)可知,當某區(qū)域的中心方差過大時,表示該區(qū)域點的光線與場景點的光線差異大,所以增大該區(qū)域的信息熵,從而保證最小信息熵為非遮擋區(qū)域的信息熵。由于angular patch圖像在非遮擋區(qū)域信息熵最小,所以最終angular patch圖像的目標函數(shù)為:

      最后,最小化式(17)表示的目標函數(shù),便可以求得點p的初始深度值

      綜上所述,求解場景的初始深度值記為以下步驟:

      算法2去遮擋干擾的初始深度信息估計

      輸入:中心視角圖像Centre(x,y),場景點p(x,y)的angular patch圖像Apα以及對應(yīng)的分類標記矩陣Mask(x,y)。輸出:場景的初始深度值α。算法流程:

      While循環(huán)(當點p(x,y)屬于Centre(x,y)時)

      3.通過式(18)計算點p(x,y)的初始深度值αp;

      4.α(x,y)=αp。

      End

      3.3 初始深度值估計的平滑優(yōu)化

      雖然初始的深度值估計排除了遮擋的干擾,但是估計的過程是單個像素點逐次進行的,這樣接近極限的局部估計,其好處是可以有效抵抗噪聲的干擾,但缺點是完全沒有考慮到圖像的全局信息,即沒有考慮到相鄰像素點之間的關(guān)系。對此,受文獻[13]啟發(fā),本文基于MAPMRF框架提出平滑約束能量函數(shù)對初始深度值估計進行平滑優(yōu)化。

      定義5設(shè)初始深度值為d(p),優(yōu)化后的深度值為d'(p),則平滑約束能量函數(shù)為:

      (1)Edata是匹配項,描述優(yōu)化深度值和初始深度值之間的相似度,同文獻[13],本文以d'(p)及d(p)之間的歐式距離的平方衡量兩者之間的相似度,最小化該項表示優(yōu)化基于初始深度值d(p)進行,其表達式為:

      (2)Esmooth是平滑正則項,p,q∈N為相鄰場景點,用于約束優(yōu)化值的平滑性。文獻[13]的平滑項基于絕對誤差構(gòu)建,其表達式為:

      式(21)表示的平滑正則項可以有效地提升優(yōu)化深度值的連續(xù)平滑性,但是該項忽略了場景的邊界部分:場景中,非邊界部分的深度值變化是連續(xù)的,但是前景與背景的交界處(邊界部分)的深度值是跳變的。因此,文獻[13]的優(yōu)化深度值在邊界處的估計精度低。

      為了約束優(yōu)化深度值在非邊界部分連續(xù)平滑,同時保證優(yōu)化深度值在邊界部分的跳變性質(zhì),本文提出的平滑正則項為:

      式(22)中,分子部分的函數(shù)描述相鄰場景點之間的深度值差異,最小化該部分代表約束相鄰場景點的深度值變化連續(xù)平滑,不同于文獻[13]的絕對誤差,本文采用指數(shù)函數(shù)構(gòu)建,原因在于絕對誤差隨深度值差異的變化基本接近線性,而指數(shù)函數(shù)在差異值較小的時候變化更緩和,這可以有效避免求解的優(yōu)化深度值平滑力度過大的問題(造成相鄰像素點的深度值相同)。

      式(22)中,分母部分表示中心視角圖像中相鄰場景點之間的像素強度的梯度差,若相鄰場景點在非邊界部分,由于像素強度變化小,所以梯度差小,平滑約束強;反之,若相鄰場景點處于邊界部分,則梯度差大,削弱平滑約束。由此,可以有效地保護邊界部分優(yōu)化深度值的跳變性質(zhì),避免邊界部分估計精度低的問題。

      對于所提能量函數(shù)的求解,本文采用標準的圖割算法[14],該算法為迭代求解過程,可以求得能量函數(shù)的最優(yōu)近似解。

      文獻[13]的深度值優(yōu)化結(jié)果與本文提出的深度值優(yōu)化結(jié)果如圖7所示。對比圖7中(c)、(d)黑框部分:從左邊黑框部分可以看出本文算法的優(yōu)化效果漸變性更好,更接近準確深度值,文獻[13]則出現(xiàn)“斷層”,這說明了本文算法基于指數(shù)函數(shù)描述的相鄰場景點的深度值差異具有更好的緩和連續(xù)平滑性優(yōu)化,而文獻[13]在這種深度值漸進連續(xù)的區(qū)域平滑力度過大,造成“斷層”現(xiàn)象;從右邊黑框部分可以看出本文算法的優(yōu)化深度值在邊界部分的精度更高,更接近準確深度值,這說明了本文算法確實有效地在優(yōu)化平滑性的同時保護了邊界部分的跳變性質(zhì),而文獻[13]由于平滑正則項忽略邊界保護導致邊界部分模糊,優(yōu)化深度值反而在邊界部分估計精度降低。

      最后,綜合以上的算法模塊,總結(jié)本文整體算法框架,如圖8所示。

      4 實驗與結(jié)果分析

      4.1 實驗環(huán)境及數(shù)據(jù)集

      本文實驗程序由Matlab完成,程序運行在Windows 7系統(tǒng)主機上,主機的CPU型號為因特爾i7-8700K-3.7GHz,主機內(nèi)存大小為32 GB。

      本文實驗數(shù)據(jù)來自于Wanner等人[15]開源的光場數(shù)據(jù)集HCI 4D Light Field Dataset,該數(shù)據(jù)集提供由Blender建模并渲染的5組光場圖像,光場圖像的空間分辨率為(768,768),角度分辨率為(9,9),除光場圖像以外,該數(shù)據(jù)集還提供了中心視角對應(yīng)的準確的深度值,用以計算估計深度值的估計精度。

      4.2 算法實驗結(jié)果與分析

      本文設(shè)置本文算法與Tao[8]、Jeon[13]、Wang[10]三種算法的比較實驗,四個算法都在同樣的實驗環(huán)境執(zhí)行,對同樣的光場圖像進行深度信息的估計,算法估計的深度值以深度圖的形式表示(由于像素點過多,以圖的形式表示,圖顏色的深淺代表對應(yīng)深度值的大?。惴ㄓ肕SE(均方誤差)評價指標說明估計精度,其表達式為:

      圖7 本文算法深度值優(yōu)化結(jié)果

      圖8 本文算法整體框架

      式中,GT(p)表示準確的深度值,α(p)表示算法的深度值估計,N為像素點數(shù)量,MSE越小,說明算法的估計精度越高。

      首先,本文算法與文獻算法在兩個光場場景Mona和Buddha下的深度圖估計結(jié)果,如圖9、圖10所示。

      對深度圖估計結(jié)果進行分析:

      (1)圖9中(c)~(f)所示圖像中第一行的圖像代表算法在中心視角下的整體深度圖估計結(jié)果,可以直接看出本文算法的深度圖估計與準確深度值最為接近,相較于其他文獻算法沒有明顯的缺失、噪點、變形等,說明了本文算法的可行性。

      (2)為比較算法對遮擋干擾的魯棒性,圖中第二行圖像為中心視角圖像中黑框部分放大的深度圖細節(jié),觀察深度圖中木板與背景交界處(受遮擋干擾)的部分,可以看到,Jeon[13]上半深度圖中木板和篩子相近的部分完全模糊,說明該算法抗遮擋干擾的能力較差,Wang[10]靠下木板的部分出現(xiàn)毛糙,說明該算法雖然對遮擋進行了分析處理,但是精度有限,而本文算法對交界處的估計最準確,說明本文算法對遮擋干擾的魯棒性更強。

      (3)同樣,圖10中,整體深度圖估計也是本文算法與準確深度值最接近,觀察深度圖細節(jié),Jeon[13]在深度圖左下角桌子與背景交界處完全模糊,Wang[10]在深度圖右下角鐵球與桌子的交界處模糊,而本文算法對這些交界處的估計最好,在交界處的估計更準確。

      其次,本文算法與文獻[8]、[10]、[13]算法對幾個光場圖像估計的深度圖的MSE指標比較見表1,由表1可知,本文算法相較于文獻[8]、[10]、[13]算法估計的深度圖具有更小的均方誤差,說明本文算法對場景點估計的深度值更接近準確的深度值,表示本文算法的估計精度更高,精度相對于Tao[8]提高了96.4%,相對于Jeon[13]提高了75.6%,相對于Wang[10]提高了40.2%(提升百分比的計算式見式(24),式中MSEother代表文獻算法的均方誤差,MSEour代表本文算法的均方誤差)。

      表1 算法估計深度圖的MSE指標

      圖9 Buddha場景下算法的深度圖估計結(jié)果

      圖10 Mona場景下算法的深度圖估計結(jié)果

      5 結(jié)束語

      本文對光場的深度信息估計問題進行了討論,重點研究了多遮擋干擾對光場深度信息估計產(chǎn)生的影響,對此,本文從光場成像的角度分析了多遮擋的位置分布,得出場景點的angular patch圖像與中心視角圖像的遮擋點位置分布一致的結(jié)論,在此基礎(chǔ)上,提出了改進AP聚類算法分離遮擋點的策略來去除多遮擋的干擾,之后提出了聯(lián)合像素強度信息熵及中心方差的目標函數(shù),該函數(shù)提供了函數(shù)值與深度值的正確映射,可以正確計算場景點的初始深度值,最后,提出基于MAP-MRF框架的平滑約束能量函數(shù)對初始估計值進行平滑約束優(yōu)化,得到最終的深度信息估計。實驗結(jié)果表明本文算法相較于其他文獻算法增強了對多遮擋干擾的魯棒性,提升了深度值估計精度。今后的工作中,會面向更復雜的場景進行光場深度信息的估計,進一步研究并優(yōu)化復雜場景下的遮擋干擾問題。

      猜你喜歡
      光場像素點景點
      利用新型光場顯微鏡高速記錄神經(jīng)元活動和血流動態(tài)變化
      科學(2020年5期)2020-01-05 07:03:12
      打卡名校景點——那些必去朝圣的大學景點
      基于canvas的前端數(shù)據(jù)加密
      壓縮混沌光場的量子統(tǒng)計性質(zhì)研究
      基于逐像素點深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
      英格蘭十大怪異景點
      海外星云(2016年7期)2016-12-01 04:18:07
      沒有景點 只是生活
      Coco薇(2015年11期)2015-11-09 13:19:52
      景點個股表現(xiàn)
      集成光場三維顯示亮度均勻性校正方法
      基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
      九寨沟县| 长岛县| 灵璧县| 盖州市| 宜昌市| 湛江市| 寿宁县| 海晏县| 塔城市| 射阳县| 昭通市| 黄骅市| 延津县| 奎屯市| 永定县| 韶山市| 富蕴县| 营口市| 琼结县| 偏关县| 慈溪市| 营山县| 丹东市| 溧水县| 浦江县| 湖口县| 松溪县| 蒙阴县| 来安县| 莱芜市| 定南县| 桂阳县| 大新县| 贵定县| 伽师县| 静宁县| 舟曲县| 乃东县| 循化| 鄄城县| 呼玛县|