• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于中智加權相似度量的尺度自適應視覺目標跟蹤算法

      2018-05-25 06:36:43胡珂立范恩葉軍沈士根谷宇章
      電信科學 2018年5期
      關鍵詞:中智直方圖尺度

      胡珂立,范恩,葉軍,沈士根,谷宇章

      (1.紹興文理學院,浙江 紹興 312000;2.中國科學院上海微系統(tǒng)與信息技術研究所,上海 200050)

      1 引言

      隨著“平安城市”的進一步建設以及人們對安全生活、生產(chǎn)需求的進一步提升,以物聯(lián)網(wǎng)為代表的多項技術不斷發(fā)展。視覺傳感器是物聯(lián)網(wǎng)感知世界的關鍵途徑,眾多視覺傳感器產(chǎn)生的海量數(shù)據(jù)須經(jīng)編碼[1]傳輸,與視覺傳感數(shù)據(jù)緊密相關的視覺分析[2,3]也是當前最重要的環(huán)境感知手段之一。視覺目標跟蹤[4-6]的任務為鎖定監(jiān)控區(qū)域內興趣目標,時刻感知其位置信息。視覺目標跟蹤是進行后續(xù)高級分析任務的重要基礎。由于現(xiàn)實場景中面臨諸多挑戰(zhàn),提升視覺目標跟蹤性能仍是一個挑戰(zhàn)性問題。

      均值漂移算法由Comaniciu等人[7,8]提出,并被用于視覺目標跟蹤。采用顏色直方圖作為目標特征。在目標跟蹤過程中,算法通過最小化跟蹤目標與候選目標區(qū)域概率密度函數(shù)的距離來確定當前目標位置。由于均值漂移跟蹤算法采用顏色直方圖特征和高效的目標區(qū)域定位策略,能有效地克服運動模糊、目標形變等挑戰(zhàn)。然而,當背景區(qū)域與目標特征相近時,該算法極易發(fā)生偏移,最終導致跟蹤失敗。鑒于此種問題,一些新的度量方式或特征被引入,例如Cross-Bin度量[9]、SIFT 特征[10]、紋理特征[11],在一定程度上提升了算法頑健性。Tomas等人[12]將背景信息引入,并提出了基于背景加權的方法。在目標尺度估計方面,Tomas等人[12]采用了前向后向穩(wěn)定性檢測方法,經(jīng)改進的此均值漂移算法的表現(xiàn)超過了多數(shù)性能優(yōu)異的跟蹤算法。此外,在尺度更新方面,Robert等人[13]采用差分尺度空間濾波器的策略,也取得了一定成效。盡管眾多學者做了很多努力,但視覺目標跟蹤仍是一個開放問題。鑒于均值漂移跟蹤算法的高效性,尋求一種恰當?shù)姆绞揭猿浞掷媚繕诵畔⒑捅尘靶畔⑻嵘繕宋恢霉烙嫷念B健性仍十分必要。

      中智集理論[14]由Smarandache提出,相較于傳統(tǒng)的模糊理論,中智集理論除了對真(truth)、假(falsity)分量進行表述外,還專門對不確定(indeterminacy)分量進行了處理。中智集理論在處理不確定信息方面展現(xiàn)出很大優(yōu)勢。為了將中智集理論用于工程領域,參考文獻[15]提出了單值中智集的概念,將真、假、不確定分量的值限定在0到1的閉區(qū)間范圍內。為將單值中智集用于工程決策,參考文獻[16]提出了余弦相似量測。鑒于中智理論的有效性,其被廣泛用于計算機視覺[17-23]、汽輪機故障診斷[24]、治療方案選擇[25,26]、聚類理論等[17,27-29]。參考文獻[17,18,21-23]將中智集理論用于圖像分割,其中參考文獻[17]提出了中智相似聚類方法;參考文獻[18]將不確定濾波器引入圖像分割;參考文獻[21]引入核約束,提出了核空間中智模糊均值聚類算法。在參考文獻[19]中,率先將單值中智集引入視頻目標跟蹤算法中,提出了面向圖像顏色域和深度域的中智真、假、不確定分量的度量方法,并利用單值中智交叉熵完成了顏色和深度空間的信息融合,以此提升了跟蹤算法性能。參考文獻[30]利用中智相似度量建立新的權值,一定程度上提升了跟蹤算法的頑健性,然而其將 3個中智分量同等看待,且采用固定尺度信息,一定程度上限制了算法性能。

      本文引入中智加權相似度量,提出了尺度自適應的中智均值漂移視覺跟蹤算法,主要貢獻如下:

      (1)提出了中智分量加權的思路,并將其引入余弦相似度量;

      (2)針對幀間目標特征穩(wěn)定度和目標背景差異性提出了相應屬性下的真、不確定、假量測計算方法,并利用加權余弦相似度量建立權值向量;

      (3)針對目標尺度自適應更新問題提出了目標尺度縮小/擴大的真、不確定、假量測計算方法,并提出了中智框架下的尺度更新策略。

      2 中智余弦相似度量

      2.1 單值中智集

      單值中智集是中智集的重要組成部分,單值中智集的提出使得中智理論用于科學與工程問題成為可能。單值中智集中每個元素對應的真、不確定和假分量均為實數(shù)數(shù)值。假定X是一個全集,在X中的單值中智集A可以表示為:

      其中,T(x)、I(x)和F(x)分別表示對應元素的真、不確定和假分量量測函數(shù),且TA(x)、IA(x)、FA(x)∈[0,1],0≤TA(x)+IA(x)+FA(x)≤3。

      假定是一個可供選擇的集合,是一個條件屬性集合,依照式(1),Ai可以被表示為:

      其中,TCj(Ai)、ICj(Ai)和FCj(Ai)是在條件屬性Cj下針對Ai的真、不確定和假分量量測函數(shù),且TCj(Ai)、ICj(Ai)、FCj(Ai)∈[0,1],0≤TCj(Ai)+ICj(Ai)+FCj(Ai) ≤3。多條件屬性下的集合A為多屬性單值中智集。

      2.2 余弦相似度量

      參考文獻[31]中提出了一種面向多屬性單值中智集的余弦(向量形式)相似度量測方法,Ai與Aj在屬性Ck下的相似度可以表示為:

      假定A*代表中智集范疇內理想情況下的選擇,則任一選擇Ai同A*的加權相似度可以表示為:

      其中,wk∈[0,1],wk是對應于屬性Ck的權值,且

      2.3 加權余弦相似度量

      觀察式(4),可以發(fā)現(xiàn)該加權相似度僅是對不同屬性的加權,然而在實際應用中,有時須強化各分量內部的T、I、F分量中的一個或多個值。現(xiàn)有的中智相似度量算法并沒有這項考慮,因此,將Ai同Aj之間的相似度表示為:

      其中,α、β、γ∈[0,1],分別為T、I、F分量的權值,且滿足α+β+γ=1。可以看到,式(5)中的主體部分實際是計算向量和向量之間的余弦值。因此,很容易得出如下3個結論:

      假定A*代表理想選擇,則Ai同A*之間的相似度可表示為:

      3 權值向量構建

      為提升均值漂移跟蹤算法的頑健性,本文以目標特征、背景特征為出發(fā)點,從幀間穩(wěn)定度和幀內相似度兩個方面對均值漂移跟蹤算法進行約束。

      3.1 均值漂移跟蹤算法

      均值漂移算法通常采用核加權顏色直方圖,在選定跟蹤目標后(通常用矩形框選定目標區(qū)域),目標特征被表示為:

      其中,?u是直方圖的一個分量,假定有m個分量,則有為相對矩形框中心的圖像坐標,b(x)是一個映射函數(shù),它將x像素點位置的顏色信息映射在 1~m區(qū)間內的某一個數(shù)值上。k(x)為核函數(shù),核函數(shù)要求具有等向性、凸和單調遞減性。δ(x)是克羅內克函數(shù),C為歸一化參數(shù),n為目標區(qū)域像素點總數(shù)。

      在跟蹤過程中,需要選取候選目標,提取候選目標直方圖特征與目標特征比對。假定y是候選目標區(qū)域(同尺度矩形框)的中心坐標,候選目標特征可表示為:

      其中,xi為候選區(qū)域內的像素點坐標,nh為候選區(qū)域總像素點數(shù),Ch為歸一化參數(shù)。

      巴氏相關系數(shù)被用來衡量目標特征和候選目標特征的相似度,該相似度被表示為:

      上一幀確定的目標區(qū)域通常會被作為下一幀的首個候選目標區(qū)域。新一幀目標區(qū)域須使得最大。針對該項目標,假設當前候選目標區(qū)域中心點圖像坐標為0,則下一個候選目標中心點坐標應為[7,8]:

      其中,式(10)中的wi可通過式(11)計算:

      3.2 多屬性中智度量

      為頑健完成視覺目標跟蹤問題,須強化幀間特征較穩(wěn)定的特征以及和背景特征差異較大的特征。鑒于此,本文以直方圖特征每個分量為分析對象,提出了兩種基于單值中智集的T、I、F量測。

      對于幀間穩(wěn)定條件屬性Cs,借助3σ理論,t時刻的T、I、F量測分別被定義為:

      其中,時刻到t時刻目標跟蹤位置特征直方圖中的第u個分量的集合,μ為該集合的均值,σ為該集合的標準差,N表示該集合中總元素數(shù)??梢园l(fā)現(xiàn),和分量的含義分別為t時刻前連續(xù)N幀時序內滿足條件和的u分量數(shù)量占總元素數(shù)的概率。

      對于目標特征強度及目標/背景差異屬性Cb,相應的t時刻的T、I、F量測分別被定義為:

      其中,?u為目標特征直方圖的第u個分量,bu為背景區(qū)域特征直方圖的第u個分量。在本文中,背景區(qū)域被定義為目標區(qū)域的等比例外擴區(qū)域,兩個區(qū)域中心均為原目標區(qū)域中心。假定目標區(qū)域為Go,則背景區(qū)域Gb=λGo?Go,λ為擴大系數(shù)。bu的計算依據(jù)式(7),本文并非在每一幀均更新bu,而是當前幀背景區(qū)域特征與bu差異較大時才將其作為新的背景特征。

      3.3 權值計算

      將式(12)~式(17)代入式(6),便可以得到直方圖中第u個分量的中智權值:

      其中分別為兩個條件屬性對應的權值,此處的理想選擇A*在任一屬性條件下均被定義為由此,式(18)可以簡化為:

      4 尺度自適應方法

      在跟蹤目標的過程中,目標成像大小可能會發(fā)生變化,當跟蹤目標框的尺度變化長時間無法適應目標成像尺寸時,易發(fā)生跟蹤失敗。本文將目標候選區(qū)域特征與目標特征的相似度作為可靠信息,將目標候選區(qū)域特征與背景區(qū)域特征的相似度作為不確定信息,首次將中智集理論引入目標尺度更新策略中。

      在當前幀目標位置確定后,開始分析是否需要進行尺度更新。首先考慮尺度縮小的情況,基于本文對可靠信息和不確定信息的分析,縮小尺度對應的T、I、F量測分別被定義為:

      其中,為當前幀目標區(qū)域縮小后對應小區(qū)域的特征直方圖,確定縮小區(qū)域的方式與式(16)中背景區(qū)域的確定方法類似,同樣以當前目標區(qū)域為參考,區(qū)域中心不變,長寬按同比例縮小λsa倍,λsa為對應的縮放系數(shù)。為初始目標直方圖。為當前區(qū)域對應背景區(qū)域的特征直方圖。容易發(fā)現(xiàn),Tsa為目標區(qū)域縮小后與初始目標特征的相似度,Isa為目標區(qū)域縮小后對應背景區(qū)域與的相似度。

      與式(18)類似,此處的理想選擇A*在任一屬性條件下也被定義為,將式(20)~式(22)代入式(6),可以得到:

      依據(jù)同樣的策略,可以獲得放大尺度對應的中智相似度權值wbscal,其中放大系數(shù)為λba。本文取

      得到wsscal和wbscal后,可依照式(24)確定當前幀尺度:

      其中,s為比例因子,且滿足s>1。該比例因子的設定是為了避免尺度調整過于頻繁,或調整時受到噪聲干擾。確定λnew后,將目標跟蹤框放大λnew倍作為新的跟蹤框。

      5 中智加權相似度量尺度自適應跟蹤算法流程

      將本文提出的跟蹤算法稱為中智加權相似度量尺度自適應均值漂移算法,具體流程如下。

      步驟1 在初始幀選取待跟蹤目標區(qū)域,依據(jù)式(8)計算目標特征直方圖和初始背景直方圖b。

      步驟 2 讀入新的視頻幀。

      步驟 3 以上一幀的目標位置作為當前幀目標位置的搜尋起始點0。

      步驟 4 以0為起始點,依據(jù)式(25)、式(10)和式(19)計算新的目標位置y?1。

      步驟5 若不滿足,將重復執(zhí)行步驟4。

      步驟6 依據(jù)式(20)~式(24)計算新的目標尺度,更新目標跟蹤框。計算當前幀目標背景特征直方圖,若

      步驟7 輸出目標跟蹤框,重復執(zhí)行步驟2~步驟7,直至跟蹤結束。

      6 實驗結果與分析

      將本文提出的算法在一些具有挑戰(zhàn)性的視頻序列中進行了測試,測試序列信息見表1(其中英文縮寫含義復雜背景(BC)、快速移動(FM)、運動模糊(MB)、形變(DEF)、光照變化(IV)、平面內旋轉(IPR)、低分辨率(LR)、遮擋(OCC)、平面外旋轉(OPR)、尺度變化(SV)),共計12 396幀,測試序列中包含了復雜背景、快速移動、運動模糊、形變、光照變化、平面內旋轉、低分辨率、遮擋、平面外旋轉和尺度變化等挑戰(zhàn)。

      鑒于提出的算法完全基于均值漂移框架,在選取對比算法時,主要選取了近期基于均值漂移框架表現(xiàn)較優(yōu)異的算法。為了測試算法性能,將算法與 ASMS[12]、NEUTMS[30]和 KMS[7,8]算法進行了比較。ASMS是近期表現(xiàn)較好的均值漂移框架下的跟蹤算法,它在跟蹤的同時能夠自適應調整尺度信息;NEUTMS是基于中智余弦相似度量的均值漂移算法,其在某些方面的性能已超過了ASMS算法;鑒于本文算法完全基于KMS算法改進,為顯示改進效果,也將其引入。除ASMS以外,KMS和NEUTMS在跟蹤過程中均不更新尺度信息。為方便闡述,下文以WNEUTSMS表示本文提出的算法。

      表1 測試視頻序列信息

      6.1 參數(shù)設置

      在測試過程中,所設定的參數(shù)值均保持不變。計算式(12)~式(14)時涉及的總幀數(shù)N被設定為10;計算背景區(qū)域時的擴大系數(shù)λ被設定為1.6;式(19)中均被設定為0.5,即兩類條件屬性在權值向量生成時的貢獻等分;式(19)、式(23)中的α、β、γ分別被設定為0.5、0.25、0.25,這里適當強化了真分量的貢獻;涉及尺度自適應更新過程縮小和放大系數(shù)的λbsa和λba均被設定為0.3,式(24)中的比例因子s被設定為1.1;式(24)中的λ0須被設定為一個較小的值,以避免目標框劇烈變化,此處λ0=0.04;算法流程中的ε0和ε1分別被設定為0.1、0.5。

      6.2 評價標準

      本文主要采用了兩種評價方式,一種是中心點誤差,該誤差是指由算法獲得的目標框中心坐標與人為標記的實際目標中心坐標之間的歐氏距離;另一種是跟蹤成功率,其測量基準是跟蹤目標區(qū)域和實際目標區(qū)域的重疊度,該重疊度可表示為:

      其中,ROITi為第i幀中由跟蹤算法獲得的目標框區(qū)域,ROIGi為第i幀真實目標框區(qū)域。通過設定一個最小重疊度r,相應的跟蹤成功率可表示為:

      其中,N為視頻序列的總幀數(shù)。

      6.3 目標跟蹤結果

      圖2、圖4、圖6、圖8給出了相應視頻序列的跟蹤截圖,圖1、圖3、圖5、圖7給出了對應視頻序列跟蹤結果的成功率曲線和中心點誤差曲線,定量分析了幾種算法的跟蹤效果。接下來針對各序列展開詳細分析。

      (1)David序列

      圖1 David序列跟蹤性能曲線

      圖2 David序列跟蹤結果

      該序列中各跟蹤算法面臨的主要挑戰(zhàn)包括目標平面內旋轉、平面外旋轉和相似背景等。從圖2可以看到,除了KMS算法,其他3種跟蹤算法在前330幀左右表現(xiàn)均較好。在第65幀,受到相似背景區(qū)域的干擾,KMS算法發(fā)生偏移。從第84幀可以看到KMS算法已失敗。在第339幀,可以看到ASMS算法估計了一個過大的尺度,導致目標框較大且開始發(fā)生偏移,最終導致跟蹤失敗(第360幀)。在第430幀中,受背景干擾和目標旋轉影響,NEUTMS算法發(fā)生了較大偏移。綜合圖1,可以發(fā)現(xiàn),在此序列中,WNEUTSMS算法表現(xiàn)最好。

      (2)Signer序列

      該序列中包含的挑戰(zhàn)包括光照變化、尺度變化等。從圖 4中可以發(fā)現(xiàn),在第 87幀,除了WNEUTSMS和ASMS算法以外,其他算法均已遠遠偏離了目標位置。從尺度估計上,ASMS在前87幀的表現(xiàn)較好,WNEUTSMS算法給出的目標框相對較小,其原因主要是光照變化導致目標背景發(fā)生了劇烈變化,而歌手主體部分仍保持白色主色調,受幀間穩(wěn)定度約束,目標框鎖定在特征較穩(wěn)定的區(qū)域。從第87幀開始,僅WNEUTSMS算法估計的目標位置準確,且在目標特征恢復時能給出恰當?shù)哪繕顺叨龋ㄒ姷?74幀、第322幀)。觀察圖3(b),可以發(fā)現(xiàn)雖然ASMS算法的中心位置估計尚可,但其估計的目標尺度遠大于目標真實尺寸。綜合圖3、圖4,可以發(fā)現(xiàn),在本序列中,WNEUTSMS算法綜合表現(xiàn)最優(yōu)。

      (3)Bolt序列

      圖3 Singer序列跟蹤性能曲線

      圖4 Singer序列跟蹤結果

      該序列包含的挑戰(zhàn)主要有目標形變、復雜背景等問題。觀察圖5(b),可以發(fā)現(xiàn),從第200幀左右開始,除了 WNEUTSMS算法,ASMS、NEUTMS和KMS算法的跟蹤結果均已發(fā)生較大偏移,跟蹤失敗。觀察圖 6,可以看到在該序列的前半段,4種算法均能較好的完成目標跟蹤。在第180幀,算法效果開始出現(xiàn)分化,受 Bolt旁邊運動員外觀信息干擾,除WNEUTSMS算法外的其他算法受到干擾。借助于尺度估計、幀間穩(wěn)定特征信息和目標個體特征強化,WNEUTSMS算法較好地完成了目標跟蹤。然而,仔細觀察后,會發(fā)現(xiàn)WNEUTSMS算法估計得到的目標尺度略小于目標成像尺寸,這也是導致在重復率門限較高時,該算法的成功率反而低于其他算法的主要原因。深究造成這一現(xiàn)象的原因,主要是因為目標奔跑速度快、步幅大,導致身體下半部分特征信息極不穩(wěn)定,故而導致尺度估計偏小。

      (4)Walking序列

      該序列中主要包含尺度變化、遮擋、目標形變等挑戰(zhàn)。觀察圖7(b),可以發(fā)現(xiàn),相比其他3種算法,WNEUTSMS算法在第 150~170幀、在第200~230幀,在第 250~300幀,均得到了較準確的目標中心點位置。從圖8中可以看到,在行人接近車輛之前,各算法表現(xiàn)均較好(見第10幀、第143幀)。在第154幀,因行人本身有不少部分呈現(xiàn)黑色特征,在行人靠近黑色車輛時,4種算法均不同程度上受到黑色車輛的影響,其中ASMS偏離目標中心點最遠,WNEUTSMS算法偏離最小,且估計的目標尺寸最接近目標成像大小。從第 153幀起,受背景車輛的干擾,ASMS算法已無法完成尺度信息的準確估計,故而逐步導致算法失敗,而WNEUTSMS算法能夠給出相對合理的目標框尺寸,這在圖7(a)成功率曲線上也有所體現(xiàn)。

      圖5 Bolt序列跟蹤性能曲線

      圖6 Bolt序列跟蹤結果

      為評價本文算法在所有測試序列中的表現(xiàn),將TRE和OPE評價引入。為完成TRE評價,每個測試序列被分為20份序列片段(各序列片段對應原序列不同起始幀,但均以原序列結束幀為終止),每一個跟蹤算法均在每份測試序列片段中進行測試。對于OPE評價,每個測試序列是從第一幀測試到最后一幀,且僅測一次。圖9和圖10分別給出了基于TRE、OPE評價的面向表1所示整個測試序列集的測試結果,表2和表3分別給出了各跟蹤算法應對不同挑戰(zhàn)的 TRE-AUC、OPE-AUC分值。AUC分值為成功率曲線中對應成功率曲線與橫縱坐標軸圍成區(qū)域的面積,該值越大,表明算法越頑健。TRE-AUC分值與TRE成功率曲線對應,OPE-AUC分值則與OPE成功率曲線對應。

      圖7 Walking序列跟蹤性能曲線

      圖8 Walking序列跟蹤結果

      圖9 所有測試序列TRE成功率曲線

      圖10 所有測試序列OPE成功率曲線

      綜合分析圖9、圖10和表2、表3,WNEUTSMS算法總體表現(xiàn)較好。觀察表 2,WNEUTSMS算法在應對復雜背景、光照變化、平面內旋轉、遮擋和平面外旋轉時表現(xiàn)最好;在應對形變挑戰(zhàn)時僅次于NEUTMS算法,其原因主要在于大范圍的形變可能會造成目標跟蹤框尺度估計不準確;在應對低分辨率和尺度變化時的表現(xiàn)僅次于ASMS算法,其原因主要在于在低分辨率情況下,僅有較少的信息能夠被用來提升算法性能。對于OPE評價,WNEUTSMS算法在應對快速移動、運動模糊、形變、平面內旋轉、遮擋和平面外旋轉時表現(xiàn)最好。在應對復雜背景、光照變化時僅次于ASMS算法。

      綜合以上分析,可以發(fā)現(xiàn),本文算法(WNEUTSMS算法)在確定目標位置時將目標幀間特征穩(wěn)定性和背景信息引入,同時強化“真”量測分量;在確定目標尺度時聯(lián)合考慮目標特征信息和目標背景信息。多類信息融合考量提升了算法在應對背景干擾、光照變化、尺度變化等挑戰(zhàn)時的頑健性。

      7 結束語

      本文提出了一種面向單值中智集的分量加權余弦相似度量,并基于此在中智框架內提升了均值漂移視覺跟蹤算法的頑健性。針對目標幀間特征穩(wěn)定性和目標/背景相似度兩種屬性,本文提出了相應的真、不確定、假量測計算方式,然后利用分量加權余弦相似度量構建了新的權值向量,用于修正傳統(tǒng)均值漂移跟蹤算法的權值。此外,本文首次提出了基于中智加權余弦相似度量的尺度更新算法。實驗結果表明,本文提出的視覺跟蹤算法能較好應對相似背景、光照變化和尺度變化等挑戰(zhàn)。

      表2 各跟蹤算法應對不同挑戰(zhàn)的TRE-AUC分值

      表3 各跟蹤算法應對不同挑戰(zhàn)的OPE-AUC分值

      參考文獻:

      [1]趙利平, 林濤, 周開倫, 等.一種多色度格式級聯(lián)編碼的AVS2全色度圖像編碼算法[J].電信科學, 2018, 34(4): 57-67.ZHAO L P, LIN T, ZHOU K L, et al.A multi-chroma format cascaded coding method for full-chroma image in AVS2[J].Telecommunications Science, 2018, 34(4): 57-67.

      [2]唐彪, 金煒, 符冉迪, 等.多稀疏表示分類器決策融合的人臉識別[J].電信科學, 2018, 34(4): 31-40.FU B, JIN W, FU R D, et al.Face recognition using decision fusion of multiple sparse representation-based classifiers[J].Telecommunications Science, 2018, 34(4): 31-40.

      [3]顏文, 金煒, 符冉迪.結合 VLAD特征和稀疏表示的圖像檢索[J].電信科學, 2016, 32(12): 80-85.YAN W, JIN W, FU R D.Image retrieval based on the feature of VLAD and sparse representation[J].Telecommunications Science, 2016, 32 (12): 80-85.

      [4]YILMAZ A, JAVED O, SHAH M.Object tracking: a survey [J].ACM Computing Surveys, 2006, 38(4): 13.

      [5]WU Y, LIM J, YANG M H.Online object tracking: a benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 23-28, 2013, Portland, OR,USA.Piscataway: IEEE Press, 2013: 2411-2418.

      [6]SMEULDERS A W M, CHU D M, CUCCHIARA R, et al.Visual tracking: an experimental survey [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7):1442-1468.

      [7]COMANICIU D, RAMESH V, MEER P.Real-time tracking of non-rigid objects using mean shift[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 13-15,2000, Hilton Head Island, SC, USA.Piscataway: IEEE Press,2000: 142-149.

      [8]COMANICIU D, RAMESH V, MEER P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5): 564-577.

      [9]LEICHTER I.Mean shift trackers with cross-bin metrics[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 34(4): 695-706.

      [10]ZHOU H, YUAN Y, SHI C.Object tracking using SIFT features and mean shift[J].Computer Vision and Image Understanding,2009, 113(3): 345-352.

      [11]BOUSETOUANE F, DIB L, SNOUSSI H.Improved mean shift integrating texture and color features for robust real time object tracking[J].The Visual Computer, 2013, 29(3): 155-170.

      [12]VOJIR T, NOSKOVA J, MATAS J.Robust scale-adaptive mean-shift for tracking[J].Pattern Recognition Letters,2014(49): 250-258.

      [13]COLLINS R T.Mean-shift blob tracking through scale space[C]//IEEE Conference on Computer Vision Pattern Recognition (CVPR), June 16-22, 2003, Madison, WI, USA.Piscataway: IEEE Press, 2003: 234-234.

      [14]SMARANDACHE F.Neutrosophy: neutrosophic probability,set and logic[M].Rehoboth: American Research Press, 1998:105.

      [15]WANG H, SMARANDACHE F, ZHANG Y Q, et al.Single valued neutrosophic sets[J].Multispace and Multistructure,2010(4): 410-413.

      [16]YE J.Vector similarity measures of simplified neutrosophic sets and their application in multicriteria decision making[J].International Journal of Fuzzy Systems, 2014, 16(2):204-211.

      [17]GUO Y, ?ENGüR A.A novel image segmentation algorithm based on neutrosophic similarity clustering[J].Applied Soft Computing Journal, 2014(25): 391-398.

      [18]GUO Y, XIA R, ?ENGüR A, et al.A novel image segmentation approach based on neutrosophic C-means clustering and indeterminacy filtering[J].Neural Computing and Applications,2016: 1-11.

      [19]HU K, YE J, FAN E, et al.A novel object tracking algorithm by fusing color and depth information based on single valued neutrosophic cross-entropy[J].Journal of Intelligent and Fuzzy Systems, 2017, 32(3): 1775-1786.

      [20]GUO Y, SENGUR A.A novel 3D skeleton algorithm based on neutrosophic cost function[J].Applied Soft Computing Journal,2015(36): 210-217.

      [21]崔西希, 吳成茂.核空間中智模糊聚類及圖像分割應用[J].中國圖象圖形學報, 2016, 21(10): 1316-1327.CUI X X, WU C M.Neutrosophic C-means clustering in kernel space and its application in image segmentation[J].Journal of Image and Graphics, 2016, 21(10): 1316-1327.

      [22]張桂梅, 王大雷.結合 LPG&PCA 的中智學圖像分割[J].中國圖象圖形學報, 2014, 19(5): 693-700.ZHANG G M, WANG D L.Neutrosophic image segmentation approach integrated LPG&PCA [J].Journal of Image and Graphics, 2014, 19(5): 693-700.

      [23]鄭肇葆, 潘勵, 鄭宏.中智邏輯圖像分割方法的研究與分析[J].武漢大學學報(信息科學版), 2015, 40(2): 143-146.ZHENG Z B, PAN L, ZHENG H.Research and analysis of neutrosophic logic image segmentation (NLIS) method[J].Geomatics and Information Science of Wuhan University, 2015,40(2): 143-146.

      [24]YE J.Single-valued neutrosophic similarity measures based on cotangent function and their application in the fault diagnosis of steam turbine[J].Soft Computing, 2015,21(3): 817-825.

      [25]MA Y X, WANG J Q, WANG J, et al.An interval neutrosophic linguistic multi-criteria group decision-making method and its application in selecting medical treatment options[J].Neural Computing and Applications, 2016: 1-21.

      [26]YE J, FU J.Multi-period medical diagnosis method using a single valued neutrosophic similarity measure based on tangent function[J].Computer Methods & Programs in Biomedicine,2016(123): 142-149.

      [27]ANTER A M, HASSANIEN A E, ELSOUD M A A, et al.Neutrosophic sets and fuzzy C-means clustering for improving CT liver image segmentation[J].Advances in Intelligent Systems and Computing, 2014(303): 193-203.

      [28]GUO Y, SENGUR A.NECM: neutrosophic evidential C-means clustering algorithm[J].Neural Computing and Applications,2015, 26(3): 561-571.

      [29]GUO Y, SENGUR A.NCM: Neutrosophic c-means clustering algorithm[J].Pattern Recognition, 2015, 48(8): 2710-2724.

      [30]HU K, FAN E, YE J, et al.Neutrosophic similarity score based weighted histogram for robust mean-shift tracking[J].Information, 2017, 8(4): 122.

      [31]YE J.Multicriteria decision-making method using the correlation coefficient under single-valued neutrosophic environment[J].International Journal of General Systems, 2013,42(4): 386-394.

      猜你喜歡
      中智直方圖尺度
      統(tǒng)計頻率分布直方圖的備考全攻略
      符合差分隱私的流數(shù)據(jù)統(tǒng)計直方圖發(fā)布
      (i,k)-步雙極單值中智競爭圖
      財產(chǎn)的五大尺度和五重應對
      基于包含度的單值中智決策信息系統(tǒng)屬性約簡
      中智公司
      能源(2019年9期)2019-12-06 09:33:02
      用直方圖控制畫面影調
      中智科技:混合云下的新動能
      中國信息化(2016年4期)2016-12-28 09:16:04
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      基于直方圖平移和互補嵌入的可逆水印方案
      計算機工程(2015年8期)2015-07-03 12:20:21
      酉阳| 阳江市| 德安县| 招远市| 江安县| 冷水江市| 阿鲁科尔沁旗| 常山县| 临清市| 延川县| 石泉县| 贡嘎县| 阿勒泰市| 台北县| 成安县| 容城县| 屏东市| 平安县| 昭觉县| 宁津县| 石渠县| 辰溪县| 柳州市| 两当县| 兴城市| 麦盖提县| 凭祥市| 团风县| 宁津县| 元阳县| 册亨县| 玉环县| 织金县| 神池县| 南宁市| 丹棱县| 普兰店市| 利川市| 饶河县| 梁平县| 通辽市|