• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合排序向量SVM 的視頻跟蹤

    2015-07-11 10:09:28于慧敏
    關(guān)鍵詞:排序尺度誤差

    于慧敏,曾 雄

    (浙江大學(xué) 信息與電子工程學(xué)系,浙江 杭州310027)

    視頻跟蹤是計算機視覺領(lǐng)域一個關(guān)鍵性的研究課題,在智能視頻監(jiān)控、增強現(xiàn)實、人機交互、手勢識別以及自動駕駛等方面具有廣泛的應(yīng)用前景.近20年來,盡管人們提出了非常多的跟蹤算法,但是這依然是一個非常具有挑戰(zhàn)性的課題.高效的視頻跟蹤算法需要處理真實視頻場景中的目標(biāo)尺度變化、光照變化、部分遮擋、3D旋轉(zhuǎn)以及目標(biāo)變形等問題.

    根據(jù)對目標(biāo)外觀建模所用方法的不同,可以將跟蹤算法分為2 類:基于判別模型的目標(biāo)跟蹤算法[1-7]和基于生成模型的目標(biāo)跟蹤算法[8-12].基于判別模型的跟蹤算法將目標(biāo)跟蹤問題看作是一個二元分類問題,通過在線學(xué)習(xí)一個分類器將目標(biāo)和背景分開.典型的基于判別模型的視頻跟蹤算法有OAB算 法[1]、SemiBoost算 法[2]、CT 算 法[3]、WMIL 算法[4]、MIL算法[5]、PROST 算法[6]和RSVT 算法[7]等.基于生成模型的跟蹤算法首先學(xué)習(xí)被跟蹤目標(biāo)的外觀,得到被跟蹤目標(biāo)外觀的描述性模型,然后在下一幀圖像上搜索最接近該目標(biāo)模型的物體位置.基于生成模型的目標(biāo)跟蹤算法有Mean-Shift算法[8]、L1算 法[9]、Frag 算 法[10]、VTD 算 法[11]以 及IVT 算法[12]等.

    一個典型的視頻跟蹤系統(tǒng)包括3個部分:目標(biāo)表示、動態(tài)建模以及搜索策略.不同的部分能夠處理復(fù)雜環(huán)境下的不同挑戰(zhàn).首先考慮如何表示目標(biāo)和背景,使其對光照、遮擋以及3D 旋轉(zhuǎn)等具有不變性.目標(biāo)和背景常用一個特征序列來表示,可以是顏色特征、形狀特征、紋理特征以及局部關(guān)鍵點特征.本文采用的是一種壓縮特征,它與Harr-like特征相似,是基于壓縮感知理論,從高維多尺度圖像特征空間壓縮得到的[3].接下來考慮動態(tài)建模,這是整個視頻跟蹤系統(tǒng)的核心,它決定了視頻跟蹤的性能和計算效率.目前流行的做法是基于在線學(xué)習(xí)的方法.采用在線學(xué)習(xí)建模方法是為了使系統(tǒng)對于真實場景中目標(biāo)的各種變化具有適應(yīng)性.本文采用排序向量SVM(ranking vector SVM,RV-SVM)算 法[13]作為在線學(xué)習(xí)方法,它本身是一種排序?qū)W習(xí)算法,在信息檢索領(lǐng)域得到了廣泛應(yīng)用.而在本文中,它充當(dāng)一個在線分類器,用于將目標(biāo)和背景分開.最后考慮搜索策略問題,文獻[14]采用Coarse-to-Fine搜索機制以加快CT 算法的目標(biāo)檢測過程,降低了計算復(fù)雜度.雖然SFCT 算法[14]加入搜索機制取得了較好的效果,但是還可以采用更加簡單的方法,即加入預(yù)測器.因此,本研究采用Median-Flow 算法[15]作為預(yù)測器,它的功能主要包括2個方面:一是粗略估計目標(biāo)在下一幀中的位置,減少搜索范圍,加快目標(biāo)檢測速度;二是用來構(gòu)建訓(xùn)練樣本集.

    本研究將多尺度壓縮特征提取、RV-SVM 分類器以及Median-Flow 跟蹤算法有機結(jié)合,建立一個魯棒的視頻跟蹤系統(tǒng).該系統(tǒng)僅適用于單目標(biāo)跟蹤.本文提出結(jié)合RV-SVM 的視頻跟蹤算法,并對比本文算法與最新的跟蹤算法的性能.

    1 相關(guān)工作

    近年來,國內(nèi)外很多學(xué)者在視頻跟蹤領(lǐng)域做了許多研究工作,這些工作對于解決視頻跟蹤中的問題提供了許多思路.Santner等[6]提出了PROST 高性能跟蹤系統(tǒng).該系統(tǒng)級聯(lián)了3個跟蹤器:基于歸一化互相關(guān)的簡單模板跟蹤、基于Mean-Shift的光流跟蹤和在線隨機森林跟蹤.Kalal等[15]首次提出了Median-Flow 跟蹤算法.Kalal等[16]提出了一個典型的半監(jiān)督學(xué)習(xí)跟蹤算法,稱之為TLD 算法.該算法是Median-Flow 跟蹤、隨機蕨檢測器及P-N 學(xué)習(xí)算法的結(jié)合.Zhang等[3,14]利用一個稀疏測量矩陣有效地從多尺度圖像特征空間中抽取特征.

    CT 跟蹤算法[3,14]采用分類器為樸素貝葉斯分類器,該分類器比較簡單,分類效果一般.TLD 跟蹤算法[16]的跟蹤模塊采用的算法為Median-Flow 算法,而Median-Flow 算法的魯棒性并不十分理想,并不適合用作主要的跟蹤算法.因此,綜合考慮CT算法和TLD 算法的優(yōu)缺點,提出本文算法.

    1.1 多尺度壓縮特征提取

    為了處理跟蹤過程中目標(biāo)的尺度變化,需要提取多尺度圖像特征.本研究參考文獻[3]和[16],通過一定的寬松規(guī)則,生成一個稀疏的投影矩陣,然后提取樣本圖像的壓縮特征.

    首先,將每個樣本圖像與一系列多尺度矩形濾波器進行卷積

    式中:*為卷積運算符,對像素點的坐標(biāo)x 和y 進行操作.s(x,y)為樣本圖像,其寬度為,高度為,即s(x,y)∈R.多尺度的矩形濾波器定義為

    其 中,i 和j 為 矩 形 濾 波 器 標(biāo) 號,i=1,…,,j=1,…,.li,j(x,y)∈R,表 示 濾 波 后 的 圖像矩陣.

    將圖像矩陣li,j(x,y)展開成一個列向量lk,lk∈R,k=1,…,,并將這些列向量連接成一個非常高維的多尺度圖像特征向量:

    式中:f∈Rm,m=()2.特征向量f 的維度m為106~1010.

    由于多尺度圖像特征向量f 的維度太高,需要對它進行數(shù)據(jù)壓縮.為了使壓縮之后的數(shù)據(jù)保留原有數(shù)據(jù)的大部分信息且壓縮過程的計算量小,需要用到壓縮感知算法.根據(jù)壓縮感知理論可知,若通過一個滿足約束等矩性(restricted isometry property,RIP)條件的非常稀疏的測量矩陣對原圖像特征空間進行投影,就可以得到一個低維壓縮子空間,該子空間很好地保留了高維圖像特征空間的信息.

    利用壓縮感知理論提取壓縮特征,其公式如下:

    式中:R∈Rn×m(n?m)是一個非常稀疏的隨機測量矩陣;f∈Rm×1為原始數(shù)據(jù);x∈Rn×1為壓縮后的數(shù)據(jù).測量矩陣R 的產(chǎn)生非常重要,它必須滿足RIP條件,而且,不同的R 產(chǎn)生的特征不同.文獻[3]將測量矩陣R 的元素ri,j定義如下:

    其中,s通過平均概率在2.0~4.0中隨機選取,p 為產(chǎn)生概率.實際上,低維特征x 的每一個元素xi是不同尺度的空間分布特征的線性組合,表現(xiàn)為幾塊區(qū)域的加權(quán)和,如圖1 所示.壓縮特征與Harr-like特征相似,保留了原有圖像的絕大部分信息,可以直接對它進行分類,避免維數(shù)災(zāi)難.

    圖1 特征生成示意圖Fig.1 Graphical representation of feature extraction

    1.2 Median-Flow跟蹤算法

    采用Median-Flow 跟蹤算法[15]粗略估計目標(biāo)在下一幀圖像中的位置,這里稱之為弱跟蹤器,工作框圖如圖2所示.Median-Flow 算法將被跟蹤目標(biāo)表示成一系列的特征點,通過估計相鄰圖像幀之間特征點的偏移量來達到跟蹤目的.對于被跟蹤目標(biāo),用一個10×10網(wǎng)格的所有頂點表示該目標(biāo).采用金字塔Lucas-Canada光流算法[17]對相鄰圖像幀之間的特征點的偏移量進行估計.本文所用金字塔層數(shù)為5層,特征點用4×4圖像塊來表示.

    Median-Flow 算法提出了一種新的特征點跟蹤誤差計算方法,即特征點跟蹤軌跡前向-后向誤差,其定義如下:

    圖2 Median-Flow跟蹤算法框圖Fig.2 Block diagram of Median-Flow tracker

    Median-Flow 算法通過計算剩余特征點的x 坐標(biāo)和y 坐標(biāo)的平均值來估算目標(biāo)的位置.Median-Flow 跟蹤算法跟蹤效果良好、計算量小,適合用作弱跟蹤器,提供目標(biāo)位置的粗略估計,減少搜索范圍.

    2 基于排序向量SVM 的視頻跟蹤算法

    2.1 排序?qū)W習(xí)與視頻跟蹤

    排序?qū)W習(xí)算法在信息檢索領(lǐng)域得到了廣泛應(yīng)用,如文本檢索、產(chǎn)品評級以及語義分析等.經(jīng)典的排 序 學(xué) 習(xí) 算 法 有RankSVM[18]、RankBoost[19]和RankNet[20]等.近年來,排序?qū)W習(xí)算法被用于計算機視覺領(lǐng)域,Yang 等[21]提出了基于l1正則化的RankBoost改進算法,用于人臉識別和密度估計.Bai等[7,22]首 次 將 排 序 學(xué) 習(xí) 算 法——排 序SVM 引入了視頻跟蹤領(lǐng)域.

    圖3 基于排序?qū)W習(xí)的視頻跟蹤原理圖Fig.3 Schematic diagram of visual tracking based on learning to rank

    基于排序?qū)W習(xí)理論,給出基于排序的跟蹤算法[22]的原理圖.在此基礎(chǔ)上,總結(jié)出基于排序?qū)W習(xí)的跟蹤算法原理圖,如圖3所示.算法首先構(gòu)建2個訓(xùn)練樣本集,并設(shè)定其中一個樣本集的排序高于另外一個樣本集.一般而言,抽取第一幀以及最近Δt幀中靠近目標(biāo)的圖像塊為排序高的樣本集,抽取最近Δt幀中遠離目標(biāo)的圖像塊為排序低的樣本集.在訓(xùn)練排序函數(shù)F(x)時,先從排序高的樣本集中取一個數(shù)據(jù),再從排序低的樣本集中取一個數(shù)據(jù),構(gòu)成一個有序數(shù)據(jù)對.利用這一系列有序數(shù)據(jù)對去訓(xùn)練排序函數(shù)F(x),如圖3(a)所示.在第t幀時,采用一定的搜索策略或弱跟蹤器估計目標(biāo)在第t+1幀時的位置,然后抽取該位置附近的圖像塊作為目標(biāo)候選位置集.在第t+1幀進行目標(biāo)定位的過程相當(dāng)于對候選位置集進行排序,得分最高的圖像塊的位置即為目標(biāo)的新位置,如圖3(b)所示.

    2.2 排序向量SVM

    采用RV-SVM 算法充當(dāng)在線分類器,RVSVM[13]是RankSVM[18]的快速學(xué)習(xí)算法.這里先介紹RankSVM,再從中推導(dǎo)出RV-SVM.假設(shè)有2個特征向量集X1和X0,分別表示為

    式中:xi∈Rn,xj∈Rn.對于任意的i和j,均有xi?xj,即特征向量xi的排序高于特征向量xj.RV-SVM 的目標(biāo)是學(xué)習(xí)排序函數(shù)F,使其滿足以下條件:

    式中:w 為權(quán)重向量,φ(x)為作用在特征向量x 上的隱式映射函數(shù).因此,學(xué)習(xí)排序函數(shù)F 等同于計算權(quán)重向量w,對于任意特征向量對{(xi,xj):xi∈X1,xj∈X0},有

    排序SVM 的訓(xùn)練過程需要求解一個二次規(guī)劃問題,其原始形式如下:

    式中:參數(shù)C 為邊界大小與訓(xùn)練誤差之間的折中參數(shù),i=1,2,…,N1,j=N1+1,N1+2,…,N1+N0,為松弛變量.可以通過求解該二次規(guī)劃問題的對偶問題得到最優(yōu)解,其對偶形式如下:

    式中:u=1,2,…,N1,v=N1+1,N1+2,…,N1+N0;αij為有序數(shù)據(jù)對(xi,xj)映射空間的向量差φ(xi)-φ(xj)的系數(shù);K(·)為核函數(shù),對于線性核,K(x,y)=〈x,y〉.由于式(13)的計算復(fù)雜度太高,為了減少排序SVM 的訓(xùn)練時間,首先引入排序SVM 的變種——l1范數(shù)權(quán)重排序SVM[13],其目標(biāo)函數(shù)為

    從式(15)可知,l1范數(shù)權(quán)重排序SVM 的訓(xùn)練過程是求解一個線性規(guī)劃問題.

    RV-SVM 通過減少核函數(shù)計算時間降低訓(xùn)練時間.式(16)為一個線性規(guī)劃問題,可以采用Matlab和CPLEX 科學(xué)計算工具來求解.得到最優(yōu)解α*之后,排序函數(shù)可以用下式表示:

    式中:i=1,2,…,N1.

    2.3 算法實現(xiàn)流程

    為了實現(xiàn)視頻跟蹤,需要將t+1幀的目標(biāo)和背景分開,通過式(16)、(17)學(xué)習(xí)排序函數(shù)F 來達到這個目的.首先創(chuàng)建3 個標(biāo)記訓(xùn)練樣本集、和.為從初始幀和最近Δt幀中抽取的目標(biāo)圖像塊集,稱為正標(biāo)記樣本集,用公式表示如下:

    式中:ls(x)表示第s幀圖像中,圖像塊x的位置;表示目標(biāo)的真實位置;ε為采樣半徑,ε=4;Δt為最近幀圖像的數(shù)目,Δt=2;ls(x)-≤ε表示圖像塊x 的位置與目標(biāo)真實位置之間的歐氏距離小于ε.為背景圖像塊集,稱為負標(biāo)記樣本集,僅從最近Δt幀圖像中提取,可用如下公式表示:

    算法的詳細過程如下:

    1)初始化目標(biāo)位置(手工選取跟蹤目標(biāo));

    3)讀取新一幀圖像,利用1.2節(jié)介紹的Medain-Flow跟蹤算法粗略估算目標(biāo)在這幀圖像中的位置;

    6)利用式(21)更新目標(biāo)在這幀圖像的位置;

    7)跳轉(zhuǎn)到2)進行下一幀的處理.

    3 實驗結(jié)果

    本文所提算法采用Matlab與C++混合編程實現(xiàn).其中,Median-Flow 算法部分采用C++實現(xiàn),并調(diào)用了計算機視覺開源庫OpenCV 2.3.1,其余部分采用Matlab 實現(xiàn),代碼未進行任何優(yōu)化,算法處理速度(平均幀率).實驗所用計算機的配置為Intel(R)Core(TM)i3-2100處理器,主頻3.10 GHz,內(nèi)存2.00GB,Windows 7操作系統(tǒng).

    本文算法與4種視頻跟蹤算法在6個具有挑戰(zhàn)性的圖片序列上進行對比實驗,6 個圖片序列由Babenko等[5]提供.4種對比算法分別是Frag跟蹤算法[10]、多實例學(xué)習(xí)跟蹤算法(MIL)[5]、壓縮跟蹤算法(CT)[3],以及L1跟蹤算法[9].這些算法的源代碼均已公開,參數(shù)采用默認值并已調(diào)到最優(yōu).

    為了在不同條件下對算法的魯棒性進行量化評估,需要人工標(biāo)記所有圖片序列每一幀的目標(biāo)位置,這個位置被稱為標(biāo)準(zhǔn)位置.評價準(zhǔn)則與文獻[23]所用的方法相同,采用平均中心位置誤差:

    式中:n為圖片序列的幀數(shù), Ci-為算法跟蹤到的目標(biāo)的中心位置Ci與標(biāo)準(zhǔn)中心位置之間的歐氏距離.對比實驗的量化結(jié)果如表1所示,表中σc為中心位置誤差,η為平均幀率,上標(biāo)[1]表示最優(yōu),上標(biāo)[2]表示次優(yōu).如圖4所示為不同算法在不同視頻上的中心位置誤差曲線.

    圖片序列Tiger 1和Tiger 2呈現(xiàn)了玩具老虎的各種姿態(tài),跟蹤這2個序列會遇到各種挑戰(zhàn),如光照變化、重度遮擋、3D 旋轉(zhuǎn)、運動模糊以及目標(biāo)快速移動.根據(jù)圖4(a)、(b)的中心位置誤差曲線可以看出,F(xiàn)rag算法、MIL算法、CT算法和L1跟蹤算法在許多幀上均出現(xiàn)漂移,本文算法則提供了一個比它們更為穩(wěn)定和精確的結(jié)果.

    圖片序列Coupon Book 是用來測試跟蹤算法是否嚴(yán)重依賴于初始幀目標(biāo)的位置.該圖片序列中的券書在第50幀左右會出現(xiàn)折疊,同時出現(xiàn)一個一模一樣的券書來干擾跟蹤.序列Coupon Book的中心位置誤差曲線見圖4(c).從圖中可看出,本文算法優(yōu)于其他對比算法.雖然MIL算法、CT 算法和L1算法能夠正確區(qū)分出干擾物體,但其跟蹤結(jié)果的中心位置存在一定程度的偏移,而Frag算法卻不能正確地區(qū)分干擾物體.

    表1 平均中心位置誤差與平均幀率Tab.1 Average center location errors and average frame per second

    圖4 中心位置誤差曲線圖Fig.4 Plots of center location error

    圖片序列Twinings中的目標(biāo)存在大尺度變化和3D 旋轉(zhuǎn).從圖4(d)的中心位置誤差曲線可看出,F(xiàn)rag算法、CT 算法以及L1 算法存在輕微漂移.由于利用了多尺度圖像特征,當(dāng)目標(biāo)尺度和表面發(fā)生變化時,本文算法和MIL 算法都能很好地適應(yīng)這些變化.

    圖片序列Occluded Face的主要問題是重度遮擋.在這次實驗中,F(xiàn)rag算法性能最好,因為它是專門為解決遮擋問題而設(shè)計的.L1 算法同樣具有很好的性能,而MIL 算法、CT 算法和本文所提算法則表現(xiàn)一般,中心位置誤差曲線見圖4(e).

    在圖片序列David Indoor中,出現(xiàn)的主要問題有光照變化、3D 旋轉(zhuǎn)和大尺度變化.Frag 算法和L1算法完全不能適應(yīng)這些變化,跟蹤結(jié)果出現(xiàn)嚴(yán)重漂移.MIL算法與本文所提算法也會出現(xiàn)輕微的漂移,CT 算法的性能最佳,中心位置誤差曲線如圖4(f)所示.

    4 結(jié) 語

    本文提出了一種新的單目標(biāo)視頻跟蹤算法,該算法是一種基于RV-SVM 理論的在線學(xué)習(xí)跟蹤算法.該算法利用稀疏測量矩陣提取樣本的多尺度特征,通過Median-Flow 跟蹤算法估計目標(biāo)在下一幀中的位置并構(gòu)建訓(xùn)練樣本集,最后,在線訓(xùn)練RVSVM 算法,將目標(biāo)和背景分開.對不同視頻序列中的目標(biāo)跟蹤結(jié)果表明,本文算法在目標(biāo)快速移動、部分遮擋以及3D 旋轉(zhuǎn)時跟蹤穩(wěn)定性有所提高.

    實驗結(jié)果雖然證實了本文算法的有效性,但依然存在很多問題.比如:跟蹤目標(biāo)框是固定的,不會隨著目標(biāo)的尺度變化而變化.當(dāng)目標(biāo)大小發(fā)生變化時,可采用跟蹤窗口自適應(yīng)的方法來提高跟蹤的穩(wěn)定性,但這些方法的引入必然會導(dǎo)致計算量的增加.本文算法用多尺度壓縮特征來表示目標(biāo)和背景,但不排除還有更加有效的表示方法.此外,本文算法的計算效率偏低,還可對算法進行優(yōu)化.總之,如何更好地解決這些問題是后續(xù)研究的重點.

    ):

    [1]GRABNER H,GRABNER M,BISCHOF H.Real-time tracking via on-line boosting [C]∥ Proceedings of British Machine Vision Conference.Edinburgh:BMVC,2006,1(5):6.

    [2]GRABNER H,LEISTNER C,BISCHOF H.Semi-supervised on-line boosting for robust tracking[M]∥Proceedings of European Conference on Computer Vision.Berlin Heidelberg:Springer,2008:234-247.

    [3]ZHANG K,ZHANG L,YANG M H.Real-time compressive tracking[M]∥Proceedings of European Conference on Computer Vision.Berlin Heidelberg:Springer,2012:864-877.

    [4]ZHANG K,SONG H.Real-time visual tracking via online weighted multiple instance learning [J].Pattern Recognition,2013,46(1):397-411.

    [5]BABENKO B,YANG M H,BELONGIE S.Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

    [6]SANTNER J,LEISTNER C,SAFFARI A,et al.PROST:parallel robust online simple tracking[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.San Francisco:IEEE,2010:723-730.

    [7]BAI Y,TANG M.Robust visual tracking with ranking SVM [C]∥Proceedings of IEEE Conference on Image Processing.Brussels:IEEE,2011:517-520.

    [8]COMANICIU D,RAMESH V,MEER P.Real-time tracking of non-rigid objects using mean shift[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Hilton Head:IEEE,2000,2:142-149.

    [9]MEI X,LING H.Robust visual tracking and vehicle classification via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(11):2259-2272.

    [10]ADAM A,RIVLIN E,SHIMSHONI I.Robust fragments-based tracking using the integral histogram [C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE,2006:798-805.

    [11]KWON J,LEE K M.Visual tracking decomposition[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.San Froncisco:IEEE,2010:1269-1276.

    [12]ROSS D,LIM J,LIN R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1-3):125-141.

    [13]YU H,KIM J,KIM Y,et al.An efficient method for learning nonlinear ranking SVM functions[J].Information Sciences,2012,209(20):37-48.

    [14]ZHANG K,ZHANG L,YANG M H.Fast compressive tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.

    [15]KALAL Z,MIKOLAJCZYK K,MATAS J.Forwardbackward error:automatic detection of tracking failures[C]∥Proceedings of IEEE Conference on Pattern Recognition.San Froncisco:IEEE,2010:2756-2759.

    [16]KALAL Z,MIKOLAJCZYK K,MATAS J.Tracking-learning-detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.

    [17]BOUGUET J Y.Pyramidal implementation of the Lucas Kanade feature tracker description of the algorithm,openCV documetation[R].Santa Clara,CA:Intel Corporation,Intel Microprocessor Research Labs.1999.

    [18]HERBRICH R,GRAEPEL T,OBERMAYER K.Support vector learning for ordinal regression[C]∥Proceedings of International Conference on Artificial Neural Networks.Edinburgh:ICANN,1999:97-102.

    [19]FREUND Y,IYER R,SCHAPIRE R E.An efficient boosting algorithm for combining preferences [J].Journal of Machine Learning Research,2003,4:933-969.

    [20]BURGES C,SHAKED T,RENSHAW E,et al.Learning to rank using gradient descent[C]∥Proceedings of International Conference on Machine Learning.Bonn:ICML,2005:89-96.

    [21]YANG P,LIU Q,METAXAS D N.RankBoost with L1regularization for facial expression recognition and intensity estimation[C]∥Proceedings of IEEE International Conference on Computer Vision.Kyoto:IEEE,2009:1018-1025.

    [22]BAI Y,TANG M.Robust visual tracking via weakly supervised ranking SVM [C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Providence:IEEE,2012:1854-1861.

    [23]GU S,ZHENG Y,TOMASI C.Efficient visual object tracking with online nearest neighbor classifier[C]∥Proceedings of Asian Conference on Computer Vision.Queenstown:ACCV,2010:271-282.

    猜你喜歡
    排序尺度誤差
    排序不等式
    角接觸球軸承接觸角誤差控制
    哈爾濱軸承(2020年2期)2020-11-06 09:22:26
    財產(chǎn)的五大尺度和五重應(yīng)對
    Beidou, le système de navigation par satellite compatible et interopérable
    恐怖排序
    壓力容器制造誤差探究
    節(jié)日排序
    刻舟求劍
    兒童繪本(2018年5期)2018-04-12 16:45:32
    宇宙的尺度
    太空探索(2016年5期)2016-07-12 15:17:55
    九十億分之一的“生死”誤差
    山東青年(2016年2期)2016-02-28 14:25:41
    革吉县| 津南区| 长兴县| 南丰县| 资阳市| 收藏| 泰兴市| 新丰县| 上思县| 香格里拉县| 家居| 房山区| 晋城| 元江| 凤台县| 孟津县| 芜湖县| 通州市| 铅山县| 东明县| 汪清县| 徐州市| 化州市| 海城市| 积石山| 石景山区| 易门县| 武城县| 兰州市| 精河县| 利津县| 东宁县| 吴桥县| 肥乡县| 顺义区| 湟中县| 米易县| 富顺县| 兴山县| 祁门县| 洛扎县|