于 菲,戰(zhàn)興群,劉 銘
(上海交通大學(xué) 航空航天學(xué)院, 上海 200240)
?
基于非線性擴(kuò)散濾波的雙目視覺跟蹤與測量研究實(shí)現(xiàn)
于菲,戰(zhàn)興群,劉銘
(上海交通大學(xué) 航空航天學(xué)院, 上海200240)
摘要:針對雙目視覺跟蹤與測量技術(shù)的研究主要集中在縮短時(shí)間,精確性問題考慮不夠充分;結(jié)合KAZE特征提取算法,利用卡爾曼預(yù)測對目標(biāo)進(jìn)行跟蹤,提出一種基于圖像匹配的雙目視覺跟蹤與測量算法;將KAZE特征提取算法和SIFT、SURF等算法進(jìn)行仿真對比,結(jié)果表明KAZE算法具有更加出色的匹配率,而跟蹤速度相當(dāng);運(yùn)用KAZE算法與卡爾曼預(yù)測跟蹤技術(shù)實(shí)現(xiàn)了基于Visual Studio環(huán)境下的雙目視覺測量與跟蹤系統(tǒng),測試結(jié)果表明,該系統(tǒng)可進(jìn)行有效的高精度測量。
關(guān)鍵詞:雙目視覺;圖像匹配;非線性擴(kuò)散濾波;視覺跟蹤;卡爾曼預(yù)測
0引言
視覺信息是人類識別理解周圍環(huán)境狀況的重要信息來源,自計(jì)算機(jī)技術(shù)誕生以來,人們一直在尋找如人眼一樣靈活高效的計(jì)算機(jī)視覺系統(tǒng)。在眾多的視覺系統(tǒng)中,雙目視覺以其在深度信息上的優(yōu)勢,成為近年來計(jì)算機(jī)視覺與圖像處理領(lǐng)域的研究熱點(diǎn)。雙目視覺技術(shù)在機(jī)器人的定位導(dǎo)航、避障、地圖構(gòu)建和測距等方面均得到了廣泛應(yīng)用。其中立體視覺技術(shù)中一個(gè)核心的技術(shù)是圖像匹配算法,它是視覺跟蹤與測量的關(guān)鍵步驟,它的匹配精度會(huì)直接影響到系統(tǒng)最終跟蹤與測量的精度。傳統(tǒng)的SIFT、SURF等特征檢測算法通過線性高斯金字塔進(jìn)行多尺度分解[1],這樣容易造成細(xì)節(jié)丟失和邊界模糊,且傳統(tǒng)方法通過基于正向歐拉法求解非線性擴(kuò)散方程時(shí),迭代收斂步長短,計(jì)算復(fù)雜度高,耗時(shí)長。
本文利用非線性擴(kuò)散濾波(KAZE)算法,采用加性算子分裂算法 (additive operator splitting, AOS)[2]來進(jìn)行非線性擴(kuò)散濾波,采用任意步長來構(gòu)造穩(wěn)定的非線性尺度空間,對圖像進(jìn)行非線性擴(kuò)散處理,融合卡爾曼[3]預(yù)測模型對目標(biāo)中心點(diǎn)位置進(jìn)行預(yù)測。進(jìn)而運(yùn)用局部搜索,降低搜索區(qū)域,提高跟蹤速度。同時(shí)提出一種融合圖像分割和圖像匹配以及自學(xué)習(xí)的新算法,提高了跟蹤穩(wěn)健性,最后并將其應(yīng)用到雙目測量跟蹤實(shí)驗(yàn)中,以實(shí)現(xiàn)精確的跟蹤與測量效果。
1KAZE 特征檢測匹配算法
KAZE特征檢測匹配算法是一種非線性尺度空間的多尺度2D特征提取和描述算法[4]。KAZE在日文中代表 “風(fēng)”,其命名是為了紀(jì)念尺度空間分析的開創(chuàng)者——日本學(xué)者Iijima[5]。在自然界中,風(fēng)被定義為受非線性約束的大規(guī)模空氣流動(dòng)。KAZE與風(fēng)類似,也是通過這種方式在圖像域中進(jìn)行非線性擴(kuò)散處理。該算法的最大特點(diǎn)是使用非線性擴(kuò)散濾波方法來構(gòu)造一個(gè)非線性尺度空間。
1.1非線性擴(kuò)散濾波
KAZE算法中使用Perona和Malik提出的各向異性擴(kuò)散(Anisotropic diffusion)公式[6-7],其主要思路是構(gòu)造一個(gè)各向異性的擴(kuò)散方程,使得灰度的擴(kuò)散在平緩的圖像區(qū)域比較快,在邊緣處(即梯度較大的地方)擴(kuò)散比較慢,即非線性化。具體而言,非線性擴(kuò)散濾波方法是將圖像亮度〔L〕在不同尺度上的變化視為某種形式的流動(dòng)函數(shù)的散度,可以通過非線性偏微分方程來描述:
(1)
在KAZE算法中使用Perona和Malik給出的傳導(dǎo)函數(shù)定義為:
(2)
其中:ΔLσ是高斯平滑后的圖像Lσ的梯度〔gradient〕。在KAZE算法中,默認(rèn):
(3)
KAZE算法中,參數(shù)k是對比度因子,它的值是梯度圖像ΔLσ的直方圖70%上的值。
1.2AOS算法
KAZE算法使用AOS算法來構(gòu)造尺度空間,AOS算法采用隱式差分格式來改善顯示差分格式求解非線性偏微分方程時(shí)收斂慢的缺點(diǎn):
(4)
其中:At是表示圖像在各維度(l)上傳導(dǎo)性矩陣。該方程的解如下:
(5)
這種求解方法對任意時(shí)間步長〔τ〕都有效。
1.3構(gòu)造非線性尺度空間
KAZE算法的尺度空間呈一個(gè)金字塔型。尺度級別按對數(shù)遞增,共有O個(gè)層級,每個(gè)層級有S個(gè)子層級。但是KAZE的各個(gè)層級均采用與原始圖像相同的分辨率。不同的層級和子層級分別通過序號o和s來標(biāo)記,尺度參數(shù)可以用以下來表示:
(6)
其中:σo是尺度參數(shù)的初始基準(zhǔn)值,N=O*S是整個(gè)尺度空間包含的圖像總數(shù)。非線性擴(kuò)散濾波模型以時(shí)間為單位,因此需要將像素為單位的尺度參數(shù)σi轉(zhuǎn)換至?xí)r間單位。
在KAZE算法中,根據(jù)一組進(jìn)化時(shí)間,利用AOS的方程就可以構(gòu)造出KAZE算法的非線性尺度空間:
(7)
1.4特征點(diǎn)檢測
與SIFT算法類似KAZE算法也是通過尋找局部極大值點(diǎn)來檢測特征點(diǎn),在不同尺度尋找像素點(diǎn)進(jìn)行歸一化的Hessian局部極大值點(diǎn)。在尋找極值點(diǎn)時(shí),同樣是把每一個(gè)像素點(diǎn)和它同尺度及相鄰2個(gè)尺度上的26個(gè)相鄰點(diǎn)進(jìn)行比較,當(dāng)其大于或小于所有的相鄰點(diǎn)時(shí),即為極值點(diǎn)。
1.5特征值主方向和描述向量
KAZE算法描述特征點(diǎn)的方法與SURF類似,在梯度圖像上以一個(gè)尺度參數(shù)為的特征點(diǎn)為中心,取周圍的正方形區(qū)域,并將這個(gè)區(qū)域劃分為個(gè)子區(qū)域,讓相鄰的子區(qū)域有寬度為的相交部分,每個(gè)子區(qū)域大小為。然后使用高斯核對每個(gè)子區(qū)域進(jìn)行高斯加權(quán),每個(gè)子區(qū)域計(jì)算出一個(gè)4維的描述向量:
(8)
最后進(jìn)行歸一化處理后,可得到16個(gè)區(qū)域,每個(gè)4維的64維描述向量。
1.6KAZE性能
本文使用了KAZE作者在論文中提到的測試圖像庫[3],通過Visual Studio 2010和OpenCV 對該圖庫的仿真,再與matlab結(jié)合,從高斯模糊度、旋轉(zhuǎn)角度、縮放程度、亮度變化程度等方面對KAZE、SIFT、SURF、ORB進(jìn)行性能仿真測試。其中性能測試包括正確匹配點(diǎn)百分比、匹配點(diǎn)百分比、匹配率等。仿真結(jié)果如圖1、圖2、圖3,其橫坐標(biāo)范圍見表1。
仿真結(jié)果表明KAZE與SIFT、SURF、ORB相比,從各方面而言,正確匹配點(diǎn)百分比,匹配點(diǎn)百分比以及匹配率都表現(xiàn)最好,精確度最高。
圖1 正確匹配點(diǎn)百分比
圖2 匹配點(diǎn)百分比
圖3 匹配率
2雙目視覺跟蹤與測量
2.1常見跟蹤算法
目前常見的視覺跟蹤算法,按照跟蹤原理主要分為:基于區(qū)域的跟蹤算法、基于特征的跟蹤算法、基于變形模板的跟蹤、基于模型的跟蹤、基于運(yùn)動(dòng)估計(jì)的跟蹤[8-9]。本文選取的跟蹤算法是基于特征點(diǎn)匹配的算法。
表1 4種特征匹配算法對比圖橫坐標(biāo)范圍
基于特征的跟蹤算法和基于區(qū)域的跟蹤算法相比,都需要計(jì)算目標(biāo)圖像與搜索窗中圖像的相關(guān)性。但是它們選取的特征類型不同,基于區(qū)域的算法易受到周圍環(huán)境的影響,如在紋理、顏色類似的背景中,該算法易丟失目標(biāo)。而基于特征的算法,用的是目標(biāo)的局部特征信息,如角點(diǎn)、邊緣、輪廓等,能夠抑制一定程度的遮擋,只要部分區(qū)域中仍存在目標(biāo)中的特征信息,就可以跟蹤到目標(biāo)?;谔卣鞯母櫮P团c卡爾曼濾波結(jié)合能進(jìn)一步提升跟蹤性能。
本文在其基礎(chǔ)上又加入學(xué)習(xí)機(jī)制,將其應(yīng)用到雙目環(huán)境中,并融入卡爾曼預(yù)測模型預(yù)估搜索區(qū),減少匹配搜索面積,從而提高系統(tǒng)實(shí)時(shí)性。
2.2卡爾曼預(yù)測模型
卡爾曼預(yù)測就是根據(jù)當(dāng)前的跟蹤目標(biāo)的位置信息,預(yù)測目標(biāo)下一時(shí)刻的位置信息,只在預(yù)測目標(biāo)的鄰域內(nèi)搜索,從而減少搜索區(qū)域,提高匹配跟蹤速度[10]?;诳柭碾p目視覺跟蹤與測量系統(tǒng)如圖4所示。
圖4基于卡爾曼雙目視覺跟蹤系統(tǒng)流程圖
本文將跟蹤目標(biāo)的特征點(diǎn)集中區(qū)域,左圖像中目標(biāo)中心點(diǎn)pl(ul,vl)和右圖像中目標(biāo)中心點(diǎn)Pr(ur,vr)作為觀測點(diǎn),以此作為觀測向量,預(yù)測下一幀圖像中該點(diǎn)的位置。跟蹤預(yù)測總體框架如下:
1)獲取k-1時(shí)刻時(shí),左右圖像中目標(biāo)的中心點(diǎn)pl(k-1)和pr(k-1);
3)根據(jù)k時(shí)刻的中心點(diǎn),在其鄰域設(shè)置ROI進(jìn)行搜索,重復(fù)1)、2)步。
(9)
觀測方程為:
(10)
其中:A(k,k-1)為狀態(tài)轉(zhuǎn)移矩陣,W(k-1)為系統(tǒng)噪聲。H(k)觀測矩陣,V(k)為觀測噪聲,并設(shè)W(k)和V(k)為相互獨(dú)立,且為零均值的高斯白噪聲。它們滿足高斯分布p(w)~N(0,Q(k)),p(v)~N(0,R(k)。Qk、R(k)分別是W(k)、V(k)的協(xié)方差矩陣。
考慮圖像坐標(biāo)系的u軸和v軸,狀態(tài)方程為:
(11)
而觀測方程為:
(12)
(13)
其中:
P′(k)=A(k,k-1)P(k-1)A(k,k-1)T+Q(k)K(k)=P′(k)H(k)T(H(k)P′(k)H(k)T+R(k))-1P(k)=(1-K(k)H(k))P′(k)
由此我們使用第一幀圖像獲得的目標(biāo)圖像中心點(diǎn)X(0),在跟蹤系統(tǒng)中,一般系統(tǒng)噪聲較大,測量觀測噪聲較小,可以選取,P(0)=R(0)=I, Q(0)=2I,I為單位矩陣[11]。本文的雙目視覺模型,需要將狀態(tài)向量和觀測向量進(jìn)行擴(kuò)展[12],極線約束的加入使預(yù)測更加準(zhǔn)確,減少了搜索區(qū)域,提高了雙目視覺跟蹤穩(wěn)定性。
2.3雙目視覺跟蹤
2.3.1獲取跟蹤目標(biāo)信息
跟蹤目標(biāo)通過人工方式選取,通過提取目標(biāo)的圖像大小,作為ROI窗口的尺寸大小。再將目標(biāo)的圖像導(dǎo)入到跟蹤系統(tǒng)的目標(biāo)庫,進(jìn)行初始化。提取目標(biāo)上的特征信息,并做備份,保存一份原始目標(biāo)圖像。
2.3.2跟蹤初始化
1)目標(biāo)庫初始化:首先對相機(jī)獲取的視頻序列進(jìn)行全幀搜索,提取第1幀中的特征點(diǎn),并與跟蹤目標(biāo)上的特征點(diǎn)進(jìn)行匹配,獲得目標(biāo)在第1幀中的匹配點(diǎn)集,對這個(gè)匹配點(diǎn)集合的坐標(biāo)求均值,獲取該匹配點(diǎn)集的中心點(diǎn)。然后以這個(gè)中心點(diǎn)為中心繪制ROI窗口,標(biāo)出目標(biāo)的圖像坐標(biāo)。若連續(xù)2幀都能檢測到目標(biāo)的位置。對ROI窗口內(nèi)的目標(biāo)進(jìn)行截取并保存到目標(biāo)圖片庫中。
2)卡爾曼預(yù)測:為了減少搜索區(qū)域,在算法中引入了卡爾曼預(yù)測器,根據(jù)卡爾曼預(yù)測算法。對目標(biāo)中心點(diǎn)下一時(shí)刻的位置進(jìn)行預(yù)測。
2.3.3目標(biāo)丟失時(shí)應(yīng)對機(jī)制
1)局部搜索目標(biāo)丟失:當(dāng)在卡爾曼預(yù)測的范圍內(nèi)搜索不到目標(biāo)時(shí),算法轉(zhuǎn)為全幀搜索。找到目標(biāo)后,再進(jìn)入預(yù)測鄰域內(nèi)的局部搜索。
2)全局搜索丟失目標(biāo):首先倒序從目標(biāo)圖像庫中進(jìn)行搜索匹配。跟蹤到目標(biāo)則繼續(xù)目標(biāo)學(xué)習(xí)并跟蹤。若目標(biāo)圖像庫無目標(biāo),則用1)中備份的原始目標(biāo)圖像的特征點(diǎn)去搜索全幀圖像中的目標(biāo)。
3)仍未搜索到目標(biāo):目標(biāo)已不在相機(jī)的視野范圍內(nèi)或者目標(biāo)跟蹤丟失。
2.4雙目視覺測量
雙目視覺測量,是在完成雙目相機(jī)的建模,標(biāo)定,圖像采集,圖像匹配過程后,運(yùn)用匹配的特征點(diǎn)對左右圖像坐標(biāo)系下的坐標(biāo),根據(jù)雙目視覺數(shù)學(xué)模型,還原出該空間點(diǎn)的三維坐標(biāo)的過程。
2.4.1匹配特征點(diǎn)三維坐標(biāo)測量原理
對于一個(gè)標(biāo)定過的雙目視覺測量系統(tǒng),在獲得左右相機(jī)圖像中的匹配特征點(diǎn)對pleft(ul,vl)和pright(ur,vr)后,根據(jù)雙目視覺測量模型[13],就可以通過反投影變換解算出該特征點(diǎn)對對應(yīng)的空間點(diǎn)P(x,y,z)的攝像機(jī)坐標(biāo)系下的三維坐標(biāo)值。
(14)
2.4.2極線約束補(bǔ)償測量
在雙目跟蹤與測量中,需要考慮極線約束補(bǔ)償[14-15]的情況。
圖5 極線約束補(bǔ)償解算空間坐標(biāo)示意圖
如果只在左相機(jī)搜索到目標(biāo)ROI區(qū)域,其中心點(diǎn)為T1,這時(shí)需要對右相機(jī)內(nèi)的目標(biāo)進(jìn)行極線約束預(yù)測。T1對應(yīng)的極線為E2T2,取以該極線為對角線的區(qū)域加上左右各擴(kuò)展0.5a的長度的區(qū)域?yàn)榫植克阉鲄^(qū)域Rep,如圖5右圖像中深色區(qū)域,如果仍搜索不到目標(biāo)再進(jìn)行全幀搜索。
基于圖像匹配的雙目跟蹤首先要獲取跟蹤目標(biāo)的圖像,然后通過兩個(gè)相機(jī)同時(shí)獲取跟蹤目標(biāo),再根據(jù)雙目視覺測量模型求出目標(biāo)的中心點(diǎn),假設(shè)這兩個(gè)點(diǎn)為雙目視覺中實(shí)際目標(biāo)中心點(diǎn)的投影點(diǎn)對。通過這兩個(gè)點(diǎn),進(jìn)行雙目視覺跟蹤與測量。
2.5實(shí)驗(yàn)結(jié)果與分析
首先使用張正友標(biāo)定法[16]對雙目相機(jī)進(jìn)行標(biāo)定。利用Matlab提供的標(biāo)定工具箱完成雙目視覺系統(tǒng)的標(biāo)定:實(shí)驗(yàn)使用視視看seeker型號USB網(wǎng)絡(luò)攝像頭,分辨率為,焦距4.3mm。圖6是用十二張標(biāo)定圖片標(biāo)定的雙目相機(jī)的三維立體標(biāo)定結(jié)果。相機(jī)參數(shù)見表2。
圖6 立體標(biāo)定結(jié)果
左相機(jī)右相機(jī)畸變系數(shù)k831.82432816.35316焦距f0.219140.21095透視中心〔321.64761252.78004〕〔340.44573241.70518〕攝像機(jī)旋轉(zhuǎn)矩陣R攝像機(jī)平移向量T
再將雙目跟蹤與雙目靜態(tài)測量相結(jié)合,在VisualStudio2010,OpenCV2.4.11環(huán)境下,用MFC建立了一套雙目視覺測量與跟蹤系統(tǒng)。將得到的相機(jī)標(biāo)定結(jié)果輸入系統(tǒng)中,其解算得到的目標(biāo)中心點(diǎn)坐標(biāo)為(24.2047,68.000,629.027),單位mm。通過普通卡尺測量得到目標(biāo)實(shí)際距離約是618mm。相對誤差為1.78%。考慮到相機(jī)本身的工藝問題和實(shí)際測量帶來的測量誤差,該方法的測量誤差很小,測量精度很高,可以滿足機(jī)器人視覺中對跟蹤測量的精確要求。
3結(jié)論
本文針對雙目視覺跟蹤與測量問題進(jìn)行了研究,著重解決之前圖像匹配中存在的精度差的問題。研究了基于KAZE圖像的匹配算法,通過非線性濾波來任意步長的構(gòu)造穩(wěn)定的非線性尺度空間來消除邊界模糊和細(xì)節(jié)丟失,并創(chuàng)新性的將其應(yīng)用到目標(biāo)跟蹤上,獲得了良好的效果。通過改變亮度,改變高斯模糊程度,旋轉(zhuǎn)角度,縮放變化的matlab性能仿真實(shí)驗(yàn)驗(yàn)證了KAZE的優(yōu)良性。相比之前的跟蹤算法只能根據(jù)特定的顏色或形狀實(shí)現(xiàn)雙目實(shí)時(shí)測距,本文的算法可以跟蹤任何特征點(diǎn)較豐富的目標(biāo),并能夠通過自學(xué)習(xí),完善目標(biāo)圖像庫,具有很出色的精確性,較好地滿足移動(dòng)機(jī)器人對三維環(huán)境的感知需求,具有較高的實(shí)用價(jià)值。
參考文獻(xiàn):
[1] 黃超, 齊英劍.SIFT算法研究和應(yīng)用[J]. 中國傳媒大學(xué)學(xué)報(bào): 自然科學(xué)版, 2012, 19(1): 68-72.
[2]WeickertJ,RomenyBMTH,ViergeverMA.Efficientandreliableschemesfornonlineardiffusionfiltering[J].IEEETransactionsonImageProcessing. 1998:398-410
[3]GrewalMS,AndrewsAP.Kalmanfiltering:theoryandpracticewithMATLAB[M].JohnWiley&Sons, 2014.
[4]AlcantarillaPF,BartoliA,DavisonAJ.KAZEfeatures[A].ComputerVision-ECCV2012[C].SpringerBerlinHeidelberg, 2012: 214-227.
[5]WeickertJ,IshikawaS,ImiyaA.Linearscale-spacehasfirstbeenproposedinJapan[J].JournalofMathematicalImagingandVision, 1999, 10(3): 237-252.
[6]PeronaP,MalikJ.Scale-spaceandedgedetectionusinganisotropicdiffusion[J].PatternAnalysis&MachineIntelligence, 1990, 12(7):629-639.
[7] 許冠軍. 數(shù)字圖像去噪算法研究[D].杭州:浙江大學(xué),2006.
[8] 楊戈, 劉宏. 視覺跟蹤算法綜述[J]. 智能系統(tǒng)學(xué)報(bào), 2010, 5(2): 95-105.
[9] 王亮, 胡衛(wèi)明, 譚鐵牛. 人運(yùn)動(dòng)的視覺分析綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2002, 25(3): 225-237.
[10] 王江, 付強(qiáng), 全權(quán), 等. 基于Kalman濾波和直方圖匹配的雙目視覺跟蹤 [J]. 新型工業(yè)化, 2013, 3(2): 23-33.
[11] 任少盟, 魏振忠, 張廣軍. 基于擴(kuò)展Kalman預(yù)測模型的雙目立體視覺圖像特征點(diǎn)跟蹤方法[J]. 電子測量技術(shù), 2012, 35(1): 71-75.
[12] 曲云騰,李平康,杜秀霞. 基于Kalman預(yù)測的人體運(yùn)動(dòng)目標(biāo)跟蹤[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2011,01:137-140.
[13] 馬頌德,張正友.計(jì)算機(jī)視覺-計(jì)算理論與算法基礎(chǔ)[M].北京:科學(xué)出版社,1998.
[14] 邱茂林, 馬頌德. 計(jì)算機(jī)視覺中攝像機(jī)定標(biāo)綜述[J]. 自動(dòng)化學(xué)報(bào), 2000, 26(1):43-55.
[15] 段峰, 王耀南. 機(jī)器視覺技術(shù)及其應(yīng)用綜述[J]. 自動(dòng)化博覽, 2002, 19(3): 59-61.
[16]ZhangZ.Aflexiblenewtechniqueforcameracalibration[J].PatternAnalysisandMachineIntelligence,2000, 22(11): 1330-1334.
Stereo Vision Tracking and Measurement System based on KAZE feature
Yu Fei,Zhan Xingqun,Liu Ming
(Shanghai Jiaotong University, Shanghai200240, China)
Abstract:The intention of this research is achieve an accurate stereo visual tracking and measurement system. The emphasis of this application lies in the KAZE feature, a novel image matching algorithm, Kalman prediction for target tracking. The result of KAZE comparison experiment indicates that comparing the traditional feature extraction algorithm matching algorithm KAZE has higher match ratio and better robustness. The application of Kalman prediction algorithm with KAZE in stereo visual tracking and measurement system under Visual Studio environment shows that the prediction accuracy of binocular tracking has been improved, and achieve better accuracy in the medium-long range.
Keywords:stereo vision; image matching; KAZE feature; visual tracking; Kalman prediction
文章編號:1671-4598(2016)02-0030-04
DOI:10.16526/j.cnki.11-4762/tp.2016.02.008
中圖分類號:TP311
文獻(xiàn)標(biāo)識碼:A
作者簡介:于菲(1991-),女,河南人,碩士研究生,主要從事視覺導(dǎo)航方向的研究。戰(zhàn)興群(1970-),男,教授,博士生導(dǎo)師,主要從事組合導(dǎo)航技術(shù)方向的研究。
基金項(xiàng)目:國家高技術(shù)研究發(fā)展計(jì)劃(863計(jì)劃)(2014AA123103)。
收稿日期:2015-08-07;修回日期:2015-09-17。