宋 強
(海軍裝備研究院,北京 100036)
熊 偉 何 友
(海軍航空工程學院 信息融合技術(shù)研究所,煙臺 264001)
多傳感器多目標系統(tǒng)誤差融合估計算法
宋 強
(海軍裝備研究院,北京 100036)
熊 偉 何 友
(海軍航空工程學院 信息融合技術(shù)研究所,煙臺 264001)
為解決多傳感器組網(wǎng)系統(tǒng)的系統(tǒng)誤差估計問題,基于多傳感器多目標上報信息,研究并提出了一種多傳感器多目標系統(tǒng)誤差融合估計算法.算法構(gòu)建了兩級融合結(jié)構(gòu),即第一級對多傳感器組合狀態(tài)估計信息進行反饋融合以改善局部組合狀態(tài)估計精度,從而間接改善系統(tǒng)誤差的估計精度,而第二級對多目標系統(tǒng)誤差估計信息進行融合以進一步提高系統(tǒng)誤差的估計精度.蒙特卡洛仿真顯示算法能有效融合利用多傳感器多目標信息,實現(xiàn)多傳感器系統(tǒng)誤差的實時精確估計.
系統(tǒng)誤差;傳感器網(wǎng)絡(luò);誤差配準;信息融合
近年來,隨著目標探測、信號處理、數(shù)據(jù)鏈路通信等相關(guān)技術(shù)性能的提高,通過多傳感器監(jiān)視系統(tǒng)組網(wǎng)探測,可以使得系統(tǒng)在目標探測、航跡起始、跟蹤精度、覆蓋范圍及可靠性等各方面都明顯得到增強[1].但是由于傳感器系統(tǒng)誤差(偏差)的存在,系統(tǒng)實際跟蹤效果往往得不到保障,甚至會嚴重降低多傳感器系統(tǒng)的整體跟蹤性能,因而如何有效估計并校準傳感器在量測過程中的系統(tǒng)誤差,對傳感器系統(tǒng)誤差估計(又稱系統(tǒng)誤差配準)技術(shù)進行深入研究具有重要的現(xiàn)實意義和較強的工程需求[2-5].
為解決上述問題,許多研究者都致力于傳感器誤差配準技術(shù)的研究,并相繼提出了一系列實時系統(tǒng)誤差估計方法.其中,文獻[6]利用合作目標提供的實時高精度坐標,提出了一種單傳感器系統(tǒng)誤差協(xié)同配準算法;而在兩部傳感器配合進行誤差配準理論研究方面,文獻[7-8]基于傳感器上報的單目標數(shù)據(jù),并通過引入系統(tǒng)誤差對目標狀態(tài)向量擴維濾波的方法,實現(xiàn)對系統(tǒng)誤差和目標狀態(tài)的實時同步估計;為有效降低算法運算量,提高工程實用性,文獻[9]通過對擴維的狀態(tài)向量和系統(tǒng)誤差進行解耦的方法,提出了兩兩傳感器的系統(tǒng)偏差分離解耦估計方法,在降低算法系統(tǒng)耗時的基礎(chǔ)上,實現(xiàn)了對系統(tǒng)誤差和目標狀態(tài)的實時和解耦估計;文獻[10]論證了在兩解耦濾波器初始參數(shù)設(shè)置之間符合一定關(guān)系條件下,文獻[9]方法與擴維濾波估計算法的等效性,但當在非線性系統(tǒng)中或為解耦而需做出一定近似時,這一等價性也可能不成立,這就說明了文獻[9]解耦估計算法性能對初值與非線性近似敏感,其估計性能不能得到保證;文獻[11-12]通過對兩部傳感器構(gòu)建偽量側(cè)方程,利用多目標信息,實現(xiàn)了對傳感器系統(tǒng)誤差的序貫實時估計.然而,文獻[6]算法的運用條件是待配準的單傳感器,需選擇位置分布合適并具有較高導航精度的飛機,并通過數(shù)據(jù)鏈實時獲取飛機上導航設(shè)備提供的大地坐標,這使得算法在實際工程應(yīng)用中具有較差的操作性.文獻[7-10]所涉及的算法要求具有合作目標,本身都是基于兩部傳感器的,雖可擴展利用多部傳感器信息,但是不能利用多目標信息進行融合估計.而文獻[11-12]所提供的算法雖然利用到了多目標信息,但其亦未采用融合方法有效利用多傳感器信息.
因而,基于多傳感器多目標上報信息,本文構(gòu)造并提出一種傳感器系統(tǒng)誤差的實時融合估計算法.該算法通過多部傳感器的兩兩傳感器組合來構(gòu)建兩級融合估計結(jié)構(gòu),即第一級對傳感器組合估計信息進行反饋式融合來改善局部組合的狀態(tài)估計精度,從而間接改善系統(tǒng)誤差的估計效果,第二級對多目標信息進行融合以進一步提高系統(tǒng)誤差的估計精度,以此有效融合利用多傳感器多目標信息對傳感器系統(tǒng)誤差進行融合估計.
假設(shè)由Ns個三維傳感器對M個勻速直線運動目標進行同步組網(wǎng)探測,假定傳感器i和j可組成第lij個探測組合,則共可形成個兩兩探測組合.傳感器i和j在融合中心坐標系中的笛卡爾坐標分別為(ui,vi,wi),(uj,vj,wj),而傳感器 i和j對目標的量測值分別為)和,且各傳感器均具有一定的白色高斯量測噪聲.
假設(shè)目標 t(t=1,2,…,M)在時刻 k的真實位置和速度分別為(xt(k),yt(k),zt(k))和,而第lij個傳感器組合的測距離、方位和俯仰系統(tǒng)誤差分別為(ΔRi,ΔRj),(Δθi,Δθj)和(Δηi,Δηj).
由此k時刻目標t的狀態(tài)向量可描述為
第lij個探測組合中,目標t在時刻k的系統(tǒng)擴展狀態(tài)向量定義如下:
不失一般性地,目標t的系統(tǒng)運動狀態(tài)方程可定義為
式中,F(xiàn)Y(k)∈Rn,n是狀態(tài)轉(zhuǎn)移矩陣;Vt(k)是協(xié)方差為Qt(k)的白色高斯過程噪聲,而GY(k)是其轉(zhuǎn)移矩陣.
通??梢约僭O(shè)傳感器系統(tǒng)誤差為恒定量或者在較長時間內(nèi)為慢變量,這樣系統(tǒng)誤差就可以描述為
式中,I6×6表示6 ×6 的單位矩陣,且
因此,第lij個組合中目標t的系統(tǒng)離散動態(tài)方程可以表示為
式中
其中06×6表示6×6的零矩陣.
第lij個組合相應(yīng)于目標t的量測方程可以定義為
式中Wlij(k)為服從高斯分布的白色量測噪聲,記Rlij(k)為其協(xié)方差.
對于由傳感器i和j構(gòu)成的第lij個傳感器組合,根據(jù)式(5)、式(7)中給出的狀態(tài)方程和量測方程,可列出相應(yīng)的實時濾波方程組,即第lij個局部組合節(jié)點對目標t目標狀態(tài)與傳感器i和j系統(tǒng)誤差的聯(lián)合實時估計為
其中h的雅可比矩陣是
如前所述,對于含有Ns個傳感器的多傳感器探測系統(tǒng),基于傳感器兩兩組合可構(gòu)建L個估計組合,而各組合均可獲得局部節(jié)點的系統(tǒng)誤差與目標狀態(tài)的聯(lián)合實時估計,在每一時刻,各局部組合估計向量均含有對同一目標t的狀態(tài)估計以及該組合傳感器的系統(tǒng)誤差估計信息維.
根據(jù)文獻[1,13]中多傳感器反饋式信息融合結(jié)構(gòu)能改善局部估計性能的思想,可構(gòu)建第一級融合結(jié)構(gòu),通過對各局部傳感器組合估計進行融合,形成第一級融合結(jié)構(gòu)的系統(tǒng)全局狀態(tài)估計向量,并將系統(tǒng)融合信息反饋至下一時刻各局部組合節(jié)點的實時估計.
對于目標t,定義第一級融合系統(tǒng)全局狀態(tài)估計包含對目標狀態(tài)與Ns個傳感器系統(tǒng)誤差的系統(tǒng)估計,即
式中Tlij為全局狀態(tài)向量到第lij個組合局部狀態(tài)向量的空間映射,即第一級融合得局部狀態(tài)空間轉(zhuǎn)移矩陣,可描述為
由于局部空間與全局空間之間狀態(tài)維數(shù)的不一致性,若第lij個組合節(jié)點接收來自第一級融合結(jié)構(gòu)融合中心的反饋,則局部節(jié)點狀態(tài)估計的描述應(yīng)該修改如下:
而
結(jié)合式(22)~式(26),不難得到第一級融合中心的系統(tǒng)狀態(tài)估計和相應(yīng)的協(xié)方差為
第一級反饋融合估計階段有效地反饋融合了各組合傳感器估計信息,獲得了對應(yīng)目標t的第一級融合中心的系統(tǒng)狀態(tài)估計)和估計協(xié)方差,目的是融合利用傳感器信息以提高各局部組合節(jié)點的狀態(tài)估計精度.
但顯然上述第一級反饋融合估計階段并未利用各目標信息,而系統(tǒng)狀態(tài)估計均含有使用目標t的跟蹤信息對各傳感器系統(tǒng)誤差進行估計的信息維,因而可通過構(gòu)建第二級融合結(jié)構(gòu),融合利用各目標第一級系統(tǒng)狀態(tài)估計中傳感器系統(tǒng)誤差信息,形成對各傳感器系統(tǒng)誤差的最終融合估計,定義為由于第一級輸出融合結(jié)果包含對不同目標狀態(tài)與各傳感器系統(tǒng)誤差,因而同樣可定義第二級融合全局狀態(tài)估計向量與第二級融合全局狀態(tài)估計向量)之間的關(guān)系為
式中,Tb為第二級融合狀態(tài)空間轉(zhuǎn)移矩陣,也即表示第二級融合全局狀態(tài)向量到第一級融合狀態(tài)向量的空間映射關(guān)系,具體為
這樣,不難推導,第一級融合結(jié)果到第二級融合全局狀態(tài)估計的融合表達式為
式中
多傳感器多目標系統(tǒng)誤差融合估計算法的兩級融合結(jié)構(gòu)原理框圖如圖1所示,第一級融合對多傳感器組合估計信息進行融合并反饋,而第二級融合對第一級融合輸出的估計結(jié)果,也即多目標對傳感器系統(tǒng)誤差估計結(jié)果進行融合,從而獲得多傳感器系統(tǒng)誤差的最終融合估計.
圖1 兩級融合結(jié)構(gòu)框圖
采用蒙特卡洛方法,對本文提出的融合估計算法、單一目標的擴維濾波估計算法及文獻[10-11]所提出的EX誤差估計方法的有效性進行仿真比較、驗證和分析.仿真時長設(shè)置為1000 s,次數(shù)為30次,設(shè)定利用3部在空間分布的三坐標探測傳感器對公共探測區(qū)域中3個呈編隊勻速運動的目標進行組網(wǎng)探測.
假設(shè)3部傳感器的笛卡爾坐標分別為(0 km,0 km,0 km),(185.2 km,0 km,0 km)和(285.2 km,0 km,0 km),測距離、測方位和測俯仰分別具有服從高斯分布的白噪聲,且精度分別為50m,0.3°(0.005236 rad),0.1°(0.001745 rad);3 部傳感器的距離、方位和俯仰測量系統(tǒng)誤差分別設(shè)置為1500m,0.008727 rad 和0.008727 rad.
3個編隊運動目標的初始狀態(tài)為
仿真結(jié)果如表1、圖2~圖7所示.表1顯示了采用本文算法、擴維算法對各傳感器以及EX算法對傳感器1、傳感器2系統(tǒng)誤差最終的均方根誤差估計結(jié)果,而圖2~圖7分別給出了算法對傳感器1及傳感器2各測距、測方位角及測俯仰角系統(tǒng)誤差實時估計的均方根誤差曲線.
表1 系統(tǒng)誤差估計均方差(RSME)
從表1中不難看出,在3種算法中,融合估計算法所獲得的估計性能最佳,其中各傳感器的系統(tǒng)誤差估計精度都很大程度地高于其它2種算法,其性能大約比擴維算法提高了30% ~40%,這是由于融合算法建立了目標狀態(tài)和系統(tǒng)誤差的兩級融合估計結(jié)構(gòu),從而在估計中更為充分地利用了多傳感器多目標信息;擴維算法雖然基于多部傳感器量測對系統(tǒng)誤差進行集中式估計,但并沒有融合利用多目標的估計信息,從而使得其估計性能低于本文的融合估計算法;而由于EX算法僅能利用2個傳感器量測進行系統(tǒng)誤差估計,且該算法不輸出對目標狀態(tài)的估計結(jié)果,不能基于多目標狀態(tài)估計利用多傳感器組合估計信息進行融合估計,因而表1顯示該算法的系統(tǒng)誤差估計精度最差.
此外,仿真結(jié)果顯示融合估計算法對3部傳感器系統(tǒng)誤差的估計效果也各不相同,其對傳感器3的距離測量系統(tǒng)誤差估計性能要優(yōu)于傳感器2,對傳感器2的距離測量系統(tǒng)誤差估計精度又要好于傳感器1,而對角度測量系統(tǒng)誤差的估計效果則相反.通過仿真發(fā)現(xiàn),當目標航跡出現(xiàn)在x軸以上時又會呈現(xiàn)出與上面完全相反的規(guī)律.因此,這說明目標與傳感器之間的相對空間位置關(guān)系對相應(yīng)傳感器系統(tǒng)誤差的估計性能產(chǎn)生了影響,而由于仿真中采用編隊勻速運動目標,其運動形式較為單一、目標分布相對集中且和各傳感器之間的相對位置關(guān)系相當固定,因而各傳感器系統(tǒng)誤差估計精度差異較為明顯.但在實際應(yīng)用中,當所選取的各目標航跡在空間中分散分布時,算法對各傳感器系統(tǒng)誤差的估計精度則能夠保持相當.
圖2 距離測量系統(tǒng)誤差估計均方差(傳感器1)
圖3 方位測量系統(tǒng)誤差估計均方差(傳感器1)
圖4 俯仰測量系統(tǒng)誤差估計均方差(傳感器1)
圖5 距離測量系統(tǒng)誤差估計均方差(傳感器2)
圖6 方位測量系統(tǒng)誤差估計均方差(傳感器2)
圖7 俯仰測量系統(tǒng)誤差估計均方差(傳感器2)
從對仿真結(jié)果圖2~圖7的分析可以得出,3種系統(tǒng)誤差估計算法中,在對測距及測方位角系統(tǒng)誤差估計上,融合估計算法具有最快的收斂速度,而在測俯仰角系統(tǒng)誤差估計中,其亦能夠較快地收斂,且整個仿真中融合估計算法對各傳感器系統(tǒng)誤差均具有最高的估計性能;而擴維算法由于未能夠利用多目標信息,性能稍差于本文算法;EX算法由于未能利用多傳感器進行融合估計,性能顯示為最差.綜上所述,本文提出的融合估計算法能夠基于多傳感器多目標信息和融合估計結(jié)構(gòu),對傳感器系統(tǒng)誤差進行精確有效的實時估計,相較其它算法具有一定的性能優(yōu)勢.
本文研究并提出了一種多傳感器多目標系統(tǒng)誤差的實時融合估計算法,該算法通過構(gòu)建兩級融合結(jié)構(gòu),能夠融合利用多傳感器多目標探測信息,實現(xiàn)傳感器系統(tǒng)誤差的實時組網(wǎng)融合估計.
另外,通過構(gòu)建不同的狀態(tài)空間轉(zhuǎn)移矩陣Tlij,本文算法還可實現(xiàn)多異類傳感器系統(tǒng)誤差的融合估計.
References)
[1]何友,王國宏,陸大金,等.多傳感器信息融合及應(yīng)用[M].2版.北京:電子工業(yè)出版社,2007:1-12 He You,Wang Guohong,Lu Dajin,et al.Multisensor information fusion with applications[M].2nd ed.Beijing:Publishing House of Electronics Industry,2007:1 -12(in Chinese)
[2]何友,修建娟,張晶煒,等.雷達數(shù)據(jù)處理及應(yīng)用[M].2版.北京:電子工業(yè)出版社,2009:274-288 He You,Xiu Jianjuan,Zhang Jingwei,et al.Sensor data processing with applications[M].2nd ed.Beijing:Publishing House of Electronics Industry,2009:274 -288(in Chinese)
[3]董云龍.雷達組網(wǎng)系統(tǒng)中的誤差配準技術(shù)研究[D].煙臺:海軍航空工程學院電子信息工程系,2007 Dong Yunlong.Study on sensor registration for radar networking[D].Yantai:Dept of Electronics and Information Engineering,Naval Aeronautical and Astronautical University,2007(in Chinese)
[4] Li Zhenhua,Chen Siyue,Leung Henry.Joint data association,registration,and fusion using EM-KF[J].IEEE Transactions on Aerospace and Electronic Systems,2010,46(2):496 -507
[5] Lian F,Han C,Liu W,et al.Joint spatial registration and multitarget tracking using an extended probability hypothesis density filter[J].IETRadar Sonar Navig,2011,5(4):441 -448
[6]吳澤民,任姝婕,劉熹.雷達系統(tǒng)誤差協(xié)同配準算法研究[J].兵工學報,2008,29(10):1192 -1196 Wu Zemin,Ren Shujie,Liu Xi.Research oncollaborative registration algorithm for radar system error[J].Acta Armamentarii,2008,29(10):1192 -1196(in Chinese)
[7] Okello N N,Pulford GW.Simultaneous registration and tracking for multiple radars with cluttered measurements[C]//Proceedings of 8th IEEE Signal Processing Workshop on Statistical Signal and Array Processing.Corfu:IEEE Press,1996:60 - 63
[8] Nabaa N,Bishop R H.Solution to amultisensor tracking problem with sensor registration errors[J].IEEE Trans on Aerospace and Electronic Systems,1999,35(1):354 -363
[9] Friedland B.Treatment of bias in recursive filtering[J].IEEE Trans on Automatic Control,1969,AC-14:359 -367
[10] Ignagni M B.An alternate derivation and extension of Friedland’s two-stage Kalman estimator[J].IEEE Trans on Automatic Control,198l,AC-26:746-750
[11] Lin X,Kirubarajan T,Bar-Shalom Y.Exact multisensordynamic bias estimation with local tracks[J].IEEE Trans on Aerospace and Electronic Systems,2004,40(2):576 - 590
[12] Lin X,Bar-Shalom Y.Multisensor target tracking performance with bias compensation[J].IEEE Trans.on Aerospace and E-lectronic Systems,2006,42(3):1139 -1149
[13]何友,熊偉.帶反饋分布式不同維傳感器狀態(tài)估計技術(shù)[J].宇航學報,2003,24(6):574 -578 He You,XiongWei.State estimation techniques for radars with different observation dimension in one distributed data fusion system with feedback information[J].Journal of Astronautics,2003,24(6):574 -578(in Chinese)
(編 輯:文麗芳)
Multi-sensormulti-target systematic bias fusion estimation algorithm
Song Qiang
(Naval Academy of Armament,Beijing 100036,China)
Xiong Wei He You
(Research Institute of Information Fusion,Naval Aeronautical and Astronautical University,Yantai264001,China)
To solve the problem of sensor systematic bias estimation in sensor network,a systematic bias fusion estimation algorithm was presented based on multi-sensor multi-target information.To solve the forenamed problem,the algorithm was constituted a two layer fusion structure.In order to improve the precision of corresponding combination estimation,the first layer fuses the multi-sensor combination state estimation information with feedback,so the estimation precision of systematic bias can also be improved.While,the second layer fuses the multi-target systematic bias estimation information in order to further improve the estimation precision.The monte-carlo simulation result shows that the algorithm can make sufficient use of the multi-sensor multi-target information with fusion structure,and achieve an exact and real-time estimation of the multi-sensor systematic bias.
systematic bias;sensor network;bias registration;information fusion
TP 953;TN 957
A
1001-5965(2012)06-0835-07
2011-05-06;網(wǎng)絡(luò)出版時間:2012-06-15 15:43
www.cnki.net/kcms/detail/11.2625.V.20120615.1543.017.htm l
國家自然科學基金資助項目(60801049);全國優(yōu)秀博士學位論文作者專項資金資助項目(200443)
宋 強(1983-),男,江西新建人,工程師,songqiang8@sina.com.