李寅龍 何海燕 張鳳 李婧
?
基于行數(shù)據(jù)掃描的星空多目標星點提取方法
李寅龍1,2何海燕1張鳳1李婧1
(1 北京空間機電研究所,北京 100094) (2 先進光學遙感技術(shù)北京市重點實驗室,北京 100094)
為了解決傳統(tǒng)方法無法實時獲取星空目標位置問題,文章提出了一種基于行數(shù)據(jù)掃描的星空多目標星點提取方法,通過閾值提取、行目標提取、星空目標識別和質(zhì)心坐標計算等四個步驟來快速提取星空目標。為了使該算法能夠更有效地運行在嵌入式設(shè)備中,對算法進行合理配置,將其分割成FPGA端和DSP端。通過試驗驗證,在輸入圖像分辨率為1 280像素×1 024像素的情況下,文章提出的算法星點提取時間小于0.17ms。相比較傳統(tǒng)方法,能夠在不損失星空目標定位精度的前提下,提高提取速率,更適用于星空背景下的多目標快速星點提取。
星空多目標 空間目標捕獲 星點提取 行數(shù)據(jù)掃描 航天遙感
空間已成為新時期各國家政治、軍事、技術(shù)、經(jīng)濟等競爭的熱點,構(gòu)建空間態(tài)勢感知系統(tǒng),已迫在眉睫,高軌電子防御衛(wèi)星應(yīng)運而生[1-5]??臻g目標捕獲算法是高軌電子防御衛(wèi)星的重要組成部分。主要任務(wù)是:完成對大天域機動目標的自主搜索、捕獲、跟蹤[6-11]。為了實現(xiàn)對目標星的持續(xù)跟蹤,目標提取模塊必須能夠?qū)崟r提取空間目標質(zhì)心[12-15],并向捕獲跟蹤模塊發(fā)送目標位置,使得捕獲跟蹤模塊能夠計算得到脫靶量,所以,空間目標捕獲算法中空間目標質(zhì)心提取算法性能的好壞對于系統(tǒng)性能起到了至關(guān)重要的作用,提高空間目標質(zhì)心提取速度可以為后續(xù)的捕獲跟蹤爭取時間。
對于空間目標的識別,傳統(tǒng)的方法采用了連通域算法來實現(xiàn)[16-20]。按連通域算法,當DSP處理圖像時,需要從外部SRAM中存取兩次圖像[21],共花費13.1ms。而對于捕獲模塊的跟蹤速度的要求為20幀/s,考慮到機構(gòu)跟蹤余量,讀取圖像方面已經(jīng)花費了32.75%的時間,這對后面的算法提出了很大的要求。為此,本文提出了一種基于行數(shù)據(jù)掃描的星空多目標快速提取算法,簡稱行數(shù)據(jù)掃描算法,通過閾值提取、行目標提取、星空目標識別和質(zhì)心坐標計算等四個步驟實現(xiàn)了星空目標快速提取,能夠在不損失定位精度的前提下,提高星空目標的星點提取速率。
圖像數(shù)據(jù)來源于相機,一般來說,圖像數(shù)據(jù)都是數(shù)據(jù)流的形式輸入的,也就是說接收的順序是按行來接收的,所以首先使用圖像中單獨的行數(shù)據(jù)進行圖像處理得到行目標,然后將得到的行目標進行處理,得到星空目標信息,這樣當接收完一行數(shù)據(jù)后就可以進行圖像處理,不需要存儲整幅圖像,大大的縮減了對像素的處理時間和對存儲器的要求?;谏鲜鏊枷?,提出了基于行數(shù)據(jù)掃描的星空多目標星點提取算法。
當使用相機獲取星空圖片時,圖像會存在一定的背景噪聲,這些噪聲的灰度值比星空目標的灰度值小,可以通過確定一個全局背景閾值()來消除噪聲的影響。根據(jù)相機的特點,相鄰幀之間噪聲幅值變化較小,本文采取了動態(tài)背景閾值,背景閾值是由前一幀圖像的像素平均值確定
式中為圖像的列坐標,為圖像的行坐標;p(,)為前一幀圖像在(,)處的像素值;,分別為圖像的總行數(shù)、總列數(shù)。
相機數(shù)據(jù)是按行傳輸?shù)?,在接收完一行?shù)據(jù)后,開始進行行目標提取,行目標是指單行中的目標。
對緩沖的行數(shù)據(jù)進行數(shù)據(jù)掃描,如果某像素的灰度大于,并且該像素左邊相鄰的像素值小于時,記錄該像素所在列的坐標為Lh;如果某像素的灰度小于,并且該像素左邊相鄰的像素值大于時,記錄該像素的左邊像素所在列的坐標為Rh,Lh與Rh成對出現(xiàn),寫作Lh-Rh。Lh-Rh對之間的數(shù)據(jù)定義為行目標,一行數(shù)據(jù)中可以有多個行目標;當一個行目標結(jié)束時,需要進行行目標判定:行目標含有的像素個數(shù)大于等于時,則認定為真正的行目標,否則,認為其是由噪聲引起的誤判斷。這里為行目標像素個數(shù)閾值,可以為固定值,例如2,但為了提高目標識別的魯棒性,可以根據(jù)識別結(jié)果判斷出圖像噪聲情況,從而進行動態(tài)調(diào)整,噪聲越大時也應(yīng)該越大,但對于同一幀圖像,應(yīng)相同。本文中由于采用了動態(tài)背景閾值,已經(jīng)對噪聲進行了抑制,并且本文處理的圖像背景為星空,其噪聲較小,所以采用了固定值2。
在發(fā)現(xiàn)行目標的同時,需要進一步提取行目標信息。在掃描過程中,當記錄Lh時,則認為已經(jīng)發(fā)現(xiàn)了行目標,利用式(2)對行目標進行乘累加計算,當記錄Rh時,則停止計算。本文中使用了帶閾值的質(zhì)心計算算法[6, 21-23]對目標進行質(zhì)心提取。
式中 F(x,y)為當前圖像的像素值;Ixh為行目標在x坐標方向的累加值;Iyh為行目標在y坐標方向的累加值;Ih為行目標的像素累加值。
通過行目標判定的所有行目標按圖1所示的格式進行存儲。
星空目標識別有三個步驟:星空目標判定、更新和識別。一行數(shù)據(jù)的行目標提取完成后,將該行得到的所有行目標進行星空目標判定。星空目標是指一幀圖像中的目標,星空目標的數(shù)據(jù)格式如圖2所示,星空目標的判定分為以下兩種情況:
1)當前幀圖像無星空目標時,該行的所有行目標均為新的星空目標。
2)當前幀圖像已有星空目標時,將該行得到的行目標,與已有星空目標進行星空目標判定,判斷過程(如圖3所示)為:某個行目標的Lh和Rh值與已有星空目標中的L和R值比較,如果Lh≤R且Rh≥L時,則該星空目標與該行目標是連通的,為同一個星空目標,否則為兩個獨立的星空目標,如果該行目標的Lh和Rh與所有星空目標數(shù)據(jù)中的L和R值都沒有匹配,則記錄該行目標為新星空目標。其中,L和R分別為星空目標的開始列坐標和終止列坐標。
圖2 星空目標的數(shù)據(jù)格式
圖3 星空目標判定時行目標與星空目標的位置關(guān)系
判定完成后,需要對星空目標的數(shù)據(jù)進行更新。如果行目標是新星空目標,則需要在星空目標隊列中建立新的星空目標數(shù)據(jù),如圖2所示,包括L,R,I,I,,其中I和I分別是星空目標在坐標和坐標方向的累加值,它們的初值分別是成為該新星空目標的行目標的Lh,Rh,Ih,Ih,h;如果行目標屬于某個星空目標,則對該星空目標數(shù)據(jù)進行更新,把該行目標對應(yīng)的Ih累加到該星空目標數(shù)據(jù)的I中,Ih累加到I中,h累加到中,并將該星空目標數(shù)據(jù)中的L和R更新為該行目標的Lh和Rh。
更新完成后,進行星空目標識別。如果某星空目標在星空目標判定后,仍然沒有被更新過,說明已經(jīng)成功地識別出了該星空目標,如圖4所示。此時,需要進一步判斷星空目標為真實目標還是背景噪聲,當星空目標的總像素個數(shù)大于時為真實目標,否則為背景噪聲。其中,為星空目標像素個數(shù)閾值,可以為定值,也可以根據(jù)目標最終識別效果進行動態(tài)調(diào)節(jié),本文中取4。
圖4 基于行數(shù)據(jù)掃描算法下識別星空目標的完整過程
圖4為一個星空目標的完整識別過程,由于Lh>R,所以由五個行目標構(gòu)成的星空目標1完成了識別,而星空目標2仍需要等待下一次行掃描。
當識別出星空目標后,利用式(3)對其進行質(zhì)心計算
式中0為星空目標的列坐標,0為星空目標的行坐標,(0,0)即為星空目標的質(zhì)心坐標。
當整幅圖像按行接收完成,使用行數(shù)據(jù)掃描算法掃描完最后一行行數(shù)據(jù)后,所有星空目標識別和質(zhì)心計算完成。
從上述步驟中可以看出,本文提出的行數(shù)據(jù)掃描算法可以實時地對行數(shù)據(jù)進行處理,并且當處理完行數(shù)據(jù)后不需要保存行數(shù)據(jù),而傳統(tǒng)目標識別算法需要獲得整幅圖像后才能開始掃描計算,所以本算法提升了處理速度并節(jié)省了存儲空間。
由于空間環(huán)境惡劣,軌道內(nèi)有大量空間高能粒子,宇宙線的劑量效應(yīng)和單粒子事件效應(yīng)嚴重,高軌總劑量可達109rad(Si),比低軌高出1~2個數(shù)量級,所以高軌衛(wèi)星對使用的芯片有一定的限制[24-25],根據(jù)航天標準對器件的要求,可以采用TI公司SMJ320C6000系列中的TMS320C6701和Xilinx公司的VertexⅡ系列的XC2V3000。
為了提高算法的運行效率,本文充分考慮了FPGA的并行處理、DSP計算速度快等優(yōu)點,對行數(shù)據(jù)掃描算法進行分割實現(xiàn):閾值提取和行目標提取運行在FPGA端,星空目標識別和質(zhì)心坐標計算運行在DSP端。
利用FPGA的并行性,在行目標提取的同時,對行目標數(shù)據(jù)進行乘累加計算。當FPGA完成一行行數(shù)據(jù)的行目標提取后,得到了組數(shù)據(jù)包(Lh,Rh,Ih,Ih,h),為單行行目標總數(shù)。由于對星空目標的處理需要進行除法運算,F(xiàn)PGA進行除法需要占用大量的資源,而且這些行目標的數(shù)據(jù)量小,所以FPGA將行目標傳輸給DSP,在DSP端完成星空目標識別和質(zhì)心坐標計算,最終得到星空目標質(zhì)心坐標。
對算法完成劃分后,系統(tǒng)整體設(shè)計框架如圖5所示。
圖5 系統(tǒng)實現(xiàn)框圖
如圖5中所示,系統(tǒng)使用FPGA和DSP一起完成了質(zhì)心提取算法,具體的實現(xiàn)模塊有:接收相機數(shù)據(jù)模塊、數(shù)據(jù)緩沖模塊、行目標提取、行目標傳輸模塊FPGA端、行目標傳輸模塊DSP端、星空目標識別和質(zhì)心坐標計算。
1)接收相機數(shù)據(jù)模塊:根據(jù)相機通訊協(xié)議,完成對相機數(shù)據(jù)的格式轉(zhuǎn)換和接收,如圖6所示。
圖6 接收相機數(shù)據(jù)模塊信號流程圖
根據(jù)相機的通訊協(xié)議,把相機數(shù)據(jù)接收模塊劃分為四個狀態(tài),根據(jù)所處的狀態(tài),進行不同的操作,當處于接收行數(shù)據(jù)狀態(tài)時,F(xiàn)PGA接收相機數(shù)據(jù)并存儲到數(shù)據(jù)緩沖模塊。
2)行目標提取:實現(xiàn)了相機行數(shù)據(jù)的處理,當數(shù)據(jù)緩沖模塊發(fā)送行結(jié)束信號后,該模塊開始通過讀取緩沖器A或者緩沖器B掃描行數(shù)據(jù),進行行目標提取,在發(fā)現(xiàn)疑似目標狀態(tài)和找到行目標狀態(tài)需要流水計算Ih,Ih和h的值,并且在行目標結(jié)束后,把行目標按圖1的格式存放到目標數(shù)據(jù)隊列中,整個流程如圖7所示。
圖7 行目標提取模塊的狀態(tài)流程圖
3)星空目標識別:DSP完成行目標的接收后,便開始星空目標識別,識別過程如圖8所示。如果出現(xiàn)新的星空目標,將其添加到管理星空目標的鏈表上;當星空目標完成識別后,將其從管理星空目標的鏈表上刪除。
圖8 星空目標識別模塊流程圖
圖8中,iFound和iFinding均為循環(huán)變量,分別用于遍歷星空目標和行目標,nFound表示已找到的星空目標總數(shù),nFinding表示本行找到的行目標總數(shù),O_old數(shù)組表示本行行目標是否與星空目標匹配,1表示已匹配,0表示未匹配。
從圖5的系統(tǒng)框圖中可以看出,系統(tǒng)的輸入來源于相機,但是由于試驗條件限制,無法通過相機獲得包含任意數(shù)量、在任意坐標位置的星空目標的輸入圖像。為了驗證系統(tǒng)的功能和性能,將系統(tǒng)中相機替換成目標模擬器。使用目標模擬器生成分辨率為1 280像素×1 024像素的待識別圖像,模擬出多個星空目標,生成的圖像通過LVDS高速數(shù)傳接口傳輸?shù)叫盘柼幚戆迳?,信號處理板上的XC2V3000的時鐘頻率為40MHz,TMS320C6701的運行頻率為120MHz。為了說明算法的星點提取速度和定位精度,分別在兩種情況下進行試驗:1)在星空目標大小固定為9像素×9像素時,添加均值為20、標準差分別為5,10,15,20的高斯噪聲;2)在添加的高斯噪聲均值為20、標準差為10時,星空目標大小分別為3像素×3像素,5像素×5像素,9像素×9像素,19像素×19像素。如圖9和圖10所示。
圖9 尺寸為9像素×9像素的星空目標圖像
圖10 含標準差為10的高斯噪聲的星空目標圖像
從圖9和圖10中可以看出在不同噪聲大小和不同目標尺寸的情況下,系統(tǒng)使用行數(shù)據(jù)掃描算法均識別出了各個星空目標,并計算出了它們的質(zhì)心坐標。當FPGA接收完一幀圖像時,F(xiàn)PGA和DSP只需要處理完最后一行行數(shù)據(jù)就可以完成星空目標識別和質(zhì)心提取操作了,所以處理時間非常短。下面表1和表2給出了詳細的計算結(jié)果和計算所使用的時間,并給出了在相同試驗環(huán)境下DSP使用連通域算法定位算法的試驗結(jié)果。
從表1中可以看出本系統(tǒng)當星空目標尺寸為9像素×9像素時,在均值為20、標準差為5~20的高斯噪聲下,定位精度均值為0.049像素,提取時間小于0.17ms,而連通域算法的定位精度均值為0.047像素,識別時間大于13.7ms。表2表明隨著星空目標尺寸增大,行數(shù)據(jù)掃描算法仍能準確地提取出星空目標,提取時間不變,且定位精度變高。
表1 尺寸9像素×9像素的目標(圖9)情況下的識別結(jié)果
Tab.1 Recognition results in the case of 9 pixels×9 pixels(Fig. 9)
表2 在標準差為10的高斯噪聲(圖10)情況下的識別結(jié)果
Tab.2 Recognition results in the case of standard deviation 10(Fig.10)
本文在不同噪聲、不同星空目標尺寸條件下,進行了對比試驗。試驗表明算法在接收完一幀圖像后,只需延時最后一行行數(shù)據(jù)的處理時間,即可完成處理,能夠快速完成星點提取。在提取精度方面,本算法在目標尺寸為9像素×9像素,不同噪聲條件下,質(zhì)心坐標精度均值為0.049像素。所以行數(shù)據(jù)掃描算法在不損失定位精度的前提下,提升了星空目標星點提取速率,具有很好的實時性和穩(wěn)定性,為后續(xù)的目標識別等圖像處理算法爭取了時間。下一步的研究重點是進一步優(yōu)化算法,改進閾值的提取方法。
[1] 周黎妮, 朱啟超, 舒宇. 基于能力分析的空間對抗裝備體系效能評估方法[J]. 世界科技研究與發(fā)展, 2013, 35(4): 491-494. ZHOU Lini, ZHU Qichao, SHU Yu. Effectiveness Evaluation Aporoach to Counterspace Weapon Systems-of-systems Based on Capability Analysis[J]. World Sci-Tech R & D, 2013, 35(4): 491-494. (in Chinese)
[2] 李云龍, 于小紅. 美軍“空海一體戰(zhàn)”空間作戰(zhàn)行動探析[J]. 裝備學院學報, 2013(4): 55-58. LI Yunlong, YU Xiaohong. Analysis on the US Space Operations in the “Airsea Battle” Concept[J]. Journal of Equipment Academy, 2013(4): 55-58. (in Chinese)
[3] 湯澤瀅, 趙永勝, 譚亞平. 天基光電成像偵察監(jiān)視系統(tǒng)對抗手段及發(fā)展趨勢探析[J]. 電子對抗, 2015(1): 5-8. TANG Zeying, ZHAO Yongsheng, TAN Yaping. Research on Countermeasures Against Space-based Potoelectric Imaging Surveillance Reconnaissance System and Development Trend[J]. Electronic Warfare, 2015(1): 5-8. (in Chinese)
[4] 蔣盤林. 從天基戰(zhàn)略偵察向天基戰(zhàn)術(shù)偵察的發(fā)展[J]. 航天電子對抗, 2014, 30(6): 17-20. JIANG Panlin. Space-based Intelligence Reconnaissance from Strategic Past to Tactical Future[J]. Aerospace Electronic Warfare, 2014, 30(6): 17-20. (in Chinese)
[5] 張鑒文, 胡彥峰, 李秉. 基于臨近空間平臺的電子對抗及其發(fā)展前景探析[J]. 電子對抗, 2015(2): 5-9. ZHANG Jianwen, HU Yanfeng, LI Bing. Analysis on the Electronic Countermeasure and Its Development Prospect Based on Near Space Platform[J]. Electronic Warfare, 2015(2): 5-9. (in Chinese)
[6] 蔡文娟, 王立強, 袁波. 自動導星星點檢測及跟蹤算法研究[J]. 紅外與激光工程, 2014, 43(8): 2684-2689. CAI Wenjuan, WANG Liqiang, YUAN Bo. Star Detection and Tracking Algorithm of Autoguiding[J]. Infrared and Laser Engineering, 2014, 43(8): 2684-2689. (in Chinese)
[7] 景文博, 王曉曼, 劉國偉, 等. 空域機動目標智能搜索跟蹤算法[J]. 紅外與激光工程, 2012, 41(4): 1083-1088. JING Wenbo, WANG Xiaoman, LIU Guowei, et al. Intelligent Search and Tracking Algorithm for Spatial Maneuvering Target[J]. Infrared and Laser Engineering, 2012, 41(4): 1083-1088. (in Chinese)
[8] 王衛(wèi)兵, 王挺峰, 郭勁. 星載光電捕獲跟蹤瞄準控制技術(shù)分析[J]. 中國光學, 2014, 7(6): 879-888. WANG Weibing, WANG Tingfeng, GUO Jin. Analysis for Opto-electrical Acquisition Tracking and Pointing Control Technology on Satellite[J]. Chinese Optics, 2014, 7(6): 879-888. (in Chinese)
[9] 馬東璽, 范大鵬, 朱華征. 光電跟蹤系統(tǒng)捕獲跟蹤切換的平滑調(diào)節(jié)方法[J]. 紅外與激光工程, 2010, 39(6): 1129-1133. MA Dongxi, FAN Dapeng, ZHU Huazheng. Smooth Adaptation for Transition of Acquisition and Tracking Switching of Electro-optical Tracking System[J]. Infrared and Laser Engineering, 2010, 39(6): 1129-1133. (in Chinese)
[10] 陳小林. 運動目標捕獲跟蹤方法研究[J]. 儀器儀表學報, 2014, 35 (z6): 49-53. CHEN Xiaolin. Research of Moving Object Tracking Method[J]. Journal of Instruments and Instruments, 2014, 35(z6): 49-53. (in Chinese)
[11] 劉鑫, 喬彥峰, 林兆華. 光電系統(tǒng)捕獲跟蹤控制方法研究與仿真[J]. 計算機仿真, 2012, 29(12): 266-269. LIU Xin, QIAO Yanfeng, LIN Zhaohua. Photoelectric Tracking Capture System Control Method Research and Simulation[J]. Computer Simulation, 2012, 29(12): 266-269. (in Chinese)
[12] 時君偉, 胡敏英, 任振輝. 基于機器視覺圖像的多目標提取識別[J]. 湖北農(nóng)業(yè)科學, 2012, 51(15): 3342-3344. SHI Junwei, HU Minying, REN Zhenhui. Recognition and Extraction of Multiple Targets Based on Machine Vision Image[J]. Hubei Agricultural Sciences, 2012, 51(15): 3342-3344. (in Chinese)
[13] 王洪濤, 羅長洲, 王渝, 等. 基于背景自適應(yīng)預測的星點提取算法[J]. 光學技術(shù), 2009, 35(3): 412-414. WANG Hongtao, LUO Changzhou, WANG Yu, et al. Algorithm for Star Extraction Based on Self-adaptive Background Prediction[J]. Optical Technique, 2009, 35(3): 412-414. (in Chinese)
[14] 呂漢峰, 張良, 王鼎杰, 等. 慣性信息輔助的星像點質(zhì)心提取方法[J]. 國防科技大學學報, 2015, 37(2): 161-165. LYU Hanfeng, ZHANG Liang, WANG Dingjie, et al. Star Spot Centrioding Method with Inertial Measurement Information[J]. Journal of National University of Defense Technology, 2015, 37(2): 161-165. (in Chinese)
[15] 高自謙, 王海涌, 高洪民, 等. 實現(xiàn)弱星提取及質(zhì)心定位的幀間窗口移位灰度疊加法[J]. 紅外與激光工程, 2017, 46(2): 238-244. GAO Ziqian, WANG Haiyong, GAO Hongmin, et al. Inter-frame Shifted Window Gray Superposition Method of Dim Star Image Extraction and Centroiding[J]. Infrared and Laser Engineering, 2017, 46(2): 238-244. (in Chinese)
[16] 魏新國, 張廣軍, 江潔. 星敏感器中星圖圖像的星體細分定位方法研究[J]. 北京航空航天大學學報, 2003, 29(9): 812-815. WEI Xinguo, ZHANG Guangjun, JIANG Jie. Subdivided Locating Method of Star Image for Star Sensor[J]. Journal of Beijing University of Aeronautics and Astronautics, 2003, 29(9): 812-815. (in Chinese)
[17] 金占雷. CCD光斑質(zhì)心算法的誤差分析[J]. 航天返回與遙感, 2011, 32(1): 38-44. JIN Zhanlei. Error Analysis of Centriod Algorithm Based on CCD[J]. Spacecraft Recovery & Remote Sensing, 2011, 32(1): 38-44. (in Chinese)
[18] 王靜. 二值圖像連通域的分段標記算法及實現(xiàn)[J]. 紅外與激光工程, 2010, 39(4): 761-765. WANG Jing. Segment Labeling Algorithm of Connecting Area in Binary Images and Its Realization[J]. Infrared and Laser Engineering, 2010, 39(4): 761-765. (in Chinese)
[19] 姜春霞, 王燦進, 陳娟. 雙模式太陽跟蹤器太陽質(zhì)心提取算法[J]. 中國激光, 2015, 42(2): 293-300. JIANG Chunxia, WANG Canjin, CHEN Juan. Sun Centroid Extraction Algorithm for Solar Tracker with Double Modes[J]. Chinese Journal of Lasers, 2015, 42(2): 293-300. (in Chinese)
[20] 王凱, 黃山, 趙瑜, 等. 面向圖像目標提取的改進連通域標記算法[J]. 計算機工程與設(shè)計, 2014(7): 2438-2441 WANG Kai, HUANG Shan, ZHAO Yu, et al. Improved Algorithm of Connected Component Labeling for Image Targets Extraction[J]. Computer Engineering and Design, 2014(7): 2438-2441. (in Chinese)
[21] 陶雨露, 鄧新蒲, 程洪瑋. 基于動態(tài)框搜索的星圖中星點獲取算法研究[J]. 航天電子對抗, 2012(5): 34-37. TAO Yulu, DENG Xinpu, CHENG Hongwei. Research on Star Acquisition Method Based on Dynamic Box[J]. Aerospace Electronic Warfare, 2012(5): 34-37. (in Chinese)
[22] 李學夔, 郝志航, 李杰, 等. 星敏感器的星點定位方法研究[J]. 電子器件, 2004, 27(4): 571-574. LI Xuekui, HAO Zhihang, LI Jie, et al. The Research on the Method of the Star’s Position Determination of the Star Sensor[J]. Chinese Journal of Electron Devices, 2004, 27(4): 571-574. (in Chinese)
[23] 蔡喆, 鄧年茂. 單星星圖細分定位算法的研究[J]. 計算機仿真, 2006, 23(3): 34-36. CAI Zhe, DENG Nianmao. Subdivided Locating Method of Single Star Image for Star Sensor[J]. Computer Simulation, 2006, 23(3): 34-36. (in Chinese)
[24] 詹銀虎, 鄭勇, 張超, 等. 超大視場太陽敏感器圖像質(zhì)心提取算法[J]. 測繪學報, 2015, 44(10): 1078-1084. ZHAN Yinhu, ZHENG Yong, ZHANG Chao, et al. Image Centriod Algorithms for Sun Sensors with Super Wide Field of View[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(10): 1078-1084. (in Chinese)
[25] 王祖軍, 羅通頂, 楊少華, 等. 電離輻照誘發(fā)面陣電荷耦合器暗信號增大試驗[J]. 中國空間科學技術(shù), 2014, 34(4): 72-78. WANG Zujun, LUO Tongding, YANG Shaohua, et al. Experiment of Ionizing Radiation Induced Array Charge Coupled Devices Signal Increse[J]. Chinese Space Science and Technology, 2014, 34(4): 72-78. (in Chinese)
Space Multi-target Star Extraction Algorithm Based on Line Data Scanning
LI Yinlong1,2HE Haiyan1ZHANG Feng1LI Jing1
(1 Beijing Institute of Space Mechanics & Electricity, Beijing 100094, China) (2 Beijing Key Laboratory of Advanced Optical Remote Sensing Technology, Beijing 100094, China)
It is insufficient for the traditional methods to extract the space targets and get its location in real time. Therefore, a fast space multi-target star extraction algorithm is proposed based on line data scanning in the paper, which can quickly extract the space target through four steps: threshold extraction, line target extraction, target recognition and centroid coordinates calculation. In order to run more effectively in the embedded device, this target acquisition algorithm is properly configured and divided into FPGA and DSP ends. Experimental results show that star extraction can be achieved in less than 0.17ms when the input image resolution is 1 280 pixels×1 024 pixels. Compared with the traditional methods, this algorithm can improve extraction rate without losing positioning precision, which renders the algorithm more applicable for multi-target centroid extraction of space multi-target
space multi-target; space target capture; star extraction; line data scanning; space remote sensing
TP753
A
1009-8518(2019)02-0079-10
10.3969/j.issn.1009-8518.2019.02.009
李寅龍,男,1986年生,2012年獲北京大學電子科學與技術(shù)碩士學位,工程師。研究領(lǐng)域為圖像處理、遙感器擺鏡伺服控制、視覺伺服控制、基于windows的實時快速原型機開發(fā)等。E-mail:liyinlong2006@126.com。
2018-04-01
(編輯:王麗霞)