王興梅,印桂生,門志國,葉秀芬
(1.哈爾濱工程大學計算機科學與技術學院,哈爾濱150001,wangxingmei@hrbeu.edu.cn; 2.哈爾濱工程大學自動化學院,哈爾濱150001)
水下目標的正確分類識別是建立在有效的特征提取基礎之上的,提取目標高亮區(qū)和陰影區(qū)的輪廓可以用到特征提取的過程中[1].基于水平集的輪廓提取方法充分考慮了拓撲性和各相之間的相互獨立性,能對不規(guī)則形狀(有空洞和重疊)的水下目標進行精確的輪廓提取[2-3].
本文在綜合分析現(xiàn)有文獻算法的基礎上,結合聲納圖像的特點,提出了一種基于水平集改進的水下目標輪廓提取方法.在輪廓提取的過程中,針對利用水平集方法對整幅聲納圖像處理,可能會將背景噪聲當成目標高亮區(qū)或陰影區(qū)進行了輪廓提取,同時,還存在運算時間過長的問題,提出利用水下目標檢測結果[4]在原始圖像上確定目標演化子區(qū)域,縮小目標區(qū)域范圍;為避免初始閉合曲線選取不當,可能不能同時提取目標高亮區(qū)和陰影區(qū)的輪廓,提出在目標檢測結果中,根據(jù)目標高亮區(qū)和陰影區(qū)的位置,確定各個目標演化子區(qū)域初始閉合曲線的中心坐標,最后通過Vese-Chan分段常量四相水平集方法的演化函數(shù)進行目標高亮區(qū)和陰影區(qū)的輪廓提取.
Vese-Chan分段常量四相水平集方法的能量泛函為[5-6]
其中,c為一個常數(shù)向量,且 c=(c11,c10,c01,c00),φ=(φ1,φ2),Ω為整個聲納圖像區(qū)域.
同理,對第2個水平集函數(shù)φn+12,i,j,設
提出的基于水平集改進的水下目標輪廓提取方法的具體說明如下:
1)設定初始值n=0,為了提高輪廓提取的精度和計算速度,利用水下目標檢測的結果[4]來確定目標演化子區(qū)域,并對各個目標演化子區(qū)域進行維納濾波;
隨著醫(yī)院科研管理的快速發(fā)展和環(huán)境的不斷轉變,科研經(jīng)費審計已越來越受到人們的重視。被賦予了組織內(nèi)部控制檢查、為風險管理與治理活動增加價值和改善運營情況的重任。漸漸成為輔助政策落地、規(guī)范單位運行、實現(xiàn)國家良治的機制保障;實施財務監(jiān)督、有效落實責任、規(guī)避項目風險、優(yōu)化資源配置的必要措施;順應社會輿情、消除破窗效應、宣傳貫徹國家政策、營造風清氣正的關鍵節(jié)點;搭建服務平臺、提供審計咨詢、深化科技發(fā)展的有效途徑。
目標演化子區(qū)域的確定是在水下目標檢測結果中[4],根據(jù)各個連續(xù)區(qū)域橫縱方向上的頂點坐標[8],得出F個互不重疊的窗口.然后分別映射到原始聲納圖像的相應位置,最終得到F個互不重疊的目標演化子區(qū)域.
2)在各個目標演化子區(qū)域內(nèi),根據(jù)初始閉合曲線,確定基于Vese-Chan分段常量四相水平集方法的初始水平集函數(shù)φ1(0,x,y)=φ1,0(x,y)和φ2(0,x,y)=φ2,0(x,y);
經(jīng)過大量的實驗發(fā)現(xiàn),聲納圖像初始閉合曲線位置不同,輪廓提取結果將不同.只有當初始閉合曲線分別取在目標高亮區(qū)和陰影區(qū)上時,最終才能提取到目標高亮區(qū)和陰影區(qū)的輪廓,取其他任何一種位置形式都可能不能同時得到最終目標高亮區(qū)和陰影區(qū)的輪廓,針對這個問題,提出一種初始閉合曲線的確定方法.具體方法為
①在水下目標檢測結果所得出的F個互不重疊的窗口中,根據(jù)各個窗口中連續(xù)區(qū)域橫縱方向上的頂點坐標,確定連續(xù)區(qū)域的中心坐標;
②保持中心坐標的橫坐標不變,縱坐標分別向左、右移動g個單位(g根據(jù)各個窗口連續(xù)區(qū)域寬度的一半作適當調整).即得到了各個目標演化子區(qū)域的初始閉合曲線圓心坐標.
③初始閉合曲線的半徑r根據(jù)各個窗口中連續(xù)區(qū)域寬度的一半作適當選擇.
3)更新Vese-Chan分段常量四相水平集方法的演化函數(shù)[9-10];
對于每個n>0,利用Vese-Chan分段常量四相水平集方法在各個目標演化子區(qū)域內(nèi)計算和水平集演化函數(shù)和
4)若迭代達到穩(wěn)定狀態(tài),則停止迭代;否則轉到步驟3)繼續(xù)迭代直到穩(wěn)定.
根據(jù)水下目標檢測的結果[4]給出了本文提出的輪廓提取方法的實驗結果及分析.針對目標形狀有空洞的原始聲納圖像進行的輪廓提取見圖1.
為了比較,給出了維納濾波后聲納圖像的初始閉合曲線和輪廓提取結果見圖1(e)和(f).
由于把整幅圖像變成了只包含各個目標的演化子區(qū)域,提高了輪廓提取的精度和計算速度,同時,由于初始閉合曲線取在了目標高亮區(qū)和陰影區(qū)上,能同時準確地提取到目標高亮區(qū)和陰影區(qū)的輪廓.
圖1 目標形狀有空洞的原始聲納圖像輪廓提取結果
第2組實驗是針對目標形狀有空洞和重疊的 原始聲納圖像進行的輪廓提取,如圖2所示.
圖2 目標形狀有空洞和重疊的原始聲納圖像輪廓提取結果
表1給出了各組實驗在主頻為2.40 GHz、內(nèi)存為2 GB的計算機上,利用Matlab7.0軟件運行程序,所得輪廓提取結果運算時間的比較.
表1 運算時間比較s
通過對不同的原始聲納圖像輪廓提取結果的比較可以看出,Vese-Chan分段常量四相水平集方法的輪廓提取雖然可以對不規(guī)則形狀的水下目標進行精確的輪廓提取,但是輪廓提取結果含有較多的非目標噪聲點輪廓,并且初始閉合曲線位置的選取沒有規(guī)律性,需要根據(jù)真實聲納圖像人為給值;本文所提出的輪廓提取方法提高了輪廓提取的精度和計算速度,同時能準確地提取到目標高亮區(qū)和陰影區(qū)的輪廓,有利于更高層次的聲納圖像分析和識別.
1)提出利用水下目標檢測結果確定目標演化子區(qū)域,縮小目標區(qū)域范圍.
2)提出在目標檢測結果中,根據(jù)目標高亮區(qū)和陰影區(qū)的位置,確定各個目標演化子區(qū)域初始閉合曲線的中心坐標.
3)通過對不同的原始聲納圖像輪廓提取結果分析,驗證了此方法在沒有考慮水下目標形狀規(guī)則程度的情況下,提高了輪廓提取的精度和計算速度,并且能準確地提取到目標高亮區(qū)和陰影區(qū)的輪廓,具有較好的適應性.
[1] 田曉東,劉忠,周德超.基于形狀描述直方圖的聲吶圖像目標識別算法系統(tǒng)[J].工程與電子技術,2009,29(7):1049-1052.
[2] LIANANTONAKIS M,PETILLOT Y R.Sidescan sonar segmentation using active contours and level set methods[C]//IEEE Oceans-Europe.Brest,F(xiàn)rance,2005:719-724.
[3] SANG Enfang,SHEN Zhengyan,F(xiàn)AN Chang,et al. Sonar image segmentation based on implicit active contours[C]//2009 IEEE International Conference on Intelligent Computing and Intelligent Systems.Shanghai,2009:228-231.
[4] 葉秀芬,王興梅,門志國,等.改進的MRF水下目標檢測方法研究[J].哈爾濱工業(yè)大學學報,2009,41 (7):682-685.
[5] LUMINITA A,CHAN T F.A multiphase level set framework for image segmentation using the mumford and shah model[J].International Journal of Computer Vision,2002,50(3):271-293.
[6] LI Canfei,WANG Yaonan,LIU Guocai.A new splitting active contour framework based on Chan-Vese piecewise smooth model[J].Acta Automatica Sinica,2008,34(6):659-664.
[7] BROX T,WEICKERT J.Level set segmentation with multiple regions[J].IEEE Transactions on Image Processing,2006,15(10):3213-3218.
[8] 鄭世友.動態(tài)場景圖像序列中運動目標檢測與跟蹤[D].南京:東南大學,2006.
[9] CAO Guo,MAO Zhihong,YANG Xin,et al.Optical aerial image partitioning using level sets based on modified Chan-Vese model[J].Pattern Recognition Letters,2008,29(4):457-464.
[10] MANSOURI,A R,KONRAD J.Multiple motion segmentation with level sets[J].IEEE Transactions on Image Processing,2003,12(2):201-220.