• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種快速擴(kuò)展視野超聲成像方法研究

      2010-09-18 03:30:10蘇立楠高上凱
      關(guān)鍵詞:體模視野像素

      蘇立楠 高上凱

      (清華大學(xué)醫(yī)學(xué)院生物醫(yī)學(xué)工程系,北京 100084)

      一種快速擴(kuò)展視野超聲成像方法研究

      蘇立楠 高上凱*

      (清華大學(xué)醫(yī)學(xué)院生物醫(yī)學(xué)工程系,北京 100084)

      傳統(tǒng)超聲檢查中由于探頭寬度或發(fā)射波束角度的限制,會(huì)導(dǎo)致成像視野受限,使醫(yī)生無(wú)法全面了解被成像部位組織的結(jié)構(gòu)特征,而擴(kuò)展視野成像方法可以很好的解決這一問(wèn)題。本研究改進(jìn)了現(xiàn)有的多模塊匹配技術(shù),以提高模塊匹配過(guò)程中的抗噪能力;利用變步長(zhǎng)搜索方法極大縮短了搜索過(guò)程;優(yōu)化了求解變換矩陣和圖像拼接過(guò)程,提出了一種更有效的權(quán)重系數(shù)評(píng)估方法,使算法更具魯棒性和實(shí)用性。為了驗(yàn)證算法的有效性,首先利用該算法對(duì)體模掃描圖像進(jìn)行拼接實(shí)驗(yàn)研究,證明該算法在擴(kuò)展視野成像上應(yīng)用的可行性以及良好的拼接精度;然后通過(guò)對(duì)肌腱和甲狀腺等組織超聲圖像的研究表明,該方法不僅具有良好的成像效果,而且運(yùn)算量較小,有可能實(shí)現(xiàn)實(shí)時(shí)成像。

      擴(kuò)展視野超聲成像;圖像配準(zhǔn);圖像拼接;塊匹配算法

      引言

      超聲成像具有實(shí)時(shí)、無(wú)創(chuàng)等優(yōu)點(diǎn),被廣泛的應(yīng)用于各類(lèi)臨床檢查當(dāng)中。但是常規(guī)超聲在對(duì)肝臟,甲狀腺,肌腱等器官成像時(shí)往往受到探頭寬度和波束角度限制,導(dǎo)致圖像視野局限于較小范圍內(nèi)。為了擴(kuò)展掃描區(qū)域,醫(yī)生需要反復(fù)移動(dòng)探頭,但是局部成像仍然不能直接反映出器官的整體結(jié)構(gòu),目前已經(jīng)成功開(kāi)發(fā)的擴(kuò)展視野成像技術(shù)可以很好地彌補(bǔ)這個(gè)缺陷。

      擴(kuò)展視野成像也被稱(chēng)為寬視野成像或者全景成像,類(lèi)似技術(shù)已經(jīng)在照片處理、虛擬現(xiàn)實(shí)[1]、衛(wèi)星圖像合成[2]等方面有很多應(yīng)用,但超聲圖像由于其分辨率低、噪聲大且要求實(shí)時(shí)成像等特點(diǎn),使得超聲擴(kuò)展視野成像方法與前面提到的技術(shù)有所區(qū)別。

      擴(kuò)展視野成像從實(shí)現(xiàn)技術(shù)上看可以分為兩類(lèi),第一類(lèi)是通過(guò)安裝在探頭上的位置傳感器對(duì)探頭進(jìn)行空間定位[3],再利用定位信息對(duì)圖像進(jìn)行拼接,但是這樣的系統(tǒng)成本較高,而且有些傳感器容易受到外界干擾,造成定位不準(zhǔn)[4];第二類(lèi)是利用超聲圖像序列間的相似性,基于圖像內(nèi)部特征進(jìn)行匹配,實(shí)現(xiàn)擴(kuò)展視野成像[4-6]。

      目前比較成熟的擴(kuò)展視野成像方法是基于多模塊匹配技術(shù)的[4-6]。此項(xiàng)技術(shù)是在一幀圖像中的不同位置選擇多個(gè)模塊進(jìn)行搜索匹配,由此計(jì)算得到整體圖像移動(dòng)的結(jié)果,采用該方法得到的匹配結(jié)果具有較好的穩(wěn)定性,但是搜索過(guò)程計(jì)算量較大,實(shí)時(shí)計(jì)算負(fù)擔(dān)較重。此外,上述方法對(duì)模塊匹配誤差的評(píng)估方法較為單一,容易造成結(jié)果的失真。本研究在借鑒參考文獻(xiàn)[4]的基礎(chǔ)上,改進(jìn)了現(xiàn)有的匹配方法和權(quán)重評(píng)價(jià)規(guī)則,提高了計(jì)算結(jié)果的準(zhǔn)確性;同時(shí)本研究還通過(guò)加速匹配和求解過(guò)程的方法,有效的縮短了計(jì)算時(shí)間。本研究重點(diǎn)研究處理方法,所展示的是基于已經(jīng)獲得的超聲序列圖像,利用Matlab程序進(jìn)行離線分析處理的結(jié)果。經(jīng)過(guò)初步驗(yàn)證,本研究提出的方法在計(jì)算精度上可以滿(mǎn)足要求,并且有望進(jìn)行實(shí)時(shí)計(jì)算。

      1 擴(kuò)展視野超聲成像原理及方法

      1.1 數(shù)學(xué)模型

      當(dāng)超聲探頭在探查目標(biāo)上緩慢移動(dòng)時(shí),將獲得序列超聲圖像。定義這些圖像的坐標(biāo)原點(diǎn)都在圖像的左上角,橫軸為 x,縱軸為y。因?yàn)橄噜弮蓭g的相對(duì)位移實(shí)際很小,有大量重合區(qū)域,因此可以假設(shè)序列圖像全部處于同一平面內(nèi),而且連續(xù)兩幀圖像的重合區(qū)域之間只存在剛性變換,即只有平移和旋轉(zhuǎn)。于是,連續(xù)兩幀圖像坐標(biāo)系之間的變換關(guān)系可以用數(shù)學(xué)方程表達(dá)[7],即

      式中,(xA,yA)和(xB,yB)分別表示某一特定像素點(diǎn)在圖像A和圖像B下所對(duì)應(yīng)的坐標(biāo)。θ表示兩幅圖像之間的旋轉(zhuǎn)角度,順時(shí)針?lè)较驗(yàn)檎?,逆時(shí)針為負(fù);(xt,yt)表示圖像 B相對(duì)于圖像 A的平移量。本研究的擴(kuò)展視野成像方法的基本數(shù)學(xué)模型就是求解方程(1)中的旋轉(zhuǎn)角度 θ和平移量(xt,yt),進(jìn)而利用變換方程完成圖像拼接工作。實(shí)際上,假定圖像B中某個(gè)點(diǎn)(xB,yB)在圖像A中對(duì)應(yīng)的坐標(biāo)為 (xA,yA),這樣的對(duì)應(yīng)點(diǎn)對(duì)必然滿(mǎn)足方程(1),如果得到若干組這樣的點(diǎn)對(duì),就可以求解出變換矩陣。

      1.2 基本數(shù)據(jù)處理流程

      數(shù)據(jù)獲取和處理流程如圖1所示。由于本研究的算法是基于已經(jīng)采集的序列圖像進(jìn)行的,因此準(zhǔn)備拼接的序列圖像被集中存放,拼接時(shí)再逐幀讀出進(jìn)行處理。具體拼接過(guò)程如下:

      (1)圖像預(yù)處理:由于獲取的超聲圖像不一定能滿(mǎn)足擴(kuò)展視野要求,本研究首先對(duì)讀取的圖像進(jìn)行預(yù)處理,將圖像中有效部分裁剪為矩形,并且針對(duì)圖像質(zhì)量的評(píng)估進(jìn)行篩選,如果當(dāng)前幀圖像相對(duì)前一幀圖像產(chǎn)生突變(例如圖像突然變黑等),則將當(dāng)前幀放棄。

      (2)模塊匹配:在當(dāng)前幀圖像中選擇合適大小和數(shù)量的模塊。匹配過(guò)程是將所有模塊在前一幀圖像中對(duì)應(yīng)區(qū)域內(nèi)進(jìn)行搜索,而且假設(shè)在搜索區(qū)域內(nèi)模塊只存在平移運(yùn)動(dòng),在找到相似度最大的位置后,將模塊中心的位移視為當(dāng)前幀圖像的局部位移。

      (3)變換方程求解:對(duì)當(dāng)前幀圖像所有模塊匹配結(jié)果進(jìn)行分析,并給每個(gè)模塊賦予相應(yīng)的權(quán)重,剔除明顯匹配錯(cuò)誤的結(jié)果。利用當(dāng)前幀圖像中所有局部位移及各個(gè)向量的權(quán)重?cái)M合出該圖像相對(duì)于前一幀圖像的變換方程,即求解出方程(1)中的旋轉(zhuǎn)角度θ和平移量(xt,yt)。

      (4)圖像拼接:如果認(rèn)為當(dāng)前幀適合拼接,則利用方程(1)將當(dāng)前幀拼接到目標(biāo)圖像上,并且將結(jié)果顯示、存儲(chǔ),返回圖像存儲(chǔ)區(qū)重復(fù)執(zhí)行上述過(guò)程;如果認(rèn)為不適合拼接,則直接返回存儲(chǔ)區(qū)重復(fù)上述過(guò)程。

      圖1 數(shù)據(jù)處理流程圖Fig.1 Diagram of data processing

      1.3 算法實(shí)現(xiàn)

      從上述流程可以看出,多模塊匹配方法的主要計(jì)算包括模塊匹配(Block-matching)、求解變換矩陣和拼接圖像三個(gè)過(guò)程,本研究的主要研究目的在于在保證擴(kuò)展視野成像質(zhì)量的前提下,盡可能減少上述過(guò)程的計(jì)算時(shí)間。

      模塊匹配結(jié)果的準(zhǔn)確性是決定最終結(jié)果的重要因素,所以需要選擇合適大小和數(shù)量的模塊,模塊過(guò)大會(huì)造成計(jì)算量增大,過(guò)小則會(huì)導(dǎo)致包含信息量不足,匹配誤差增大[4]。根據(jù)文獻(xiàn)[4]給出的經(jīng)驗(yàn)值和實(shí)驗(yàn)研究,模塊大小一般選擇為32像素×32像素,考慮到匹配誤差等因素,模塊數(shù)量通常選擇在10~20塊之間,如圖2(a)所示。模塊位置選擇在圖像的中上部,目的是在模塊中包含較多的信息,減小匹配誤差。

      圖2 模塊選取與匹配示意。(a)模塊選取;(b)模塊匹配Fig.2 Block selections and block-matching.(a)block selections in ultrasound image;(b)block-matching

      模塊匹配方法的基本原理是在搜索區(qū)域內(nèi)找到與模塊相似度最高的位置,相似度可以有很多種定義,例如利用明氏(Minkowski)測(cè)度距離,相關(guān)系數(shù)等[9]。明氏測(cè)度距離定義方法較為直接,特別是一階明氏測(cè)度距離,即圖像間灰度差絕對(duì)值之和(Sum of Absolute Differences,SAD)[6]計(jì)算最為簡(jiǎn)單。如圖2(b)所示,以第N+1幀圖像中模塊中心點(diǎn)在第N幀圖像中的位置為原點(diǎn)建立搜索區(qū)域坐標(biāo)系(p,q),在第N幀圖像中移動(dòng)模塊向四周進(jìn)行搜索,則搜索區(qū)域可以是一個(gè)矩形。SAD算法計(jì)算公式為:

      公式中參數(shù)與SAD算法定義相同,匹配條件可以描述為:當(dāng) R(p,q)≤R(p0,q0)時(shí),認(rèn)為(p0,q0)為與模塊最為匹配區(qū)域的中心,即模塊中心位移。在下文討論中,R(p,q)被稱(chēng)為匹配值或NPROD匹配值。

      可以看出,歸一化積相關(guān)方法比SAD方法的計(jì)算量略大,為了具體比較兩種方法的差異,利用Lena圖像進(jìn)行仿真研究。Lena圖像為512像素×512像素灰度圖像,取左505列加入白噪作為第N幀圖像(圖3(a)),取右505列加入白噪作為第N+1幀圖像(圖3(b)、圖3(c)),相當(dāng)于相鄰兩幀圖像水平位移7個(gè)像素。利用PC平臺(tái)(CPU:Intel core E6300雙核1.86GHz,2G內(nèi)存,Matlab 7.5。下文中如沒(méi)有特別說(shuō)明,所有數(shù)據(jù)均是在此PC平臺(tái)下計(jì)算獲得。)研究比較兩種方法的計(jì)算時(shí)間和計(jì)算準(zhǔn)確度。

      圖3(b)為采用SAD方法得到的結(jié)果,在左上區(qū)域匹配出現(xiàn)較大誤差;圖3(c)為采用NPROD方法得到的結(jié)果,可以看出NPROD方法穩(wěn)定性好于SAD方法。另外SAD法一次匹配平均耗時(shí)為37 ms,而NPROD方法一次匹配平均耗時(shí)為44 ms,說(shuō)明在目前PC平臺(tái)下,兩種方法耗時(shí)基本在同一水平上,而 NPROD方法在低信噪比圖像中效果更好[9],故采用NPROD算法是更合適的。

      圖3 SAD方法與NPROD方法匹配結(jié)果對(duì)比。(a)第N幀圖像;(b)第N+1幀圖像采用SAD方法模塊匹配結(jié)果,(c)NPROD方法匹配結(jié)果Fig.3 Comparison of the block-matching results with SAD method and NPROD method.(a)image of frame N;(b)block-matching results with SAD method;(c)block-matching results with NPROD method

      模塊匹配最為直接的方法就是將整個(gè)搜索區(qū)域進(jìn)行遍歷搜索(Full Search Algorithm,F(xiàn)SA)[10],可以看出,搜索區(qū)域大小直接影響匹配過(guò)程的計(jì)算時(shí)間。如圖2(b)所示,為了確保搜索的準(zhǔn)確性,通常橫向搜索區(qū)域?yàn)椋?6~16,縱向搜索區(qū)域?yàn)?-16~16,進(jìn)行遍歷搜索時(shí)匹配次數(shù)將達(dá)到1 089次。觀察超聲圖像序列匹配結(jié)果發(fā)現(xiàn),遍歷搜索實(shí)際上是按照步長(zhǎng)為1的方式進(jìn)行搜索,效率較低,而且每?jī)刹街g存在大量重復(fù)計(jì)算,因此可以采用變步長(zhǎng)方式進(jìn)行加速搜索。變步長(zhǎng)搜索方法有很多,例如三步搜索 法 (three step search,TSS)[10]、交叉 搜 索 法(cross search algorithm, CSA)[11]、菱 形 搜 索 法(diamond search,DS)[12]等,目的都是在基本不影響匹配準(zhǔn)確性的前提下,盡量加快匹配過(guò)程。比較多種變步長(zhǎng)搜索方法,發(fā)現(xiàn)三步搜索法穩(wěn)定性較高,計(jì)算量適中。三步匹配法具體實(shí)施過(guò)程如圖4所示。假設(shè)從原點(diǎn)開(kāi)始各個(gè)方向上最大搜索距離為d(圖4中 d=8),第一步以原點(diǎn)為中心點(diǎn),對(duì)中心點(diǎn)和距離中心點(diǎn)橫向/縱向距離為 d/2的9個(gè)位置進(jìn)行搜索,如圖4(a),找到匹配值最大點(diǎn);第二步以匹配值最大點(diǎn)為中心,將搜索范圍縮短為d/4,搜索新的9個(gè)位置中匹配值最大點(diǎn),如圖4(b);直到搜索范圍減到1,完成整個(gè)搜索過(guò)程,如圖 4(c)。從上述搜索過(guò)程可以看出,對(duì)該區(qū)域進(jìn)行遍歷搜索,匹配計(jì)算次數(shù)將達(dá)到(2d+1)2次,而三步搜索法匹配計(jì)算次數(shù)僅為1+8log2d次,計(jì)算量明顯減少了。而且通過(guò)實(shí)驗(yàn)驗(yàn)證,三步搜索法匹配較為準(zhǔn)確,基本可以替代遍歷搜索方法。

      圖4 三步搜索法搜索過(guò)程,搜索范圍d=8。(a)第一步搜索,搜索步長(zhǎng)為4;(b)第二步搜索,搜索步長(zhǎng)為2;(c)第三步搜索,搜索步長(zhǎng)為1Fig.4 Procedure of three step search,Search area,d=8,(a)the first step,the search distance is four;(b)the second step,the search distance is two;(c)the third step,the search distance is one

      由于噪聲等因素,匹配搜索很可能存在誤差,為此需要對(duì)每個(gè)向量賦予一定的權(quán)重,如果認(rèn)為模塊匹配準(zhǔn)確度較高,則賦予較高權(quán)重;反之給予較低權(quán)重或者直接剔除[5-6]。每個(gè)模塊賦予權(quán)重的大小應(yīng)該從多方面進(jìn)行分析,不僅要考察該模塊的匹配過(guò)程可信度,還要參考所有模塊整體匹配結(jié)果。

      在搜索區(qū)域中,如果在最佳匹配位置上的匹配值明顯大于其他位置,則可以認(rèn)為搜索過(guò)程可信度較高,應(yīng)該對(duì)匹配結(jié)果賦予較高權(quán)重;反之,如果匹配值在最佳位置和其他位置差別不大,則認(rèn)為匹配過(guò)程可信度較低,賦予較小權(quán)重。如圖5(a)和5(b)所示,取相鄰兩幀肌腱部位超聲圖像,記為第N幀和第N+1幀,采用NPROD法將模塊在搜索區(qū)域進(jìn)行遍歷搜索,將匹配結(jié)果與搜索位置對(duì)應(yīng)畫(huà)圖如圖5(c)。若匹配值中最大為 max(R),最小為 min(R),所有結(jié)果平均值為mean(R),則可以定義該模塊在搜索區(qū)域搜索結(jié)果的可信度w1為

      變步長(zhǎng)匹配方法相當(dāng)于對(duì)遍歷搜索匹配結(jié)果進(jìn)行了抽樣,可以采用同樣的方式進(jìn)行權(quán)重計(jì)算。

      圖5 模塊遍歷搜索結(jié)果示意。(a)第N+1幀圖像及某個(gè)模塊;(b)第N幀圖像及該模塊的搜索區(qū)域;(c)模塊在搜索區(qū)域各個(gè)位置匹配結(jié)果Fig.5 Block-matching result with FullSearch Algorithm(a)one block in the image of frame N+1;(b)the block-matching area in the image of frame N;(c)block-matching results in the whole area

      權(quán)重w1只能給出某個(gè)模塊在匹配過(guò)程中的可信程度,但是對(duì)所有模塊構(gòu)成的整體運(yùn)動(dòng)情況考慮不足。實(shí)驗(yàn)觀察發(fā)現(xiàn),在超聲設(shè)備幀頻足夠高,探頭運(yùn)動(dòng)較為平緩的情況下,同一行的模塊位移基本相同。假設(shè)某一行幾個(gè)模塊位移向量大小的均值為ˉM,標(biāo)準(zhǔn)差為S,當(dāng)S較大時(shí),說(shuō)明該行各模塊間位移差別較大,如果該行上某個(gè)模塊位移量大小M在之外,則被認(rèn)為位移向量偏差較大,賦予較低權(quán)重,反之賦予較高權(quán)重。為了方便計(jì)算,對(duì)權(quán)重賦值采用二值化方法,即模塊位移大小在之外權(quán)重賦值為0,其他權(quán)重為1,則該模塊的位移可信度定義為w2為

      同時(shí)考慮該模塊的兩次權(quán)重,最終權(quán)重定義為

      將多個(gè)模塊匹配得到的對(duì)應(yīng)點(diǎn)對(duì)和權(quán)重代入變換方程(1)中,可以利用加權(quán)最小二乘法求解出變換矩陣。方程(1)屬于非線性方程,需要進(jìn)行迭代求解,迭代次數(shù)也是影響整個(gè)算法計(jì)算速度的重要因素。首先對(duì)所有模塊匹配結(jié)果進(jìn)行分析,可以判斷大致的運(yùn)動(dòng)過(guò)程。當(dāng)判斷兩幀為平移運(yùn)動(dòng)時(shí),可以認(rèn)為θ=0°,則式(1)轉(zhuǎn)換為式(7),式(7)為線性方程,求解過(guò)程計(jì)算量大為減少。當(dāng)判斷兩幀之間存在旋轉(zhuǎn)運(yùn)動(dòng)時(shí),則仍然進(jìn)行迭代求解。這種初步判斷可以在基本不影響結(jié)果的前提下,加快方程求解速度。

      根據(jù)方程(1)得到第N+1幀到第N幀的坐標(biāo)變換方程,再由遞推關(guān)系可以確定所有圖像之間的變換方程。當(dāng)變換方程確定后,開(kāi)始進(jìn)行圖像拼接。如前文所述,相鄰兩幀圖像間通常具有很大的相似性,如果每幀圖像都進(jìn)行拼接,會(huì)嚴(yán)重耗費(fèi)時(shí)間,所以需要設(shè)定拼接閾值,即當(dāng)兩幀之間相對(duì)位移大于一定長(zhǎng)度時(shí),開(kāi)始進(jìn)行拼接,否則丟棄當(dāng)前幀圖像。拼接閾值設(shè)定要適當(dāng),不宜過(guò)大,否則會(huì)導(dǎo)致一次拼接工作量過(guò)大,嚴(yán)重影響拼接速度,而且可能出現(xiàn)圖像裂縫。另外,還需要選擇合適的拼接方法,圖像增長(zhǎng)(image growing)[13]是一種耗費(fèi)時(shí)間較少的方法,同時(shí)為了保證圖像之間的“無(wú)縫連接”,需要利用雙線型插值和加權(quán)拼接[3,13]。

      2 擴(kuò)展視野成像實(shí)驗(yàn)設(shè)計(jì)

      為了研究拼接結(jié)果的準(zhǔn)確性,首先對(duì)體模圖像進(jìn)行擴(kuò)展視野成像。如圖6(a)所示,體模中有若干固定間隔的靶線組,獲得的超聲序列圖像如圖6(b)所示,可以從該圖像中看到明顯的縱向靶線。利用該圖像中縱向靶線可以確定1cm距離在圖像中對(duì)應(yīng)的像素距離,再根據(jù)這個(gè)距離衡量拼接后圖像中各組靶線的間距判斷拼接誤差。最后利用該方法對(duì)甲狀腺和肌腱圖像進(jìn)行擴(kuò)展視野成像。

      實(shí)驗(yàn)數(shù)據(jù)由汕頭市超聲儀器研究所有限公司提供。機(jī)器型號(hào):CTS-8800,線陣探頭L7L38G,中心頻率7.5 MHz。體模(如圖6(a))圖像247幀,預(yù)處理后圖像為248像素×472像素(圖6(b));體模中含有間隔為1 cm的縱向排列靶線,間隔為1、2、3、4、20 mm的橫向排列靶線;肌腱掃描圖像150幀,幀頻為25幀/s,處理后圖像尺寸為545像素 ×477像素;甲狀腺掃描圖像120幀,幀頻為25幀/s,處理后圖像尺寸為362像素×472像素。實(shí)驗(yàn)采用Matlab 7.5進(jìn)行離線分析處理。

      圖6 體模擴(kuò)展視野成像。(a)體模結(jié)構(gòu)示意;(b)含有縱向靶線超聲圖像;(c)擴(kuò)展視野成像結(jié)果Fig.6 EFOV experiment on phantom.(a)phantom with marker lines;(b)phantom image with vertical marker lines; (c) compounded image with EFOV algorithm

      3 實(shí)驗(yàn)結(jié)果

      3.1 體模擴(kuò)展視野成像

      找到圖6(b)中較為清晰的6根靶線,計(jì)算相鄰兩根之間距離,得到1 cm對(duì)應(yīng)長(zhǎng)度為68個(gè)像素,測(cè)量拼接后圖像(圖6(c))中橫向靶線間距如表1所示,從表中可以看出,水平方向上形變較小,保證了擴(kuò)展視野成像的準(zhǔn)確性[14-15]。

      表1 體模擴(kuò)展視野成像結(jié)果中橫向靶線間距及誤差Tab.1 Distance and error of horizontal marker lines in phantom EFOV image

      3.2 肌腱和甲狀腺的擴(kuò)展視野成像

      分別對(duì)肌腱和甲狀腺圖像進(jìn)行擴(kuò)展視野成像的結(jié)果如圖7所示,圖像特征與人體組織結(jié)構(gòu)相符,圖形畸變小,圖像紋理清晰。

      圖7 肌腱與甲狀腺擴(kuò)展視野成像結(jié)果。(a)肌腱部位擴(kuò)展視野成像;(b)甲狀腺擴(kuò)展視野成像Fig.7 EFOV images of tendon and thyroid.(a)EFOV image of tendon;(b)EFOV image of thyroid

      3.3 計(jì)算時(shí)間統(tǒng)計(jì)

      表2列出了利用本方法對(duì)體模,肌腱和甲狀腺圖像進(jìn)行擴(kuò)展視野成像過(guò)程的計(jì)算時(shí)間??梢钥吹?,在圖像大小合適情況下,拼接兩幀圖像時(shí)間基本上在500 ms以?xún)?nèi)。如果將該算法移植到執(zhí)行效率更高的軟件平臺(tái),完全有實(shí)現(xiàn)實(shí)時(shí)成像的可能。

      表2 擴(kuò)展視野成像過(guò)程耗時(shí)統(tǒng)計(jì)Tab.2 EFOV algorithm time cost of each step

      4 討論和結(jié)論

      本研究所述方法都是在假設(shè)B超圖像序列之間為剛性變換的前提下進(jìn)行的,即忽略由于探頭擠壓、組織內(nèi)部運(yùn)動(dòng)等原因?qū)е碌膱D像形變。剛性假設(shè)的優(yōu)勢(shì)在于匹配過(guò)程簡(jiǎn)單,而且對(duì)于大多數(shù)圖像的擴(kuò)展拼接具有相當(dāng)高的準(zhǔn)確性,但是如果組織形變較大,則必然造成匹配的不準(zhǔn)確。仿射變換[8]可能是解決問(wèn)題的手段之一。但是實(shí)驗(yàn)中發(fā)現(xiàn),仿射變換很難準(zhǔn)確地找到兩幀圖像之間的關(guān)鍵匹配位置,匹配位置誤差會(huì)直接導(dǎo)致拼接過(guò)程中誤差累計(jì),拼接后圖像會(huì)產(chǎn)生明顯不符合組織結(jié)構(gòu)的畸變。

      可以看到,利用所述方法進(jìn)行擴(kuò)展視野成像,圖像配準(zhǔn)過(guò)程具有較高的穩(wěn)定性和魯棒性,體模和組織成像實(shí)驗(yàn)表明拼接結(jié)果較為準(zhǔn)確,圖像畸變小,圖像過(guò)度平滑,紋理特征明顯,具有一定的應(yīng)用價(jià)值。而且從處理過(guò)程消耗的時(shí)間可以看出,該方法已經(jīng)具備了較好的實(shí)時(shí)處理能力,完全可以在C++等平臺(tái)下實(shí)現(xiàn)實(shí)時(shí)成像功能。

      (致謝:感謝汕頭市超聲儀器研究所有限公司為本研究提供研究數(shù)據(jù))

      [1] 趙向陽(yáng),杜利民.一種全自動(dòng)穩(wěn)健的圖像拼接融合算法[J].中國(guó)圖像圖形學(xué)報(bào),2004,9(4):417-422.

      [2] 孔延梅.用于微型衛(wèi)星的空間遙感全景成像系統(tǒng)[J].光機(jī)電信息,2009,26(4):18-23.

      [3] Prager RW,Gee A,Berman L.Stradx:real-time acquisition and visualization of freehand three-dimensional ultrasound[J].Medical Image Analysis,1999,3(2):129-140.

      [4] Weng Lee,Tirumalai AP,Lowery CM,et al.US Extended-Field-of-View imaging technology[J].Radiology,1997,203(3):877-880.

      [5] Weng Lee,Tirumalai AP.Method and apparatus for generating large compound ultrasound image[P].United States Patent:5575286,1996-09-19.

      [6] 邵斌,唐娉,曾慶業(yè),等.基于PC的實(shí)時(shí)超聲全景成像系統(tǒng)中的圖像配準(zhǔn)[J].計(jì)算機(jī)工程與應(yīng)用,2007,43(28):206-209.

      [7] Hearn D,Baker MP,著,蔡士杰,吳春镕,孫正興,等譯.計(jì)算機(jī)圖形學(xué)[M].(第二版)北京:電子工業(yè)出版社,2002.162-163.

      [8] 江和平.紅外序列圖像匹配跟蹤技術(shù)研究[D].長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué).2006.

      [9] 劉寶生,閆莉萍,周東華.幾種經(jīng)典相似性度量的比較研究[J].計(jì)算機(jī)應(yīng)用研究,2006,11:1-3.

      [10] Ghanbari M.The Cross-search algorithm for motion estimation[J].IEEE Transactions on Communications,1990,38(7):950-953.

      [11] Jing Xuan,Chau LP.An efficient three-step search algorithm for block motion estimation[J].IEEE Transactions on Multimedia,2004,6(3):435-438.

      [12] Zhu Shan,Ma Kai-Kuang.A new diamond search algorithm for fast block-matching motion estimation [J].IEEE Transactions on Image Processing,2000,9(2):287-290.

      [13] 李義兵,余大昆,林家瑞,等.實(shí)時(shí)全景超聲成像技術(shù).[J].醫(yī)療設(shè)備信息,2005,20(10):39-40.

      [14] Kim SH,Choi BI,Kim KW,et al.Extended field-of-view sonography:advantages in abdominal applications. [J]. J Ultrasound Med,2003,22:385-394.

      [15] Fornage BD,Atkinson EN,Nock LF,et al.US with extended field of view: phantom-tested accuracy of distance measurements.[J].Radiology,2000,214:579-584.

      Study on a Fast Extend Field of View Sonography

      SU Li-Nan GAO Shang-Kai*
      (Department of Biomedical Engineering,School of Medicine,Tsinghua University,Beijing 100084,China)

      In the conventional ultrasound imaging system,image field of view is limited by probe width or probe scanning angle,which precludes doctors from getting full information about the observed region.The extend field-of-view(EFOV)techniques could solve the problem effectively.This research focused on developing a new method for block-matching to reduce the noise and decrease the time of computation.Moreover,the studies on solving the transform equation,images compounding and estimate blocks’weight were also presented in this paper.The feasibility of the algorithm was proved by the ultrasound images on phantom with the marker lines.The quantitative results showed the satisfactory accuracy.In addition,the EFOV experiment on thyroid and tendon ultrasound images showed that the algorithm could be applied for real-time EFOV imaging.

      extended field-of-view(EFOV)sonography;image registration;image compound;block-matching algorithm

      R318.08

      A

      0258-8021(2010)03-0373-06

      10.3969/j.issn.0258-8021.2010.03.009

      2009-11-20,

      2010-01-22

      *通訊作者。 E-mail:gsk-dea@tsinghua.edu.cn

      猜你喜歡
      體模視野像素
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      ICRP 145號(hào)出版物《成人網(wǎng)格型參考計(jì)算體?!穬?nèi)容摘要
      居· 視野
      中華民居(2020年3期)2020-07-24 01:48:04
      “像素”仙人掌
      ACR體模與Magphan SMR 170體模MRI性能測(cè)試對(duì)比研究*
      奧德熱塑體模聯(lián)合真空墊固定技術(shù)提高鼻咽癌放療擺位精度的分析
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      兩種全身骨密度儀試驗(yàn)體模的比較研究
      視野
      科學(xué)家(2015年2期)2015-04-09 02:46:46
      平凉市| 宁蒗| 沅陵县| 大化| 西乌珠穆沁旗| 鱼台县| 桂阳县| 大新县| 雷波县| 治县。| 旺苍县| 都江堰市| 班戈县| 越西县| 广东省| 高要市| 桐梓县| 富宁县| 治县。| 青河县| 开江县| 恩平市| 南昌县| 尚义县| 祥云县| 屯昌县| 宜黄县| 汽车| 筠连县| 安溪县| 邢台市| 马山县| 阿巴嘎旗| 藁城市| 江安县| 通辽市| 洛浦县| 沛县| 巫溪县| 安庆市| 云南省|