宗靜靜 邱天爽 郭冬梅
1(大連理工大學(xué)電子信息與電氣工程學(xué)部,遼寧 大連 116024)2(大連交通大學(xué)電氣信息學(xué)院,遼寧 大連 116028)3(大連醫(yī)科大學(xué)附屬第二醫(yī)院放射科,遼寧 大連 116027)
聯(lián)合稀疏表示的醫(yī)學(xué)圖像融合及同步去噪
宗靜靜1,2邱天爽1#*郭冬梅3
1(大連理工大學(xué)電子信息與電氣工程學(xué)部,遼寧 大連 116024)2(大連交通大學(xué)電氣信息學(xué)院,遼寧 大連 116028)3(大連醫(yī)科大學(xué)附屬第二醫(yī)院放射科,遼寧 大連 116027)
將多模態(tài)醫(yī)學(xué)圖像的互補信息有機地融合在一起,可為臨床診斷和輔助治療提供豐富信息和有效幫助?;诼?lián)合稀疏模型,提出一種聯(lián)合稀疏表示的醫(yī)學(xué)圖像融合算法,當(dāng)圖像被噪聲污染時,該算法在融合的同時兼有去噪功能。首先,將配準(zhǔn)的源圖像編纂成列向量并組成聯(lián)合矩陣,通過在線字典學(xué)習(xí)算法(ODL)得到該矩陣的超完備字典;其次,利用該字典得到聯(lián)合稀疏模型下的聯(lián)合字典,之后利用最小角回歸算法(LARS)計算基于聯(lián)合字典的公共稀疏系數(shù)和各圖像的獨特稀疏系數(shù),并根據(jù)“選擇最大化”融合規(guī)則得到融合圖像的稀疏系數(shù);最后,根據(jù)融合系數(shù)和超完備字典重構(gòu)融合圖像。將該算法與3種經(jīng)典算法比較,結(jié)果顯示其主觀上亮度失真和對比度失真較小,邊緣紋理清晰,客觀參數(shù)指標(biāo)MI、QAB/F在無噪聲干擾和有噪聲干擾時的統(tǒng)計均值分別為:3.992 3、2.896 4、2.505 5和0.658、0.552 4、0.439 6,可以為臨床診斷和輔助治療提供有效幫助。
聯(lián)合稀疏表示;在線字典學(xué)習(xí);醫(yī)學(xué)圖像融合;圖像去噪
引言
層出不窮的生物醫(yī)學(xué)成像技術(shù)為生物組織的影像學(xué)描述提供了新的工具,在臨床診斷、外科手術(shù)、放射治療、療效評估等方面發(fā)揮著重要作用。為了綜合多模態(tài)醫(yī)學(xué)圖像的互補信息,為臨床醫(yī)學(xué)提供更為充分有效的依據(jù),醫(yī)學(xué)圖像融合在20世紀(jì)90年代作為醫(yī)學(xué)圖像后處理技術(shù)之一應(yīng)運而生[1]。醫(yī)學(xué)圖像融合屬于醫(yī)學(xué)影像學(xué)與圖像信息學(xué)交叉研究領(lǐng)域,它的出現(xiàn)為分子影像學(xué)的發(fā)展揭開了嶄新的一頁[2]。
醫(yī)學(xué)圖像融合有不同的分類方法,大體可歸為兩類——空間域算法和變換域算法[3]??臻g域算法將亮度值作為特征進行融合,又可以分為像素級融合和區(qū)域級融合,區(qū)域級融合通過分塊或分割的方法把圖像分成多個小區(qū)域,選擇空間頻率、梯度能量等作為衡量區(qū)域顯著度的活動級測量準(zhǔn)則(activity level measurement,ALM)[4],之后利用“加權(quán)平均”、“選擇最大化”等融合規(guī)則進行區(qū)域融合;它充分利用了圖像的結(jié)構(gòu)信息指導(dǎo)融合,因此可以克服像素級融合對噪聲敏感等缺點,但仍存在塊效應(yīng)等問題。變換域算法將圖像在變換域的系數(shù)作為顯著性特征進行融合,包括基于多分辨率分析的方法,以小波變換[5]、多尺度幾何分析[6-7]為代表。由于圖像的顯著性特征在變換域比在空間域能更好地被描述[8],因此變換域算法相對空間域算法性能更好,但其算法耗時、效率較低。不過,隨著計算機軟硬件性能的提高,這一問題將逐步變得次要。而近幾年來,隨著壓縮感知[9]的興起,基于稀疏表示的圖像融合技術(shù)[3,10-11]被推向了一個新的高度。其中,自適應(yīng)式字典學(xué)習(xí)算法[12-14]由于解決了固定字典原子單一的缺點,因此成為了亮點并備受關(guān)注。
綜合考慮空間域算法和變換域算法的優(yōu)點,結(jié)合自適應(yīng)稀疏表示技術(shù),筆者提出了一種基于聯(lián)合稀疏表示的醫(yī)學(xué)圖像融合算法,在完成融合的同時兼有去噪功能。首先,利用在線字典學(xué)習(xí)(online dictionary learning, ODL)[14]算法獲得待融合源圖像的超完備冗余字典;其次,利用該字典組成聯(lián)合字典,通過最小角回歸(least angle regression, LARS)[15]算法求解源圖像在聯(lián)合稀疏表示模型下的稀疏系數(shù),并用“選擇最大化”規(guī)則融合各自獨特稀疏系數(shù);最后,重構(gòu)融合圖像。與3種經(jīng)典算法的對比表明,本算法在主客觀方面具有優(yōu)越性。
1.1 稀疏表示
信號稀疏表示模型是在給定的超完備字典中用盡可能少的原子來表示信號,以獲得信號更為簡潔的表示方式。設(shè)信號x∈Rn,超完備字典D∈RnK(n (1) 式中,誤差容限ε≥0,‖·‖p代表Lp范數(shù),D可采用解析字典和學(xué)習(xí)字典。 解析字典通過某種數(shù)學(xué)變換來構(gòu)造,其原子可用數(shù)學(xué)函數(shù)刻畫,如DCT、DWT等。這種方法簡單且易于快速實現(xiàn),但原子形態(tài)單一,不能與圖像本身結(jié)構(gòu)形成最優(yōu)匹配;學(xué)習(xí)字典(如KSVD[13])通過訓(xùn)練學(xué)習(xí)方法獲得的原子數(shù)量較多、形態(tài)豐富,能更好地匹配信號或圖像本身的結(jié)構(gòu),具有更稀疏的表示。式(1)一般是NP-hard問題,實際中常用近似最優(yōu)追蹤算法來解決,主要包括貪婪算法(如OMP[16])和凸松弛(如BP[17]、LARS)算法。 1.2 聯(lián)合稀疏表示 聯(lián)合稀疏模型(joint sparsity model, JSM)來源于分布式壓縮感知(distributed compressed sensing, DCS)[18],是DCS的核心內(nèi)容。DCS將分布式信源編碼與壓縮感知理論相結(jié)合,由Duarte等在2005年提出。之后,Baron等提出了3種不同的聯(lián)合稀疏表示(joint sparse representation, JSR)模型[19]:JSM-1、JSM-2、JSM-3。JSM-1模型指出:所有信號應(yīng)具有相同的公共稀疏部分和各信號獨有的稀疏部分。假設(shè)信號整體Γ={V1,V2,…,VK},根據(jù)JSM-1模型,Γ中的每個信號可以表示為 (2) 式中,Vc為信號公共部分,Viu為第i個信號的獨特部分,D為超完備冗余字典,sc表示Γ中所有信號的公共稀疏系數(shù),si表示第i個信號獨特部分對應(yīng)的稀疏系數(shù)。 信號整體的聯(lián)合稀疏可表示為 (3) 則式(3)可以簡寫為 (4) 結(jié)合稀疏表示理論,聯(lián)合稀疏表示模型式(4), 稀疏系數(shù)S可以通過求解下面的優(yōu)化問題得到,即 (5) 式中,ε≥0,代表誤差容限。 優(yōu)化問題式(5)是一個典型的稀疏求解問題,無法直接求解,很多逼近算法可以有效逼近最優(yōu)解,本文第1.1節(jié)中已作分析,這里不再贅述。 1.3 基于JSR的圖像融合 由于多源傳感器信號是相關(guān)的,所以待融合圖像之間存在相似性,即源圖像間存在聯(lián)合稀疏性。在本研究中,基于JSM-1模型對源圖像進行聯(lián)合稀疏表示,提取源圖像間的公共特征和各自特征,對各自特征使用“選擇最大化”融合規(guī)則實現(xiàn)融合,算法框架如圖1所示。 圖1 基于聯(lián)合稀疏表示的圖像融合算法Fig.1 Block diagram of image fusion algorithm based on joint sparse representation 1.3.1 算法步驟 如圖1所示,假定有兩幅已經(jīng)配準(zhǔn)的源圖像I1,I2∈RMN,圖像受到高斯白噪聲n1、n2的影響,算法步驟如下: (6) 即 (7) (8) 稀疏矩陣S的第j列sj可由下面優(yōu)化問題求解,即 (9) 式中,vj和sj是矩陣V和S的第j列,T由噪聲方差確定[20]。 在本文中,使用LARS算法求解稀疏系數(shù)S。 4)重構(gòu)。由VF重構(gòu)的融合圖像矩陣IF相當(dāng)于一個反滑窗過程,即將VF的列向量還原成圖像塊。由于使用了步長為1的滑動窗技術(shù),圖像塊之間會有重疊,因此通過加權(quán)平均處理得到最終的融合圖像IF。 1.3.2 算法優(yōu)點 通過算法流程,可以看到本算法有以下兩方面優(yōu)點: 1)綜合了空間域和變換域算法的優(yōu)點。在空間域首先利用滑動窗技術(shù)對源圖像進行分塊,這種區(qū)域級融合做法可充分利用圖像的結(jié)構(gòu)信息來指導(dǎo)融合,也提高了圖像在之后的稀疏變換域進行矩陣分解的計算效率,且使得基于稀疏表示的圖像特征提取具備“移不變”特性,融合圖像性能更好。 2)有效結(jié)合了融合規(guī)則的優(yōu)點。算法對源圖像進行聯(lián)合稀疏表示后,將各圖像的獨特稀疏系數(shù)的L1范數(shù)作為ALM,利用“選擇最大化”融合規(guī)則來選擇源圖像的最顯著特征。在之后的重構(gòu)融合圖像過程中,使用“塊平均”來重建融合圖像。整體來看,融合過程相當(dāng)于使用了基于塊的“選擇最大化”和“加權(quán)平均”兩種融合規(guī)則,因而避免了使用單一融合規(guī)則的缺點,有效整合了兩種融合規(guī)則的優(yōu)勢。 1.4 實驗設(shè)置 為評測算法的有效性,進行編程實驗。實驗所用硬件配置為處理器Intel(R) @3.5 GHz 3.5 GHz,內(nèi)存4GB;軟件環(huán)境為Windows 8.1,Matlab2013。 1.5 評價準(zhǔn)則 本算法性能由主觀視覺效果和客觀參數(shù)指標(biāo)兩方面綜合評價。主觀效果靠人眼觀察,由3位放射科專家對圖像融合結(jié)果進行評價;客觀評價使用互信息MI[21]和QAB/F[22]兩個參數(shù)來量化融合效果。其中,MI是一種基于信息論的評價方法,它是對兩個隨機變量相關(guān)性的一種定量測量,反映融合圖像繼承源圖像信息量的大小,一般值越大反映融合效果越好;QAB/F通過度量融合圖像繼承源圖像梯度信息的程度來評價融合結(jié)果,它反映融合圖像對源圖像邊緣特性的保留情況,取值范圍是0~1,越接近1 表明融合圖像的邊緣特性越好,圖像紋理細(xì)節(jié)越清晰。 本研究所用腦部數(shù)據(jù)來源于哈佛大學(xué)醫(yī)學(xué)院(http://www.med.harvard.edu/aanlib/home.html#userconsent#),肺部數(shù)據(jù)由法國大諾曼底地區(qū)腫瘤診療中心-魯昂亨利·貝克勒爾癌癥綜合治療中心(CHB)提供。限于篇幅,此處僅給出2組醫(yī)學(xué)圖像及其融合結(jié)果。圖2、3分別為一腦部腫瘤患者和肺部腫瘤患者的源圖像及各算法的融合結(jié)果,算法所使用的噪聲為高斯白噪聲。其中,(a)、(b)是無噪聲干擾的源圖像(等價于被標(biāo)準(zhǔn)差σ=0的噪聲污染),(c)、(d)是被噪聲標(biāo)準(zhǔn)差σ=10的高斯白噪聲污染的源圖像,(e)~(h)是干凈(無噪聲干擾)源圖像的融合結(jié)果,(i)~(l)是含噪聲源圖像的融合結(jié)果。 4種算法的客觀評價指標(biāo)如表1所示。為評價算法的魯棒性,筆者統(tǒng)計了10組醫(yī)學(xué)圖像的融合結(jié)果,其中5組腦部CT和MR圖像,5組肺部PET和CT圖像,10組數(shù)據(jù)融合結(jié)果的均值如表2所示。在這兩個表中,最優(yōu)參數(shù)指標(biāo)均以黑體標(biāo)出。 圖3 肺部腫瘤患者的源圖像及融合結(jié)果。 (a) PET圖像(σ=0);(b)CT圖像(σ=0);(c) PET圖像(σ=10);(d) CT圖像(σ=10);(e)DWT融合結(jié)果(σ=0);(f)NSCT_PCNN融合結(jié)果(σ=0);(g) SR融合結(jié)果(σ=0);(h)本算法融合結(jié)果(σ=0);(i) DWT融合結(jié)果(σ=10);(j) NSCT_PCNN融合結(jié)果(σ=10);(k) SR融合結(jié)果(σ=10);(l) 本算法融合結(jié)果(σ=10)Fig.3 Source images and fusion results of the lung cancer patient. (a)PET image(σ=0); (b)CT image(σ=0); (c) PET image(σ=10); (d) CT image(σ=10); (e) DWT-based fusion result(σ=0); (f) NSCT_PCNN-based fusion result(σ=0); (g) SR-based fusion result(σ=0); (h) Fusion result of the proposed algorithm(σ=0);(i) DWT-based fusion result(σ=10);(j) NSCT_PCNN-based fusion result(σ=10);(k) SR-based fusion result(σ=10);(l) Fusion result of the proposed algorithm(σ=10) 表1 4種算法的客觀指標(biāo) 表2 10組圖像客觀評價指標(biāo)的均值 以下從主客觀兩方面對實驗結(jié)果進行討論。主觀視覺效果方面,3位放射科專家在對圖像融合結(jié)果評價后一致認(rèn)為,經(jīng)本算法融合的圖像亮度和對比度較好,圖像紋理細(xì)節(jié)較清晰,可較好地保留原圖像的特征,具體如圖2、3所示。從主觀視覺效果來看,干凈源圖像的融合效果要好于含噪源圖像的融合效果,圖像對比度失真和亮度失真均較小,邊緣紋理細(xì)節(jié)相對清晰,融合質(zhì)量相對較好。這說明,受到噪聲干擾時,融合圖像主觀視覺效果會有所下降。而無論含噪與否,從主觀視覺效果對比4種算法,可以發(fā)現(xiàn)文獻[5]的DWT融合算法效果最差,其對比度、亮度信息嚴(yán)重失真,邊緣保持度較差,不能清晰分辨組織的紋理結(jié)構(gòu)信息。文獻[6]的NSCT_PCNN融合算法的亮度信息尚可,紋理保持度較好,但圖像清晰度一般;當(dāng)受到噪聲干擾時,可看到融合圖像對比度明顯下降,且算法不能保證將圖像顯著性特征完整地融入到融合圖像中去,如圖2(f)所示的融合圖像未將CT輪廓完整地融合到最終圖像中,圖3(f)中未將PET的亮度信息完整地融合到目標(biāo)圖像中。文獻[3]的SR算法的清晰度優(yōu)于NSCT_PCNN算法的晴晰度,但其紋理細(xì)節(jié)保持度不如NSCT_PCNN算法和本算法(見圖2)。如圖3所示,該算法亮度和對比度、保持度不如本算法,但優(yōu)于其余2種算法。從融合結(jié)果來看,本算法得到的融合圖像清晰度高,對比度較高,邊緣紋理細(xì)節(jié)保持較好,優(yōu)于其他算法。尤其對于含噪圖像,本算法明顯優(yōu)于其他算法,抗干擾能力較強,在完成融合的同時兼有更好的去噪功能。綜上所述,本算法的融合效果主觀最優(yōu),其魯棒性好,融合圖像的亮度、對比度、相關(guān)性失真較小,邊緣保持度較高。 此外,實驗對應(yīng)的客觀參數(shù)評價指標(biāo)如表1、2所示??梢钥闯觯寒?dāng)源圖像受噪聲干擾時,其融合圖像的客觀參數(shù)指標(biāo)相比干凈源圖像的融合指標(biāo)有所下降,且噪聲越大,融合圖像的客觀參數(shù)指標(biāo)越差;就縱向比較而言,無論含噪與否,表2的統(tǒng)計結(jié)果表明本算法客觀統(tǒng)計指標(biāo)最優(yōu),SR算法和NSCT_PCNN算法居中,DWT算法的客觀指標(biāo)整體最差。 綜合主客觀評價結(jié)果,在上述實驗中,本算法最優(yōu),DWT算法最差,SR算法和NSCT_PCNN算法居中。究其原因,DWT算法中,二維可分離小波基只能捕獲有限方向的信息,使其對具有曲線狀奇異性的圖像內(nèi)容表征能力不佳,導(dǎo)致融合圖像存在邊緣細(xì)節(jié)丟失、像素不連續(xù)、對比度下降等現(xiàn)象。NSCT變換具有多尺度、多方向、平移不變等特性,因此對紋理細(xì)節(jié)的融合度相對較好;但因其屬于非自適應(yīng)多尺度幾何分析,圖像變換的基函數(shù)與圖像內(nèi)容無關(guān),因此該變換不能“更稀疏”地表示圖像特征,變換系數(shù)的能量集中度不高,導(dǎo)致其非線性逼近能力較差,因而融合圖像對比度相對較差。SR算法使用固定DCT字典作為超完備字典來稀疏表示源圖像,其融合圖像的對比度尚可,紋理細(xì)節(jié)表示能力居中。本算法所使用的自適應(yīng)學(xué)習(xí)字典相比固定字典而言,更能產(chǎn)生與訓(xùn)練樣本高度適應(yīng)的超完備冗余字典,可以更有效地提取源圖像的幾何結(jié)構(gòu),更好地發(fā)掘圖像信號的特征,并以更好的稀疏方式來表示,因而融合圖像對比清晰,邊緣紋理細(xì)節(jié)丟失較少,亮度失真小??梢钥闯觯赃m應(yīng)的圖像統(tǒng)計表示方法使得本算法優(yōu)于其他融合算法。 為了更好地融合多模態(tài)醫(yī)學(xué)圖像的信息,筆者提出了基于聯(lián)合稀疏表示的醫(yī)學(xué)圖像融合算法。該算法利用滑窗技術(shù)對圖像進行分塊,之后利用聯(lián)合稀疏模型對多模態(tài)醫(yī)學(xué)圖像進行聯(lián)合稀疏表示,提取源圖像的公共特征和各自獨特特征,最后采用“選擇最大化”規(guī)則來融合各自獨特的特征系數(shù),并重構(gòu)融合圖像。由于結(jié)合了空域變換域以及兩種融合規(guī)則的優(yōu)勢,以及自適應(yīng)字典學(xué)習(xí)算法的使用,使得本算法融合后的圖像邊緣清晰,平滑性好,整體效果優(yōu)良。當(dāng)圖像受干擾時,本算法在完成融合的同時可以很好地去噪。與3種經(jīng)典算法大量對比的結(jié)果表明,本算法主客觀效果的優(yōu)越性。 本算法取得了一定成果,可為同類研究提供有益參考。展望未來,還有許多可拓展的工作,包括: 1)鑒于醫(yī)學(xué)成像的復(fù)雜性,醫(yī)學(xué)圖像噪聲呈現(xiàn)多樣性,有些噪聲是非高斯分布的(如泊松分布噪聲、脈沖噪聲或混合噪聲等),而本研究所關(guān)注的是高斯白噪聲。對于非高斯分布噪聲或混合噪聲的去除,是未來的研究內(nèi)容。 2)醫(yī)學(xué)圖像有多種模態(tài),本研究主要進行了基于CT和MRI的腦部圖像、基于CT和PET的肺部圖像的圖像融合。對于全方位多模態(tài)醫(yī)學(xué)圖像(如MRI與PET、MRI與SPECT等)的融合,是未來的實驗內(nèi)容。 [1] 劉興黨.圖像融合及其臨床應(yīng)用[J].國外醫(yī)學(xué):放射醫(yī)學(xué)核醫(yī)學(xué)分冊,1996,20 (4):156-158. [2] 劉惠,郭冬梅,邱天爽.醫(yī)學(xué)影像和醫(yī)學(xué)圖像處理[M].北京:電子工業(yè)出版社,2013:122. [3] Yang Bin,Li Shutao.Multifocus image fusion and restoration with sparse representation[J].IEEE Transactions on Instrumentation and Measurement,2010,59(4):884-892. [4] Huang W,Jing Z.Evaluation of focus measures in multi-focus image fusion[J].Pattern Recognition Letters,2007,28(4):493-500. [5] Nikolov S,Hill P,Bull D,et al.Wavelets for image fusion[M]//Wavelets in Signal and Image Analysis.Amsterdam:Springer Netherlands,2001:213-241. [6] Das S,Kundu MK.NSCT-based multimodal medical image fusion using pulse-coupled neural network and modified spatial frequency [J].Medical & Biological Engineering & Computing,2012,50(10):1105-1114. [7] Wang Lei,Li Bin,Tian Lianfang.Multi-modal medical image fusion using the inter-scale and intra-scale dependencies between image shift-invariant shearlet coefficients[J].Information Fusion,2014,19:20-28. [8] Mitianoudis N,Stathaki T.Pixel-based and region-based image fusion schemes using ICA bases[J].Information Fusion,2007,8(2): 131-142. [9] Donoho DL.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306. [10] Yu Nannan,Qiu Tianshuang,Bi Feng,et al.Image features extraction and fusion based on joint sparse representation[J].IEEE Journal of Selected Topics in Signal Processing,2011,5(5):1074-1082. [11] Liu Y,Wang Z.Simultaneous image fusion and denoising with adaptive sparse representation[J].IET Image Processing,2014,9(5):347-357. [12] Engan K,Aase S O,Hakon Husoy J.Method of optimal directions for frame design[C]//IEEE Signal Processing Society.Proceedings of the 1999 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP-99).Phoenix:IEEE,1999:2443-2446. [13] Aharon M,Elad M,Bruckstein A.K-SVD:An algorithm for designing overcomplete dictionaries for sparse representation[J].IEEE Transactions on Signal Processing,2006,54(11):4311-4322. [14] Mairal J,Bach F,Ponce J,et al.Online dictionary learning for sparse coding[C]//Proceedings of the 26th Annual International Conference on Machine Learning.Montreal:Association for Computing Machinery,2009:689-696. [15] Efron B,Hastie T,Johnstone I,et al.Least angle regression[J].The Annals of Statistics,2004,32(2):407-499. [16] Mallat SG,Zhang Z.Matching pursuits with time-frequency dictionaries[J].IEEE Transactions on Signal Processing,1993, 41(12):3397-3415. [17] Chen SS,Donoho DL,Saunders MA.Atomic decomposition by basis pursuit[J].SIAM Journal on Scientific Computing,1998,20(1):33-61. [18] Duarte MF,Sarvotham S,Baron D,et al.Distributed compressed sensing of jointly sparse signals[C]//39th Asilomar Conference on Signals, Systems and Computers.Pacific Grove:IEEE Computer Society,2005:1537-1541. [19] Baron D,Duarte MF,Wakin MB,et al.Distributed compressive sensing[C]//2009 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP 2009).Taipei:IEEE,2009:2886-2889. [20] Elad M,Aharon M.Image denoising via sparse and redundant representations over learned dictionaries[J].IEEE Transactions on Image Processing,2006,15(12):3736-3745. [22] Qu Guihong,Zhang Dali,Yan Pingfan.Information measure for performance of image fusion[J].Electronics Letters,2002,38(7):313-315. Simultaneous Medical Image Fusion and De-Noising with Joint Sparse Representation Zong Jingjing1,2Qiu Tianshuang1#*Guo Dongmei3 1(FacultyofElectronicInformationandElectricalEngineering,DalianUniversityofTechnology,Dalian116024,Liaoning,China)2(SchoolofElectrical&InformationEngineering,DalianJiaotongUniversity,Dalian116028,Liaoning,China)3(DepartmentofRadiology,theSecondAffiliatedHospitalofDalianMedicalUniversity,Dalian116027,Liaoning,China) The complementary information of multi-modality medical images can be integrated together, which can provide abundant information and effective help for clinical diagnosis and treatment. Based on the joint sparse model, a new medical image fusion algorithm based on the joint sparse representation was proposed in this paper, and this method could carry out image fusion and de-noising simultaneously while the images were corrupted by noise. First, the registered source images were compiled into column vectors and composed of a joint matrix, and then an over-complete dictionary was obtained through online dictionary learning algorithm(ODL). Second, a joint dictionary was obtained by the over-complete dictionary under the joint sparse model, then based on the joint dictionary, the common sparse coefficients and unique sparse coefficients were computed by the least angle regression algorithm(LARS), and the sparse coefficients of fused image were obtained according to the fusion rule "choose max". Last, the fusion image was reconstructed according to the fusion coefficient and the over-complete dictionary. Compared with three classical algorithms,the results showed that the proposed algorithm has small luminance distortion, small contrast distortion and clear edge texture in the subjective vision, the statistical mean values of the objective parameters MI,QAB/Funder noiseless and noisy case were 3.992 3, 2.896 4, 2.505 5 and 0.658, 0.552 4, 0.439 6, respectively. All of these can provide effective help for clinical diagnosis and treatment. joint sparse representation; online dictionary learning; medical image fusion; image de-noising 10.3969/j.issn.0258-8021. 2016. 02.002 2015-08-21, 錄用日期:2015-11-11 國家自然科學(xué)基金(81241059,61172108);國家科技支撐計劃項目(2012BAJ18B06) TP391;TN911.73 A 0258-8021(2016) 01-0133-08 # 中國生物醫(yī)學(xué)工程學(xué)會會員(Member, Chinese Society of Biomedical Engineering) *通信作者(Corresponding author), E-mail: qiutsh@dlut.edu.cn2 結(jié)果
3 討論
4 結(jié)論