孔軼艷
摘 要:盲源分離是在傳輸信道模型和信源均未知情況下,僅利用觀測(cè)信號(hào)恢復(fù)出源信號(hào)的技術(shù)。超完備盲分離是指源信號(hào)數(shù)目大于觀測(cè)信號(hào)數(shù)目情況下的盲源分離,由于混合過(guò)程中信息的丟失,使得超完備盲分離問(wèn)題更加具有挑戰(zhàn)性。詳盡地闡述了超完備盲分離在瞬時(shí)混合情況下的數(shù)學(xué)模型、解決方案及研究現(xiàn)狀,并將各算法歸為兩類,即兩步估計(jì)法和交替估計(jì)法,同時(shí)總結(jié)了各算法的優(yōu)缺點(diǎn)及其適用條件。
關(guān)鍵詞:盲源分離;獨(dú)立分量分析;超完備;兩步估計(jì)法;交替估計(jì)法
中圖分類號(hào):TP911文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1004-373X(2009)19-030-05
Research about Algorithms of Instantaneous Over-complete BSS
KONG Yiyan
(Liuzhou Vocational & Technical College,Liuzhou,545006,China)
Abstract:The Blind Source Separation (BSS) is a technique to separate the source only by the observed sinals,without any information of the channel and source.The over-complete blind source separation is the BSS when the number of the original signals is larger than that of the mixtures.The over-complete BSS is more challenging because some information are lost when mixing.In this paper,mathematics model,solution and current research of the instantaneous over-complete BSS are introduced in detail.Moreover,the algorithms are classified into two kinds,the two-step estimation approach and the alternately estimate approach.Finally,the advantage and disadvantage of these algorithms,also the application condition are concluded.
Keywords:blind source separation;independent component analysis;over-complete;two-step estination;alternate estimation
0 引 言
獨(dú)立分量分析[1](Independent Component Analysis,ICA)是一種通過(guò)最大化多維觀測(cè)向量的統(tǒng)計(jì)獨(dú)立性來(lái)尋找合適的線性變換的統(tǒng)計(jì)方法。其目標(biāo)是在源信號(hào)向量和傳輸信道均未知的情況下,從觀測(cè)數(shù)據(jù)中重建和恢復(fù)各獨(dú)立源。獨(dú)立分量分析在盲源分離(Blind Source Separation,BSS)方面的應(yīng)用,使得BSS的研究取得了突破性的進(jìn)展,發(fā)展了很多優(yōu)秀的算法。然而傳統(tǒng)的ICA是要求觀測(cè)信號(hào)數(shù)目大于或等于源信號(hào)數(shù)目的,現(xiàn)實(shí)中存在很多源信號(hào)數(shù)目大于觀測(cè)信號(hào)數(shù)目的情況,這種情況下的盲源分離被稱為超完備盲分離[1-13](over-complete BSS)。
由于觀測(cè)信號(hào)數(shù)目少于源信號(hào)數(shù)目,相當(dāng)于信源在經(jīng)過(guò)混合信道后,發(fā)生了有損壓縮,因此采用傳統(tǒng)的ICA通過(guò)對(duì)混合系統(tǒng)求偽逆的過(guò)程已無(wú)法恢復(fù)出源信號(hào),這些丟失的信息無(wú)法僅通過(guò)數(shù)學(xué)手段來(lái)恢復(fù),只能通過(guò)一些先驗(yàn)、假設(shè)或限制條件(如:獨(dú)立性、稀疏性等)進(jìn)行彌補(bǔ)。
本文就超完備瞬時(shí)盲分離的問(wèn)題描述和目前的主要解決方案做了一個(gè)詳細(xì)的介紹,并依據(jù)不同算法的特點(diǎn),將之歸納為兩類,總結(jié)了各自的優(yōu)缺點(diǎn)及其適用條件。
1 問(wèn)題描述
盲源分離的數(shù)據(jù)模型如下:
x=As+ε(1)
式中:s=[s1,s2,…,sN]T是N維未知獨(dú)立源信號(hào)矢量,經(jīng)過(guò)線性系統(tǒng)A混合,再疊加噪聲信號(hào)ε=[ε1,ε2,…,εM]后,得到M維的觀測(cè)信號(hào)矢量x=[x1,x2,…,xM]T,線性系統(tǒng)A為M×N未知混合矩陣,在超完備情況下,假設(shè)M 完備情況下的盲分離一般可以同時(shí)估計(jì)出混合矩陣和源信號(hào),但在超完備情況下,同時(shí)估計(jì)源和混合矩陣十分困難,所以分離過(guò)程一般分為兩步,先估計(jì)混合矩陣,再由估計(jì)出的混合矩陣和觀測(cè)信號(hào)去估計(jì)源信號(hào)。也可以在同一迭代過(guò)程中交替地估計(jì)源信號(hào)和混合矩陣。因此根據(jù)各算法的估計(jì)特點(diǎn), 可以將各算法分為兩步估計(jì)法和交替估計(jì)法兩類,下面將分別介紹這兩類算法。 2 兩步估計(jì)法[7-10] 2002年,Theis F J在文獻(xiàn)[10]及其他學(xué)者研究成果的基礎(chǔ)上,提出了兩步實(shí)現(xiàn)超完備盲分離的思想[7],即BMMR和BSR,先由觀測(cè)信號(hào)估計(jì)混合矩陣,再在觀測(cè)信號(hào)和估計(jì)出的混合矩陣基礎(chǔ)上估計(jì)源信號(hào)。這種方法多基于無(wú)噪數(shù)據(jù)模型,即x=As,各變量定義同式(1)。 2.1 BMMR 混合矩陣的盲恢復(fù)可以采用聚類[10,12],幾何ICA[8,9]等方法來(lái)實(shí)現(xiàn)。聚類算法一般要求源信號(hào)比較稀疏,可以近似地認(rèn)為在每一時(shí)刻僅有一個(gè)信號(hào)非零,而采用幾何ICA算法對(duì)稀疏性并不做特別要求。 2.1.1 聚類算法 采用無(wú)噪數(shù)據(jù)模型x=As。以M=2為例介紹該算法,系統(tǒng)模型可以寫(xiě)為: x1x2=a11a12…a1N a21a21…a2Ns1s2髎N(2) 一般假設(shè)s1,s2,…,sN具有稀疏分布,那么在x1,x2中它們常常只是單獨(dú)出現(xiàn)。如果某一時(shí)刻t只有s1有值,則有xt1=a11st1,xt2=a21st1,因而此時(shí)xt1/xt2=a11/a21??梢?jiàn),屬于這種情況的觀測(cè)數(shù)據(jù)x在x1~x2散點(diǎn)圖上將聚集在斜率為a11/a21的斜線上(見(jiàn)圖1)。同理,當(dāng)只有si出現(xiàn)的時(shí)刻,x1~x2散點(diǎn)圖上將聚集在斜率為a1i/a2i的斜線上。那么在其散點(diǎn)圖上將會(huì)聚集N條線,根據(jù)這些線的斜率,再結(jié)合混合矩陣A各列的歸一化條件|ai|2=1(i=1,2,…,N),就可以把矩陣A的各列向量估計(jì)出來(lái)。 圖1 x1~x2散點(diǎn)圖(N=3) 推而廣之,當(dāng)觀測(cè)信號(hào)數(shù)目M>2時(shí),觀測(cè)數(shù)據(jù)的散點(diǎn)圖將聚集在各ai方向上,因此求各ai相當(dāng)于找數(shù)據(jù)在M維空間的聚集位置(這可以通過(guò)神經(jīng)網(wǎng)絡(luò)的C均值聚類/K均值聚類來(lái)實(shí)現(xiàn))。這些ai即為混合矩陣A各列的矢量。 2.1.2 幾何ICA算法 該算法是采用了“贏家通吃”(winner-takes-all)規(guī)則,可以描述如下:在單位球SM-1糝M上選擇2N個(gè)單位根ω1,ω′1,…,ωN,ω′N,使得ωi=-ω′i(i=1,2,…,N),且每對(duì)根彼此線性獨(dú)立,這些根稱為神經(jīng)元。取固定的學(xué)習(xí)率η:N→R,使得滿足η(n)>0,∑n∈Nη(n)=∞和∑n∈Nη(n)2<∞。然后按照下面的步驟進(jìn)行迭代,直到遇到收斂條件。
選擇隨機(jī)變量x中的一個(gè)樣本x(t)∈R,若x(t)=0,則重新選擇一個(gè)非零的樣本(當(dāng)x的聯(lián)合概率密度函數(shù)ρx為連續(xù)時(shí)將不會(huì)出現(xiàn)這種情況),將x(t)投影到單位球,得到:y(t)=x(t)/|x(t)|。假設(shè)ωi或ω′i是所有根中根據(jù)歐氏距離算出的離y(t)最近的點(diǎn),則進(jìn)行如下迭代:
ωi(t+1)=π{ωi(t)+η(t)sgn[y(t)-ωi(t)]}(3)
式中:π:RM\{0}→SM-1表示在RM中的M-1單位球SM-1上的投影。另外有:
ω′i(t+1)=-ωi(t+1)(4)
其他的神經(jīng)元在本次迭代中則不進(jìn)行更新。
所有的神經(jīng)元均按照這種迭代方式進(jìn)行更新。迭代的最終結(jié)果將獲得一組ω1,ω′1,…,ωN,ω′N,將ω1,ω2,…,ωN組成向量矩陣A,即為待恢復(fù)的混合矩陣。
2.1.3 算法比較
聚類算法要求源信號(hào)滿足一定的稀疏性,但隨著信號(hào)維數(shù)的增加,計(jì)算代價(jià)不會(huì)迅速增長(zhǎng)。
幾何ICA算法從信號(hào)的幾何特性出發(fā),便于理解,所以得到了更廣闊的應(yīng)用。它對(duì)信號(hào)的稀疏特性沒(méi)有特別的要求。且Theis F J在文獻(xiàn)[8]中給出了矩陣等價(jià)的概念和算法收斂的條件,并嚴(yán)格證明了分離的混合矩陣的惟一性。幾何ICA的主要缺點(diǎn)就是隨著觀測(cè)信號(hào)維數(shù)的增長(zhǎng),樣本和收斂次數(shù)呈指數(shù)增長(zhǎng),因此幾何ICA一般都限制在低維情況。
2.2 BSR
在超完備基條件下,就算己知混合矩陣A,源信號(hào)的分離也是不惟一的,因此常常假設(shè)源信號(hào)滿足一定的稀疏性,然后利用稀疏分量分析理論,根據(jù)最大稀疏性準(zhǔn)則來(lái)分離源信號(hào),最短路徑算法和廣義FOCUSS算法都是以尋求信號(hào)的最大稀疏性表示為目標(biāo)的源恢復(fù)方法,最短路徑算法是基于單次觀測(cè)樣本進(jìn)行處理的,需要的樣本數(shù)據(jù)較多,但單次計(jì)算的代價(jià)較低,而FOCUSS則是對(duì)信號(hào)的所有樣本進(jìn)行批處理的,效率較高,計(jì)算代價(jià)相對(duì)較高。
2.2.1 最短路徑算法[7,10,12]
最短路徑算法是以“L1范數(shù)最小”為目標(biāo)的一種分解方法,此時(shí)要求:
xt=∑Nj=1ajstj, 且∑Nj=1|stj|=min(5)
上式前一部分說(shuō)明,每個(gè)可行解都是各矢量ajstj的矢量和,而且其總和等于xt,上式的后一部分說(shuō)明,在全部可行解中尋找路徑(矢量長(zhǎng)度之和),最短的一條就是所求答案。
以M=2為例,說(shuō)明最短路徑尋優(yōu)方法,如圖2所示。
(1) 計(jì)算在某時(shí)刻t時(shí)xt的矢量方向θt=arctan(xt2/xt1)。
(2) 選擇各aj(j=1,2,…,N)中方向居于θt兩側(cè),且與θt最接近的兩個(gè)矢量作為基矢量(圖中的aA與aB)。
(3) 以選定的兩個(gè)基矢量為方向構(gòu)造平行四邊形,使其合成矢量為xt,從而確定矢量的長(zhǎng)度stA和stB。也就是說(shuō)此時(shí)的分解結(jié)果為xt=aAstA+aBstB,從而得到t時(shí)刻的源信號(hào)表示:
(st)i=[(aA|aB)-1xt]A,i=A
[(aA|aB)-1xt]B,i=B
0,otherwise(6)
從而把t時(shí)刻的觀測(cè)信號(hào)xt分解成只含有兩個(gè)信源的稀疏組合。
(4) 依次對(duì)t=1~T逐點(diǎn)進(jìn)行,便將x分解成若干稀疏信源的組合。
圖2 最短路徑法的說(shuō)明
aA和aB是A中最靠近xt的單位矢量,xt=aAstA+aBstB,而且|stA|+|stB|為最小。
2.2.2 似p范數(shù)代價(jià)函數(shù)和廣義FOCUSS算法[11,12]
分散性可以看作稀疏性的反義詞,很多文獻(xiàn)認(rèn)為“似p范數(shù)”可以作為分散性的度量:
Jp(s)=∑Ni=1sip,0≤p≤1(7)
當(dāng)p=0時(shí),J0(s)將等于s中的非零元素的個(gè)數(shù);p=1時(shí),J1(s)將等于s中所有元素的絕對(duì)值之和。Jp(s)愈大說(shuō)明能量越分散,所以最小化Jp(s)將會(huì)使s的能量越集中,稀疏性越大。因此為了在等式約束x=As下最小化式(7),定義Lagrange函數(shù)L(s,λ)。
L(s,λ)=Jp(s)+λ(x-As)(8)
式中:λ∈RN,為L(zhǎng)agrange乘子矢量,那么式(8)的平衡點(diǎn)可以估計(jì)如下:
齭L(s*,λ*)=齭Jp(s)-ATλ*=0
λL(s*,λ*)=x-As*=0(9)
式中:齭Jp(s)=pD-1(s)s,其中D(s)=diag[sip-2]是對(duì)角矩陣,解方程(9)可得:
λ*=p[AD(s*)AT]-1x(10)
s*=p-1D(s*)ATλ*=D(s*)AT[AD(s*)AT]-1x(11)
從而可以得到估計(jì)最優(yōu)矢量s*的廣義FOCUSS迭代算法為:
s(k+1)=D[s(k)]AT{AD[s(k)]AT}-1x(12)
3 交替估計(jì)法
這類算法的特點(diǎn)是源信號(hào)和混合矩陣的估計(jì)過(guò)程交替進(jìn)行,直到收斂。它通常以最大化似然函數(shù)為目標(biāo),通過(guò)梯度尋優(yōu)的方式實(shí)現(xiàn)對(duì)混合矩陣的估計(jì),再在某一假設(shè)源信號(hào)概率分布的情況下采用最大化后驗(yàn)概率的方法估計(jì)源信號(hào),常采用的源信號(hào)模型有拉普拉斯分布[3-5]、高斯混合分布[6]、廣義高斯分布等。
3.1 最大化似然函數(shù)法估計(jì)混合矩陣
對(duì)于式(1)定義的模型,可以得到觀測(cè)數(shù)據(jù)x的似然函數(shù)為:
L=p(x|A)=∫p(x|A,s)p(s)ds(13)
采用最大化對(duì)數(shù)似然函數(shù)的方法來(lái)估計(jì)混合矩陣,那么目標(biāo)函數(shù)就變?yōu)?
=argmaxA[ln p(x|A)]
=argmaxA[ln∫p(x|A,s)p(s)ds](14)
式中:p(x|A,s)根據(jù)系統(tǒng)假設(shè)的噪聲模型的不同而不同,當(dāng)噪聲滿足高斯分布時(shí),有:
p(x|A,s)=12πM1σexp-‖x-As‖22σ2(15)
當(dāng)噪聲假設(shè)為具有更寬泛分布的廣義高斯分布時(shí),有:
p(x|A,s)=ρ2λΓ(1ρ)exp-|x-As|λρ(16)
式中:λ=Γ(1/ρ)Γ(3/ρ);Γ(?)表示伽瑪分布。
由于通信系統(tǒng)中很多情況下的噪聲都可以近似看作高斯噪聲,所以在后面的討論中,p(x|A,s)的分布一般采取式(15)。然而不管噪聲是何種分布,在過(guò)完備的情況下,由于A不可逆,使得式(13)中的積分計(jì)算相當(dāng)復(fù)雜,只能對(duì)上述積分進(jìn)行數(shù)值近似,常采用的近似方法有最大值近似 [2]和高斯積分法則近似[3-5]。最大值近似法一般要求被積函數(shù)p(x|A,s)p(s)具有相當(dāng)尖銳的分布,近似的過(guò)程忽略了大量的概率信息,且為了保證算法的收斂,要對(duì)A的列矢量的長(zhǎng)度加以限制,不然將會(huì)造成較大的近似誤差。然而高斯積分法則相對(duì)準(zhǔn)確,對(duì)被積函數(shù)的分布沒(méi)有特別要求。下面將分別介紹這兩種近似方法。
3.1.1 最大值近似
1997年,Olshausen和Field提出了最大值近似方法[1],它假設(shè)式(13)的被積函數(shù)p(x|A,s)p(s)具有相當(dāng)尖銳的分布,即:有一個(gè)最大值,其他的都很小,于是可以僅取此最大值作為式(13)的積分近似值,那么混合矩陣的估計(jì)式(14)就變?yōu)?
=argmaxA
式中:arg(?)表示求值。記E(x,s|A)=-ln[p(x|A,s)p(s)],則由式(15)可知:
E(x,s|A)=12σ2‖x-As‖2-∑Ni=1ln pi(si)+Const.(18)
那么式(17)變?yōu)?
=argminA
最小化E(x,s|A)的過(guò)程相當(dāng)于最小化式(18)的前兩項(xiàng),最小化第一項(xiàng)相當(dāng)于減小重建向量的誤差,從而使張成信號(hào)子空間,最小化第二項(xiàng)使s趨于最大稀疏分布,這兩項(xiàng)在最小化過(guò)程中相互影響,從而使的估計(jì)達(dá)到最優(yōu)值。
式(19)的優(yōu)化過(guò)程一般分兩步:首先,固定A,最小化E(x,s|A),求得,然后再固定,用梯度下降法最小化式(18)可得估計(jì)矩陣。
3.1.2 高斯積分近似
由于高斯積分近似中有:
∫f(x)dx靋onst?f()?-dd2xlog f(x)|x=-12(20)
所以式(13)可以近似為:
∫p(x|A,s)p(s)ds=const?p(x|A,s)?
p()|H|-(1/2)(21)
式中:H是p(x|A,s)p(s)在s=的Hessian矩陣:
H=-ddssTln p(x|A,s)p(s)|s=(22)
將式(15)代入式(21)并對(duì)之兩邊取對(duì)數(shù)得:
ln∫p(x|A,s)p(s)ds
∝ln p()-12σ2|x-A|2-12ln|H|(23)
H=1σ2ATA-ddssTln p(s)|s=(24)
將式(23),式(24)代入式(14),然后通過(guò)梯度上升法尋找其最大值點(diǎn),從而得到矩陣A自然梯度迭代估計(jì)式如下:
ΔA∝AAT氮礎(chǔ)ln P(x|A)-A[φ()T+I](25)
式中:φ()=[φ(1),φ(2),…,φ(N)]T,φ(i)=祃og P(i)礽稱為激活函數(shù)。
3.2 最大化后驗(yàn)概率法估計(jì)源信號(hào)[3-6]
在估計(jì)出混合矩陣后,可以在假設(shè)源信號(hào)滿足一定的概率分布下,通過(guò)最大化信源的后驗(yàn)概率來(lái)實(shí)現(xiàn)對(duì)源信號(hào)的估計(jì):
=maxs P(s|x,A)=maxsP(x|A,s)P(s)(26)
采用對(duì)數(shù)表示后可得:
=argmaxsln p(x|A,s)+ln p(s)(27)
對(duì)式(27)的計(jì)算可以采用梯度上升法或擬牛頓法求極值,兩者相比,擬牛頓法計(jì)算復(fù)雜度大幅度增加,但卻加快了收斂速度。
定義目標(biāo)函數(shù)J=ln p(x|A,s)+ln p(s),則梯度法的源信號(hào)迭代過(guò)程為:
s(k+1)=s(k)+ηs礘祍
=s(k)+ηs[-ATΨ()+φ()](28)
式中:=x-As,Ψ()=祃n P(1)1,祃n P(2)2,…,祃n P(M)礛T。
擬牛頓法的迭代過(guò)程[6]為:
s(k+1)=s(k)+ηs2J祍sT-1礘祍(29)
3.3 源信號(hào)模型
前面提到,超完備條件下的盲分離,由于混合過(guò)程中丟失的信息無(wú)法用傳統(tǒng)的數(shù)學(xué)手段來(lái)恢復(fù),而只能通過(guò)一些先驗(yàn)或假設(shè)來(lái)彌補(bǔ)這些丟失的信息,而在交替估計(jì)算法中,無(wú)論是對(duì)混合矩陣的估計(jì),還是對(duì)源信號(hào)的估計(jì),都需要知道源信號(hào)的概率密度函數(shù),因此需要建立源信號(hào)模型,一般可以采用拉普拉斯分布或高斯混合分布。
3.3.1 拉普拉斯分布模型[3-5]
對(duì)于語(yǔ)音信號(hào),大多具有超高斯分布,所以可以假設(shè)源信號(hào)服從拉普拉斯分布:P(si)∝exp(-α|si|),這時(shí)比較適合做語(yǔ)音信號(hào)的盲分離。通常還需假設(shè)源信號(hào)向量相互獨(dú)立,則:
P(s)=∏Ni=1P(si)∝∏Ni=1exp(-α|si|)(30)
此即為N維源信號(hào)的聯(lián)合概率分布。
3.3.2 高斯混合分布模型[6]
對(duì)于很多通信信號(hào)或圖像信號(hào),其概率密度并不滿足拉普拉斯分布。于是提出了采用更寬泛的信號(hào)概率模型:高斯混合模型,它既可以描述單峰分布,又可以描述多峰分布;既可以描述亞高斯信號(hào),又可以描述超高斯信號(hào)。即每一個(gè)信號(hào)都可以用一個(gè)Q維的高斯信號(hào)按照一定的比例混合得到:
p()=∑Qq=1κqpq(|λq)=
∑Qq=1κq(2π)N2|Σq|12exp-12(-μq)TΣ-1q(-μq)(31)
式中:N是s的維數(shù);κq,μq和Σq分別是混合權(quán)重,均值和協(xié)方差矩陣,它們均可以通過(guò)最大期望算法(Expectation Maximization,EM)[6]或交替條件期望最大(ACEM)算法[13]進(jìn)行估計(jì),在此不做具體介紹,可參看相關(guān)文獻(xiàn)。
3.3.3 信號(hào)模型比較
拉普拉斯分布模型,參數(shù)較少,因此計(jì)算代價(jià)相對(duì)較低,但是一般只適用于超高斯稀疏分布的語(yǔ)音信號(hào),一旦源信號(hào)與假設(shè)不同,將會(huì)造成較大的誤差。
高斯混合模型能更好地模擬不同的源信號(hào)分布,適用的范圍比較寬,但是參數(shù)很多,且會(huì)隨著源信號(hào)數(shù)目的增加呈指數(shù)增長(zhǎng),加上EM算法本身運(yùn)算復(fù)雜度高,所以這種模型的運(yùn)算量大,計(jì)算代價(jià)很高。
4 結(jié) 語(yǔ)
本文總結(jié)了大部分的超完備盲分離算法,將各算法歸納為兩步估計(jì)法和交替估計(jì)法兩類,這兩類算法各有許多不同的處理方法,文中較詳細(xì)地介紹了各算法的思想,且對(duì)各算法的適用條件和優(yōu)缺點(diǎn)進(jìn)行了對(duì)比和總結(jié)。
從文中介紹的各算法來(lái)看,目前超完備盲分離的研究基本上還都限于低維情況的研究,各算法的復(fù)雜度都較高,且都對(duì)系統(tǒng)模型加了許多假設(shè)和限制,所以今后超完備盲分離的研究重點(diǎn)是在非稀疏情況下的分離,在非對(duì)稱信號(hào)的情況下的盲分離,在高維觀測(cè)數(shù)據(jù)情況下的盲分離,以及計(jì)算復(fù)雜度的降低等方面的研究。
參考文獻(xiàn)
[1]Hyvarinen A,Karhunen J,Oja E.Independent Component Analysis[M].New York:John Wieley &Sons;,Inc.,2001.
[2]Olshausen B A,Field D J.Sparse Coding with an Overcomplete Basis Set:A Strategy Employed by VI[J].Vision Research,1997,37(23):3 311-3 325.
[3]Te-Won Lee,Lewicki M S.Mark Girolami,et al.Blind Source Separation of more Source than Mixtures using Overcomplete Representations[J].IEEE Signal Processing Letters,1999,6(4):87-90.
[4]Lewicki M S,Olshausen B A.Probabilistic Framework for the Adaptation and Comparison of Image Codes[J].Journal of the Optical Society of America: Optics,Image Science and Vision,1999,16(7):1 587-1 601.
[5]Lewicki M S,Sejnowski T J.Learning Overcomplete Representations[J].Neural Computation,2000,12(2):337-365.
[6]Khor L C,Woo W L,Dlay S S.Non-sparse Approach to Underdetermined Blind Signal Estimation[A].IEEE International Conference on Acoustic,System and Signal Processing[C].2005(5):309-312.
[7]Theis F J,Lang E W.Formalization of the Two-step App-roach to Overcomplete BSS[A].Proc.of SIP[C].Hawaii,2002.
[8]Theis F J,Jung A,Lang E W,et al.A Theoretic Model for Geometric Linear ICA[A].Proc.of ICA[C].2001:349-354.
[9]Theis F J,Lang E W.Geometric Overcomplete ICA[A].Proc.of ESANN[C].2002:217-223.
[10]Bofill P,Zibulevsky M.Underdetermined Blind Source Separation Using Sparse Representations[J].Signal Process,2001,81(11):2 353-2 362.
[11]Amari S,Cichocki A.自適應(yīng)盲信號(hào)與圖像處理[M].北京:電子工業(yè)出版社,2005.
[12]楊福生,洪波.獨(dú)立分量分析的原理與應(yīng)用[M].北京:清華大學(xué)出版社,2006.
[13]檀志斌.線性盲信號(hào)分離中多信號(hào)源少觀測(cè)源問(wèn)題的研究[D].合肥:中國(guó)科技大學(xué),2004.