蔣衛(wèi)恒 段耀星 李明玉* 靳 一 徐常志 李 立
①(重慶大學微電子與通信工程學院 重慶 400044)
②(中國空間技術(shù)研究院西安分院 西安 710100)
在5G時代,隨著無線通信系統(tǒng)對高速率、大容量以及更高效率的不斷追求,復雜的調(diào)制方式和大帶寬信號在發(fā)射系統(tǒng)中得到廣泛應用[1],這就要求在發(fā)射機系統(tǒng)中使用更加復雜的功率放大器構(gòu)架和線性化設(shè)計方法。同時,作為發(fā)射機中最為耗電的器件,功放的效率通常會對整個發(fā)射機的效率產(chǎn)生很大的影響,為了提高其工作效率,功率放大器通常會工作在其非線性區(qū)[2],這會導致發(fā)射信號產(chǎn)生非線性失真,必須采用有效的方法對功率放大器產(chǎn)生的非線性失真進行補償,數(shù)字預失真是目前最常用的方法[3]。
在過去數(shù)十年中,涌現(xiàn)了許多數(shù)字預失真方法?;谖痔乩?Volterra)級數(shù),業(yè)界進行了刪減并降低其復雜度的模型成為主流,比如記憶多項式(Memory Polynomial, MP)模型[4]、廣義記憶多項式(Generalized Memory Polynomial, GMP)模型[5]、動態(tài)偏差減少(Dynamic Deviation Reduction,DDR) 模型[6]。對于帶寬更寬的信號,需要更高的反饋采樣率,高采樣率對模數(shù)轉(zhuǎn)換是極大的開銷。文獻[7]利用信號的循環(huán)平穩(wěn)特性,使用欠采樣的反饋信號解決這個問題。同時,基于蘭德韋伯(Landweber)迭代算法的預失真方法也用來降低反饋通道的采樣率[8]。對于常用的預失真系統(tǒng),模型的復雜度和建模精度之間是一種矛盾的關(guān)系,提高建模的精度需要使用復雜度更高的模型。功率放大器在不同的功率級別上會表現(xiàn)出不同的非線性和記憶性[9],因此業(yè)界提出了針對功放的功率分段建模的方法。文獻[10]提出了一種模型選擇方法,根據(jù)輸入信號的幅度選擇不同的模型,來達到分段建模的目的,然而這種方法沒有考慮功放的記憶效應,是一種無記憶模型。這種分段方法也被運用到雙帶傳輸系統(tǒng)[11],通過兩個基帶的信號幅度選擇合適的模型,但同樣沒有考慮記憶性。文獻[12]提出了一種向量選擇模型,通過聚類算法將輸入向量做聚類,不同的類選擇不同的模型系數(shù),但這種模型在做聚類時,模型的記憶輸入項和當前輸入項權(quán)重相同,這不符合功率放大器的記憶性質(zhì),會使建模精度降低。分段仿射函數(shù)的方法同樣被用在分段建模方法中[13],在不同的輸入信號幅度上選擇不同的仿射函數(shù)作為非線性算子來構(gòu)建功放的非線性行為。文獻[14]提出了一種基于增強模型樹的模型選擇方法,這種方法利用模型樹分類為每一類輸入數(shù)據(jù)選擇對應的系數(shù)。但模型樹的訓練計算復雜度很高,并且用模型樹算法對輸入序列進行分類選擇系數(shù),也有著很大的計算量。
針對以上問題,本文提出一種基于維度加權(quán)的盲K近鄰(K-Nearest Neighbor, KNN)分類算法,與記憶多項式模型進行結(jié)合,組成維度加權(quán)盲KNN記憶多項式(dimensional-Weighted blind KNN Memory Polynomial, WKMP)模型。KNN算法的基本應用業(yè)界已有報道,文獻[15]利用調(diào)制信號的星座圖特點進行聚類得到已知數(shù)據(jù)集,提出了一種無數(shù)據(jù)輔助的KNN算法運用于盲均衡。與上述方法不同的是,本文在進行KNN分類之前首先使用K-means算法對數(shù)據(jù)集進行聚類,得到有標簽的數(shù)據(jù)集,完成KNN分類算法的數(shù)據(jù)集準備。進一步在進行KNN分類時,每一級記憶延遲項使用單獨的權(quán)重進行加權(quán),越靠近當前時刻輸入,權(quán)重越大,使輸入項對分類的影響隨記憶階數(shù)增加而降低,以吻合功率放大器的實際記憶特性。同時,確保聚類之后的數(shù)據(jù)中,每一類的輸入信號序列都是相似的,使功放可以用同一個行為模型進行描述,再對同一類的輸入數(shù)據(jù)使用相同的行為模型,以此來提高建模的精度。實驗證明,基于維度加權(quán)的KNN分類模型與記憶多項式模型結(jié)合形成的WKMP模型在功放的正向建模精度和數(shù)字預失真效果均超過了廣義記憶多項式的水平,有著優(yōu)良的性能。
本文結(jié)構(gòu)如下,第2節(jié)介紹所提基于維度加權(quán)的盲KNN分類模型以及子模型的系數(shù)提取方法,第3節(jié)給出實驗結(jié)果和各個模型之間的性能對比,第4節(jié)總結(jié)。
為了對功放在不同輸入信號功率上的非線性記憶性進行建模和預失真,本節(jié)提出基于維度加權(quán)的盲KNN記憶多項式(WKMP)模型。所提模型對輸入信號序列進行維度加權(quán)的KNN分類,使同類數(shù)據(jù)之間具有較高的相似性,為每一類數(shù)據(jù)進行非線性系統(tǒng)辨識,獲得單獨的系數(shù),以提高模型的性能。
KNN分類算法是一種監(jiān)督學習的機器學習分類算法,以所有已知類別的樣本作為參考,計算未知類別的樣本與所有參考樣本的相似程度,并從中選取與未知樣本最為相似的K個已知類別的樣本,根據(jù)投票規(guī)則,將未知類別的樣本與K個選中樣本中相似程度最高的歸為一類[13]。
未知類別的樣本與參考類別的樣本之間的相似性通過歐幾里得距離衡量。參考樣本集T={(x1,y1),(x2,y2),...,(xN,yN)},xi ∈X ?Rn表 示n維參考樣本,yi ∈Y={c1,c2,...,ck}表示參考樣本所屬的類別。對于未知樣本xj,使用歐幾里得距離計算與其他參考樣本之間的相似程度,如式(1)所示
其中,k表示樣本數(shù)據(jù)的維數(shù),即向量中的元素序號,通過計算出未知樣本與所有參考樣本的距離,可找出前K個最小距離,根據(jù)前K個與未知樣本之間的距離最小的參考樣本的所屬類確定未知樣本的所屬類。
在對未知樣本進行投票確定其所屬類時,考慮到數(shù)據(jù)之間越相似,應該在投票時擁有更大的權(quán)重,因此,使用距離對投票的權(quán)重進行加權(quán),使投票的結(jié)果更加合理。加權(quán)總和投票規(guī)則的表達式如式(2)所示
使用與未知樣本距離最近的K個參考樣本進行加權(quán)投票,最終票值最大的類別即為未知樣本的類別。但傳統(tǒng)的KNN分類算法運用于數(shù)字預失真時存在不足之處。首先,傳統(tǒng)的KNN分類算法在進行歐幾里得距離運算時,每一個特征權(quán)重相同,對數(shù)據(jù)分類的影響程度是一致的。但是在進行功率放大器(Power Amplifier, PA)建模的時候,PA的輸出更多會受到當前的輸入信號的影響,并隨著記憶深度加深,此前輸入的信號的影響逐漸減小。因此,在進行模型輸入信號序列分類時,應使用加權(quán)因子使特征的權(quán)重隨記憶深度加深而減小。其次,由于KNN算法是監(jiān)督學習的算法,算法的運行依賴參考樣本集,且算法的性能也與樣本集的精度相關(guān)。要使用KNN算法進行分類,首先必須有一組參考樣本集。針對以上兩個問題,提出了維度加權(quán)的盲KNN算法。
針對功放記憶效應,應該為輸入向量的不同維的數(shù)據(jù)在分類時賦予不同權(quán)重的問題,提出了維度加權(quán)的KNN算法。KNN算法在進行分類時,使用歐幾里得距離來衡量樣本間的相似度,因此,在計算距離時,應該對不同維度的數(shù)據(jù)進行加權(quán),使其對距離計算的貢獻程度不同。將KNN算法的距離計算公式改寫為
ωk是對不同維的數(shù)據(jù)的加權(quán)值,如此,在計算未知樣本與參考樣本集距離最近的K個樣本時,權(quán)重的不同就能使不同維的數(shù)據(jù)對分類結(jié)果的影響程度不同。
針對KNN需要參考樣本集的問題,提出了基于K-means輔助的盲KNN分類算法。在進行KNN分類之前,首先使用K-means聚類算法對已知數(shù)據(jù)集進行聚類,K-means聚類算法在進行聚類時,也使用距離相近原則,使式(5)代價函數(shù)的值最小
其中,j表 示第j個 類別,i表 示第i個 樣本,k表示樣本的第k個特征,ui,j表 示第i個 樣本對第j個類別的從屬度,zj表 示第j個類別的聚類中心。使用K-means聚類之后的每一類數(shù)據(jù)集之間,天然便有著距離相近的特點。并且,每一個數(shù)據(jù)都有著聚類之后的標簽,可以作為KNN分類算法參考樣本集。
同時,對于參考樣本,同樣希望同一個類的數(shù)據(jù)之間相似程度的衡量方式對向量中不同維數(shù)據(jù)有所側(cè)重,因此,在使用K-means進行預訓練時,也需要對K-means的聚類方法進行修改,使用加權(quán)的K-means聚類算法[16],即修改K-means代價函數(shù)為
其中,ωk對距離計算時不同維數(shù)據(jù)的加權(quán)值。通過迭代優(yōu)化樣本類別從屬度和聚類中心來使代價函數(shù)達到最小。樣本類別從屬度通過式(7)進行優(yōu)化
其中,ui,a表 示第i個 樣本對第a個類別的從屬度,從屬度通過類別與聚類中心的加權(quán)距離進行衡量。聚類中心通過式(8)進行優(yōu)化
zj表 示更新之后的第j類的聚類中心。至此,得到了加權(quán)K-means聚類算法,通過維度權(quán)值ωj來調(diào)節(jié)每個維度數(shù)據(jù)對聚類結(jié)果的影響程度,使聚類的過程貼近于功放的記憶效應。
終上所述,所提維度加權(quán)的盲KNN分類算法在進行分類時,可以調(diào)節(jié)每個特征對于分類結(jié)果的影響,運用于數(shù)字預失真時更加接近功放的實際工作特性。同時,使用K-means聚類進行輔助,克服了KNN分類算法需要有參考樣本的問題。所提維度加權(quán)的盲KNN分類算法由兩部分組成,如圖1所示。
圖1 維度加權(quán)的盲KNN算法流程
維度加權(quán)的盲KNN算法由兩部分組成,首先是訓練模型,使用加權(quán)K-means聚類算法,對一部分樣本進行聚類,得到帶有標簽的參考樣本集。然后是進行加權(quán)KNN分類,對于未知樣本,使用維度加權(quán)的距離選擇參考樣本中最近的K個樣本,再使用加權(quán)投票規(guī)則得到未知樣本的類別。
對于一個數(shù)字預失真模型(比如記憶多項式模型),記憶深度為M,則每一次模型的輸入數(shù)據(jù)設(shè)為M維向 量X(n)=(x(n),x(n ?1),...,x(n ?M+1))。對于每個輸入向量,令模型的輸出為y(n),其輸入輸出表達式為
輸入輸出之間可以一種函數(shù)關(guān)系描述,即y(n)=F(x(n),x(n ?1),...,x(n ?M+1)),對 于記憶多項式模型來說,這種函數(shù)關(guān)系是固定的,由模型系數(shù)確定,這種固定的關(guān)系表明對過去時刻不同功率的輸入信號產(chǎn)生的記憶效應,通過固定的映射關(guān)系影響當前輸出。然而不同輸入功率的信號會使功放行為不同,記憶效應也不同。在不同的輸入功率下采用不同的函數(shù)F,會極大地提高模型的精準度,其表達式為
同時,由于記憶效應,模型當前的輸出還和過去時刻的輸入有關(guān),而過去時刻的輸入由于功率的不同,產(chǎn)生的記憶效應影響也不同。功率放大器的行為不僅和當前的輸入信號x(n)的功率有關(guān),還和過去時刻的輸入信號x(n ?1),x(n ?2),...的功率有關(guān)。
針對這種特性,提出了基于維度加權(quán)的盲KNN記憶多項式預失真模型(WKMP),將模型的輸入 序 列X(n)=(x(n),x(n ?1),...,x(n ?M+1))作為未知樣本,以每一維數(shù)據(jù)的幅度為特征,即XKNN(n)=(|x(n)|,|x(n ?1)|,...,|x(n ?M+1)|),通過加權(quán)KNN分類算法進行分類,分類后的每一類數(shù)據(jù)在數(shù)據(jù)的幅度上有著距離相近的特點,對應相似的功放行為,再通過不同的子模型進行處理。預失真采用直接學習結(jié)構(gòu)實現(xiàn),在加入基于維度加權(quán)的盲KNN算法后,其結(jié)構(gòu)如圖2所示。
圖2 WKMP模型DPD結(jié)構(gòu)框圖
首先是進行參考樣本集的訓練,將已知的發(fā)射數(shù)據(jù)重新排列,形成每一次的輸入是包含記憶項的向量形式,以向量的中每一維數(shù)據(jù)的幅度作為聚類依據(jù),并選擇合適的維度加權(quán)值來表征記憶項對當前輸出的影響程度,進行加權(quán)K-means聚類,得到帶有標簽的參考樣本集。進行數(shù)字預失真(Digital PreDistortion, DPD)處理或PA建模時,再根據(jù)輸入序列X(n)=(x(n),x(n ?1),...,x(n ?M+1))的加權(quán)KNN分類結(jié)果選擇對應的子模型進行處理。
對于每一個模型輸入序列,同一類的輸入信號向量之間會有很高的相似性,所造成的功放非線性和記憶效應都是相似的,對同一類輸入序列采用同一子模型對功率放大器進行建模,可以極大提高模型的精度。并且將模型的輸入序列進行分類,可以視作將輸入空間進行劃分,對應著將功放的行為模型進行劃分,每一段子輸入空間對應著一段功放行為模型,在通過子模型的輸入輸出數(shù)據(jù)進行建模后,子模型的數(shù)學模型與功放的實際模型進行匹配,組合在一起構(gòu)成完整的功放行為模型。每一個子模型擁有獨立的系數(shù),只對功放的一部分行為進行建模,因此可以獲得較高的精準度。例如,在進行參考樣本集的訓練時,在幅度上將輸入信號序列劃分為8類,對于模型的輸入信號來說,輸入信號向量被劃分為了8類,并且每一類輸入信號由對應的DPD模型單獨處理,每一個DPD模型有著自己獨立的系數(shù),充分對功率放大器在不同工作條件下產(chǎn)生的不同的非線性效應與記憶效應進行建模,提高模型的建模和預失真的能力。
對于一般的直接學習結(jié)構(gòu)的預失真模型,文獻[17]給出了基于牛頓迭代的系統(tǒng)辨識方法。然而,在WKMP模型中,輸入的信號向量使用了維度加權(quán)的KNN分類方法進行了分類,每一類的輸入向量由對應的子模型進行處理。這種情況下,對于模型的輸入信號序列X(n)=(x(n),x(n ?1),...,x(n ?M+1)),X(n)表 示n時刻模型的輸入信號序列,當時刻n發(fā)生變化時,輸入信號序列X(n)所屬的子模型會發(fā)生變化。則原輸入信號所形成的預失真模型基函數(shù)矩陣將不再適用于各個子模型,需要為各個子模型的輸入序列計算其基函數(shù)矩陣,并尋找合適的系統(tǒng)系數(shù)計算方法。
對于功率放大器的正向建模,模型的輸入序列X(n)與 模型的輸出y(n)之間是一一對應的關(guān)系。當采用記憶多項式模型作為子模型的結(jié)構(gòu)時,令第k個子模型的基函數(shù)矩陣Hk, 其系統(tǒng)系數(shù)為ωk,則模型輸出可用式(11)表示yk表 示第k個子模型的輸出,如y1=(y(1),y(3),...,y(L)), 整個模型的輸出由所有的子模型輸出一起構(gòu)成。對于單個子模型而言,輸入數(shù)據(jù)所構(gòu)成的基函數(shù)矩陣和輸出之間是一種線性關(guān)系,則子模型對功率放大器的正向建模的系統(tǒng)系數(shù)可以通過最小二乘的方法求得,如式(12)所示
將WKMP模型運用于數(shù)字預失真時,每一個子模型的系數(shù)不同,并且進行維度加權(quán)的盲KNN分類之后,輸入信號序列會根據(jù)分類結(jié)果由不同的子模型進行處理,模型輸出y的各元素y(n)由不同的子模型輸出,同時,由于功率放大器的記憶效應,功率放大器的輸出z(n)是與多個子模型的輸出相關(guān)的,因此需要一種適合的算法計算各個子模型的系數(shù)。對于預失真系統(tǒng)而言,目的是使模型的輸入信號與功放的輸出信號一致,輸入輸出誤差可由式(13)表示
令代價函數(shù)如式(14)表示
代價函數(shù)和系統(tǒng)系數(shù)緊密相關(guān),其變化可以通過代價函數(shù)對子系數(shù)的共軛ωk?的導數(shù)體現(xiàn),使代價函數(shù)對第k個子系統(tǒng)的系數(shù)共軛ωk?求導為
為了驗證所提基于維度加權(quán)的盲KNN記憶多項式模型的性能,本節(jié)使用了一套包含計算機(Personal Computer, PC)、矢量信號發(fā)生器(Vector Signal Generator, VSG)、Doherty功率放大器、頻譜分析儀(Vector Spectrum Analyzer,VSA)、電源、衰減器等模塊的實驗平臺進行驗證。測試使用的PA工作在2.2 GHz,輸出信號的平均功率為34 dBm。計算機和矢量信號發(fā)生器使用局域網(wǎng)(Local Area Network, LAN)進行連接,VSG發(fā)射信號經(jīng)驅(qū)動放大后傳輸?shù)焦β史糯笃?,組成傳輸路徑。功率放大器的輸出信號經(jīng)過衰減器后傳輸?shù)絍SA,再由VSA通過LAN連接到計算機構(gòu)成反饋路徑。圖3 給出了實驗平臺現(xiàn)場圖。使用ADS2020進行基帶信號的產(chǎn)生,所有信號處理和訓練過程均在MATLAB中進行。基帶信號使用了帶寬為30 MHz、采樣率122.88 MHz、峰值平均功率比為8.52 dB的3載波長期演進(Long Term Evolution, LTE)信號。
圖3 實驗平臺現(xiàn)場圖
在功率放大器的行為正向建模時,使用歸一化均方誤差(Normalized Mean Squared Error,NMSE)作為建模精度的指標。在DPD測試中,使用相鄰信道功率比(Adjacent Channel Power Ratio, ACPR)來衡量模型的線性化性能,并使用歸一化均方誤差(Normalized Mean Squared Error,NMSE)來衡量模型預失真的信號還原效果。
在實驗中,WKMP模型的子模型使用階數(shù)為3,記憶深度為3,即有16個參數(shù)的記憶多項式模型,選擇子模型數(shù)量為1~9,進行對比不同子模型數(shù)量對于WKMP模型正向建模能力的影響。為了直觀了解所提出模型的性能,使用了僅使用未加權(quán)KNN的記憶多項式模型(KMP)作為對比,子模型和WKMP采用同樣16個參數(shù)的MP模型,同時,使用記憶深度為5,階數(shù)為4,總共92個參數(shù)的GMP模型和階數(shù)為3,記憶深度為3,16個參數(shù)的MP模型作為性能對比。
在進行PA的正向建模時,信號不經(jīng)過處理,直接通過矢量信號發(fā)生器發(fā)射,經(jīng)過PA放大和衰減器的衰減,接入頻譜分析儀,MATLAB通過局域網(wǎng)對VSA采集到的信號進行對齊,再進行功放行為模型的建模。WKMP模型的建模信號的功率譜信號與PA實際輸出信號的功率譜如圖4所示。
圖4 WKMP建模功率譜
隨著子模型數(shù)量的增多,WKMP模型和KMP模型的建模精度均會提高,但WKMP模型的建模精度在所有子模型分類數(shù)上均比KMP模型有著較大的提升,這一點可以在圖5中看出。并且,太多的子模型數(shù)量會使模型訓練所需要的數(shù)據(jù)增多,同時也將會增大系數(shù)確認的計算量,因此,需要考慮子模型的數(shù)量和性能的關(guān)系,在實驗中選擇8個子模型。
圖5 建模精度和子模型數(shù)量的關(guān)系
如表1所示,在PA的正向建模精度上,根據(jù)結(jié)果,所提出WKMP模型相比于MP模型,其歸一化均方誤差降低13.95 dB,從–36.72 dB提升到了–50.67 dB,而與GMP模型相比提高了2.68 dB,同時相比于僅使用了未加權(quán)的KNN的KMP模型,在子模型數(shù)量為8時,WKMP模型的建模精度提高了6.36 dB??梢钥闯觯岢龅腤KMP模型在PA正向建模能力上,已經(jīng)遠超MP模型,也超過了GMP模型的建模能力,表現(xiàn)出了優(yōu)異的PA建模能力。
表1 3種模型PA正向建模精度對比(dB)
進一步驗證提出模型的DPD性能,實驗采用的4種模型均采用直接學習結(jié)構(gòu),迭代次數(shù)設(shè)置為10次,再驗證系數(shù)更新完善后的模型的DPD能力。4種模型的DPD后PA輸出信號的功率譜如圖6所示??梢钥闯?,在4種模型的線性化效果對比中,WKMP模型表現(xiàn)出了最為優(yōu)異的性能。
圖6 4種模型DPD輸出信號功率譜
所提模型線性化后的幅度調(diào)制-幅度調(diào)制(Amplitude Modulation-Amplitude Modulation, AMAM)曲線和相位調(diào)制-相位調(diào)制(Phase Modulation-Phase Modulation, PM-PM)曲線如圖7所示??梢詮腁M-AM曲線中看出,即使PA表現(xiàn)出了顯著的非線性和記憶性,但所提出的WKMP模型仍然能夠表現(xiàn)出很好的線性化能力,具體的DPD性能結(jié)果如表2所示。
表2 各模型的DPD性能對比
圖7 WKMP模型AM-AM和PM-PM曲線
所提WKMP模型在DPD表現(xiàn)上與PA的正向建模表現(xiàn)一致,均表現(xiàn)出了極高的性能,相比于未經(jīng)過DPD的輸出信號,其ACPR提高了14.4 dBc,并且相較于MP模型,有著3.34 dBc的性能提高,而與GMP模型相比,則超過了GMP模型1.02 dBc,也超過了KMP模型1.40 dBc。而僅經(jīng)過未加權(quán)KNN分類的KMP模型雖然相較于MP模型有著1.94 dBc的性能提升,但相較于GMP模型還有著0.38 dBc的差距。同時,在信號還原效果上,WKMP模型也在4種模型中表現(xiàn)出最為優(yōu)秀的性能,其NMSE達到了–43.28 dB的水平,相較于MP模型和GMP模型分別提升了11.81 dB和12.63 dB。
同時,相較于MP模型而言,本文所提WKMP模型僅會在確定模型輸入信號序列的類別時增加計算復雜度,在信號的預失真處理和模型系數(shù)確認中由于采用相同階數(shù)和記憶深度的多項式,計算復雜度不會有大的變化,總的計算復雜度雖會超過MP模型的計算復雜度,但相較于GMP模型,仍然有著很大的優(yōu)勢。表3給出幾種模型計算復雜度的對比,計算復雜度使用迭代一次所用的復數(shù)乘法次數(shù)來衡量,其中,K是進行加權(quán)KNN判別的已知數(shù)據(jù)集個數(shù),K=500,N代表訓練所用的數(shù)據(jù)總的點數(shù),N=16384,Ni和Nj分別表示W(wǎng)KMP模型和KMP模型的第i個子模型和第j個子模型的數(shù)據(jù)點數(shù),P代表模型的基函數(shù)數(shù)量,即系數(shù)的數(shù)量,PMP=PKMP=PWKMP=16, PGMP=92。
從表3給出的各模型的計算復雜度對比, WKMP模型雖然相比于MP模型的有較大的計算復雜度,但換來了性能的大幅度提升,同時WKMP模型計算復雜度與KMP模型相當,卻做到了更好的數(shù)字預失真和建模表現(xiàn)。并且,在計算復雜度只有GMP模型的1/3的情況下,WKMP模型表現(xiàn)出了比GMP模型更加優(yōu)異的性能。
表3 各模型的計算復雜度對比
本文提出一種基于維度加權(quán)的盲KNN記憶多項式數(shù)字預失真算法,充分考慮到功率放大器的行為模型與當前輸入信號的幅度以及此前輸入信號的幅度有關(guān),即功放的非線性和記憶效應受輸入信號幅度的影響的特點。通過引入維度加權(quán)的方法,對未知樣本分類時不同維的數(shù)據(jù)對分類結(jié)果的影響進行加權(quán),更加貼近功放的實際記憶特性,并使用維度加權(quán)的K-means聚類算法進行參考樣本的預訓練,克服了KNN算法需要參考樣本集的問題。使用維度加權(quán)的盲KNN算法,對模型的當前時刻和記憶輸入項分別進行分類,并根據(jù)分類結(jié)果確定模型的輸入信號序列所屬的類,不同的類進行不同的行為模型建模。實驗證明,本文所提WKMP模型擁有優(yōu)良的功放建模能力和線性化能力,在功放呈現(xiàn)出顯著非線性記憶效應的條件下,仍然能很好地補償功放的非線性記憶效應,為新一代無線通信系統(tǒng)中的數(shù)字預失真系統(tǒng)設(shè)計提供了一種有效的方案和思路。