桑慶兵,高 雙
江南大學 物聯(lián)網(wǎng)工程學院,江蘇 無錫 214122
四元數(shù)小波變換的無參考圖像質(zhì)量評價*
桑慶兵+,高 雙
江南大學 物聯(lián)網(wǎng)工程學院,江蘇 無錫 214122
提出了一種新的利用四元數(shù)小波變換的通用型無參考圖像質(zhì)量評價算法,其利用四元小波金字塔將二維圖像映射到四維空間,每層可以表示為1個幅值和3個相位(Φ,θ,ψ),其中ψ相位包含豐富的圖像紋理信息,能有效表征圖像的結(jié)構(gòu)信息。因此,通過提取各尺度ψ相位中能有效表征圖像失真程度的特征,并構(gòu)成特征向量,通過支持向量回歸(support vector regression,SVR)模型預測圖像質(zhì)量得分。實驗結(jié)果表明,該算法能有效反映各失真類型圖像的視覺感知質(zhì)量,斯皮爾曼等級相關系數(shù)值能達到0.942。
無參考圖像質(zhì)量評價;四元數(shù)小波變換;四元小波金字塔;支持向量回歸(SVR)
圖像/視頻質(zhì)量表示圖像向設備和人提供信息的能力[1],是評估圖像/視頻處理系統(tǒng)或算法性能的重要指標。在實際應用中,往往不能獲得原始圖像相關信息,大大限制了全參考(full-reference,F(xiàn)R)和半?yún)⒖迹╮educed reference,RR)圖像質(zhì)量評價方法的應用。因此,開發(fā)一種簡單且有效的無參考圖像評價算法(no-reference image quality assessment,NR-IQA)尤為重要。
判斷圖像質(zhì)量的好壞主要依據(jù)圖像中邊緣和輪廓的判斷,紋理作為圖像的基本特性,可以有效反映圖像的邊緣和結(jié)構(gòu)特征變化,在一定程度上表征了圖像質(zhì)量的失真程度。常用的圖像紋理分析方法主要有結(jié)構(gòu)法、統(tǒng)計法和模型法。然而,這些方法都是在鄰域、單一范圍的空間中相互作用的分析,因此往往局限在顯微紋理方面的分析,并且采用的單分辨率技術也導致了紋理分析結(jié)果不理想。
近年來,小波變換作為新興的一種多尺度分析方法,主要被應用于基于小波的紋理分類[2]、紋理分析[3]等。雖然傳統(tǒng)小波變換在紋理分類中已經(jīng)取得了顯著成果,但僅僅是把指定圖像分解為0°、90°、135°的水平、垂直和對角線3個方向上的平滑子帶,這就嚴重制約了小波變換對于旋轉(zhuǎn)不變紋理圖像的分析[4]。
由于四元數(shù)可以表示2D實值信號,從而相應的基于四元數(shù)的小波尺度函數(shù)、小波函數(shù)的構(gòu)造就成為解析二維信號的關鍵。四元數(shù)小波變換(quaternion wavelet transform,QWT)理論是實小波、二維希爾伯特變換及四元數(shù)代數(shù)理論相結(jié)合產(chǎn)生的,可以為二維圖像提供具體的相位信息。相對于小波變換,QWT克服了實小波變換的兩個不足:第一,當信號(圖像)微小平移后,圖像的邊緣區(qū)域和平滑的特征會產(chǎn)生很大的變化,造成邊緣的模糊;第二,用相位來表示圖像的局部信息。雙樹復小波變換(dual-tree complex wavelet transform,DCWT)雖然很好解決了第一個問題,但它只有一個幅角,在表示二維圖像特征時容易出現(xiàn)信號相位歧義。Gabor變換[5]能很好地同時在頻域、時域中滿足信號對分辨率的要求,成為圖像紋理特征提取中最常用的方法,但其計算復雜,一般在提取特征后,還要進行降維處理。QWT具有旋轉(zhuǎn)不變性,并且能對二維信號進行局部幅值和相位分析,計算簡單。這些都可以彌補傳統(tǒng)小波變換在圖像處理中的一些不足。目前國內(nèi)外已有將QWT應用到圖像處理上的研究。文獻[6]利用QWT理論提出了一種基于圖像多分辨率的視差估計方法。文獻[7]充分利用了QWT的旋轉(zhuǎn)不變性、平移不變性進行圖像的分析與處理。文獻[8]首次將QWT理論應用在圖像紋理分類方面,并證明了其方法的可行性。目前把QWT中紋理特征分類與圖像質(zhì)量評價聯(lián)系起來還沒有相關的研究。
本文在上述思想的基礎上,綜合利弊,將QWT理論與支持向量機(support vector machine,SVM)相結(jié)合進行無參考圖像質(zhì)量評價,擴展了QWT理論的應用范圍。首先對圖像進行四元數(shù)小波變換,提取失真圖像多個角度和不同尺度的1個幅值和3個相位(Φ,θ,ψ)信息,在考慮圖像失真和人類視覺系統(tǒng)的局部性特點基礎上,利用ψ相位所蘊含的圖像紋理信息,分別在每個尺度提取平均梯度、加權方差、能量,共計27個參數(shù)作為紋理特征,把這27個參數(shù)作為分類特征,利用支持向量回歸(support vector regression,SVR)模型預測圖像質(zhì)量。以下在分析QWT和SVM理論的基礎上,詳細介紹了本文算法,并通過實驗驗證了算法的有效性。
2.1 四元數(shù)代數(shù)
四元數(shù)是傳統(tǒng)復數(shù)概念的推廣,是Clifford代數(shù)的一個子代數(shù)[9]。四元數(shù)q可以用式(1)表示如下:
其中,qr、qi、qj、qk均是實數(shù);i、j、k均是虛部單位且滿足:
由上可知,Hamilton四元數(shù)不符合乘法交換律。四元數(shù)q的共軛為q=qr-qii-qjj-qkk。四元數(shù)的幅值。
在極坐標下四元數(shù)q可以表示為:q=|q|eiΦejψekθ。其中|q|表示四元數(shù)的幅值,它具有平移不變性,(Φ,θ,ψ)是四元數(shù)的3個相位角[10],取值范圍為:
2.2 四元數(shù)小波變換
定義1[11]令 f是一個實二維信號。二維四元數(shù)解析信號定義為:
其中:
函數(shù) fHi1和函數(shù) fHi2是 f(x)的部分Hilbert變換函數(shù);δ(x)和δ(y)是分別沿二維坐標軸的脈沖函數(shù);**是二維卷積操作。QWT的4個標準正交基用矩陣形式可表示為:
其中每一行表示QWT的一路獨立小波,每一列表示其變換的一個子帶。如下是對角子帶的表示形式:
利用四元數(shù)代數(shù),可以將4個組分組成為一個四元數(shù)小波函數(shù)[10],即:
四元數(shù)的相位角(Φ,θ,ψ)的具體計算可參考文獻[10]。如圖1所示給出一個三級四元數(shù)小波變換的例子。從圖中可以看出ψ相位包含圖像的紋理信息,Φ、θ相位編碼圖像結(jié)構(gòu)的空間位置信息,在一些文獻中Φ、θ相位被用來做視差估計。由于ψ相位可以很好地反映圖的紋理結(jié)構(gòu)信息[12],本文選用其相位信息預測圖像質(zhì)量。
四元數(shù)小波變換(QWT)有非常豐富的多尺度空間分析能力,因此QWT在二維信號的幅值和相位信息特征提取方面具有獨特優(yōu)勢。每個子帶任何位置的特征都可以用幅值表示,同時相位提供了局部特征。隨著更多表征圖像紋理信息的特征被選取,QWT在某種程度上為SVR分類提供了一個良好的基礎。為了能準確有效地度量圖像的失真程度,通過QWT選取平均梯度、加權方差和能量來提取圖像特征。
Fig.1 Result of image three level quaternion wavelet transform圖1 圖像三級四元數(shù)小波變換實驗結(jié)果
3.1 平均梯度
平均梯度能有效反映圖像的清晰度。它通過一階差分來獲取該像素點和其相鄰像素之間的差異程度,其變化的快慢反映了圖像細節(jié)信息上反差的大小,最終決定了圖像的清晰度。在一定程度上它還能反映出圖像的紋理變換特征。平均梯度計算公式為:
其中,ΔIx與ΔIy分別為沿坐標軸x與y方向上的一階差分。四元數(shù)小波分解中的高頻信息ψ相位包含表征圖像的局部紋理特征,文中用平均梯度來度量局部紋理特征。
3.2 加權標準偏差
標準偏差在四元數(shù)小波中表示相位的相對分布態(tài)勢,為了使標準偏差更能反映圖像的特征,本文對標準偏差進行加權。一個高的幅度值意味著一個顯著的圖像特征,然而一個低的幅度值意味著沒有特征或者是不重要的特征,幅度值很好地展現(xiàn)了其關注顯著性特征性質(zhì),因而使測量更具有代表性。定義權重函數(shù)W是該子帶QWT低頻系數(shù)歸一化的值,它和標準偏差結(jié)合的公式如下:
式中,uw=∑ijwijψij是權重均值;N是子帶系數(shù)中像素的個數(shù);i、j分別為圖像像素點的離散坐標,若圖像的原始尺寸為M×N,則1≤i≤M,1≤j≤N。
3.3 能量
圖像銳利度是圖像的一種重要視覺感知度量,它可以通過小波變換后的子帶能量進行計算,可以有效反映圖像包含信息的豐富程度。本文通過四元數(shù)小波變換,提取小波分解各個方向ψ相位的對數(shù)能量來計算圖像的銳利度。具體公式如下:
式中,E為各子帶能量矩陣;T為子帶中元素個數(shù);C為相應子帶的系數(shù)矩陣;s表示分解的尺度數(shù);o是各尺度上的方向數(shù)。本文在計算時只選用各尺度ψ方向上的系數(shù),為保證計算各子帶對數(shù)能量C時出現(xiàn)接近0的異常數(shù)值,Φ為調(diào)整因子,本文選為1。i、j為子帶系數(shù)矩陣中像素點的離散坐標值。為與人類主觀視覺相一致,本文選取圖像的視覺重要區(qū)域作為考察對象,即將一幅圖像按內(nèi)容劃分成邊緣、紋理和平坦區(qū)域3部分。具體步驟如下:
步驟1對圖像進行三尺度四元數(shù)小波基變換;其次對LH、HL和HH小波子帶中包含ψ相位的每一個方向子帶,邊緣紋理區(qū)域由系數(shù)絕對值大于該子帶絕對值均值1.2倍的系數(shù)來確定。
步驟2對邊緣紋理區(qū)域進行膨脹操作,得到膨脹區(qū)域。
步驟3對邊緣紋理區(qū)域和膨脹區(qū)域分配權值1,其他區(qū)域分配權值0。
本文選擇菱形進行膨脹,半徑根據(jù)尺度由高到低依次選擇2、3、4,獲取不同尺度下的視覺關注度區(qū)域;最后整個子帶的系數(shù)由包含加權區(qū)域的系數(shù)來替代,進而得到整個子帶的能量。
4.1 支持向量機基本原理
支持向量機由Vapnik首先提出,用于模式分類和非線性回歸。它在模式分類問題上提供極好的泛化性能,這是其他機器學習方法所不具有的。因此,本文采用支持向量機在回歸方面的一種算法ε-SVR,回歸方程[13]為:
可轉(zhuǎn)化為如下規(guī)劃問題:
其中,K(xi,x)為核函數(shù)。本文采用RBF核函數(shù),因此SVR模型需要預先設定的參數(shù)包括懲罰系數(shù)、核函數(shù)寬度系數(shù)和不敏感損失系數(shù)ε。
支持向量機預測圖像質(zhì)量的優(yōu)劣,關鍵是要找到能有效反映圖像失真強度的特征向量。由生物學原理可知,人類視覺系統(tǒng)對圖像的紋理結(jié)構(gòu)區(qū)域關注度比較高。為此本文先對圖像進行四元數(shù)小波變換,獲取圖像的紋理信息,提取平均梯度、加權方差和能量3個特征,最后組成特征向量,輸入到ε-SVR模型中來預測圖像的質(zhì)量。
4.2 基于QWT-SVR圖像質(zhì)量評價模型
利用QWT和SVR分類評價圖像質(zhì)量算法如下:
步驟l對待測圖像進行三級四元數(shù)小波基變換。
步驟2對變換后的系數(shù)生成圖像幅/相矩陣,提取幅/相矩陣中高頻HL、LH和HH子帶中相位表示的紋理特征,并組合成一個高維特征向量,輸入到SVR模型中進行訓練。
步驟3用訓練得到的SVR模型預測圖像的質(zhì)量得分。
算法流程如圖2所示。
5.1 數(shù)據(jù)庫和性能評價指標
在公開數(shù)據(jù)庫LIVE[14]、CSIQ[15]和TID2008[16]上對本文算法進行測試,數(shù)據(jù)庫中包括圖像的失真類型和它們的主觀得分DMOS,利用DMOS值可以對圖像進行訓練和預測,它們的詳細特征如表1。
LIVE圖像評估數(shù)據(jù)庫有5類失真類型圖像(169幅JPEG2000壓縮,175幅JPEG壓縮,145幅白噪聲污染,145幅高斯模糊和145幅快速退化)及29幅無失真原始圖像和每幅圖像相對應的DMOS值,它的數(shù)值在1到100之間變化,數(shù)值越小說明圖像質(zhì)量越好。CSIQ數(shù)據(jù)庫有6類失真及30幅原始圖像,總共900幅圖像。TID2008數(shù)據(jù)庫有25幅原始圖像及17種失真類型,共1 700幅圖像。將本文算法和BLIINDS-Ⅱ、DIIVINE、NSS-GS和CORNIA無參考圖像質(zhì)量評價算法進行了性能比較。
為了驗證本文算法與主觀感受的一致性,選用了兩個評價準則來度量其性能:(1)反映客觀評價算法的準確性的線性相關系數(shù)(linear correlation coefficient,LCC),其不受主觀評估尺度的影響,取值越接近1,說明算法評價圖像質(zhì)量越精準;(2)反映客觀評價算法的單調(diào)性的斯皮爾曼等級相關系數(shù)(Spearman rank order correlation coefficient,SROCC),取值范圍[-1,1],取值越接近1或-1,表明客觀圖像質(zhì)量評價算法單調(diào)性越好。
Fig.2 Framework of no-reference image quality assessment based on QWT-SVR圖2 基于QWT-SVR的無參考圖像質(zhì)量評價算法框架圖
Table 1 Benchmark test databases for IQA表1 IQA的標準測試數(shù)據(jù)庫
5.2 參數(shù)設計及仿真實驗
在LIVE圖像庫上,本文按照文獻[17]中的方法,隨機抽取20%的圖片作為測試集,剩余的作為訓練集,根據(jù)SVR訓練模型獲得預測值,循環(huán)100次,取其中間值作為最后結(jié)果。實驗中SVR相關參數(shù)值設置如下:懲罰系數(shù)C由交叉驗證算法尋優(yōu)得到,本文為128;不敏感損失系數(shù)ε值設為0.1,徑向基核的寬度系數(shù)γ取1。
在CSIQ圖像評測數(shù)據(jù)庫上,本文排除LIVE圖像評估數(shù)據(jù)庫上的快速失真類型和原始參考圖像,得到剩余634幅圖像作為訓練集,根據(jù)訓練得到的模型,在CSIQ上測試對應4種失真類型(總共600幅)。由于在CSIQ庫上缺乏相應的交叉數(shù)據(jù)庫實驗數(shù)據(jù),選用經(jīng)典SSIM和PSNR算法做比較。同理,在TID2008數(shù)據(jù)庫上,因為每種失真類型包含4幅人工合成的圖像,所以沒有包括在內(nèi),總共選取384幅圖像作為測試集。同樣選用LIVE數(shù)據(jù)庫上634幅圖像作為訓練集,用LIVE數(shù)據(jù)庫的訓練模型測試TID2008上圖片集的質(zhì)量。各項實驗數(shù)據(jù)統(tǒng)計如下。
從表2和表3中可以看出,本文算法和同樣對5種失真類型評價的BLIINDS-Ⅱ、BIQI相比,各個失真類型都有明顯的提高。同樣體現(xiàn)了對JPEG評測有待進一步的提高。同基于兩部框架的DIIVINE、NSS-GS、NSS-TS相比,各項指標各有優(yōu)劣,但本文算法不用判斷失真類型,計算也更加方便;同較新的基于卷積神經(jīng)網(wǎng)絡(convolutional neutral networks,CNN)的CORNIA算法相比,單個失真類型各有優(yōu)劣,但在總體測試上具有一定的優(yōu)勢。從圖3、圖4的100次隨機實驗的結(jié)果可以看出,本文算法可以有效評估各失真類型,尤其在WN、GBLUR、ALL上表現(xiàn)出非常不錯的穩(wěn)定性。從表4~表6、圖5和圖6可以看出,本文算法在獨立數(shù)據(jù)CSIQ和TID2008上相對其他算法也有一定的優(yōu)勢,進一步反映了本文算法的有效性和推廣性。
為了進一步驗證本文算法的有效性和健壯性,在LIVE混合失真圖像庫上對算法進行進一步測試。由于缺乏相應的混合失真對比數(shù)據(jù),選用一些比較經(jīng)典的算法進行比較。方法同上,實驗結(jié)果和對比如表7和表8所示。
Table 2 Comparison of SROCC on LIVE2 database表2LIVE2數(shù)據(jù)庫上SROCC對比
Fig.3 Box plot of SROCC on LIVE2 database圖3LIVE2數(shù)據(jù)庫上SROCC箱線圖
Table 3 Comparison of LCC on LIVE2 database表3LIVE2數(shù)據(jù)庫上LCC對比
Fig.4 Box plot of LCC on LIVE2 database圖4LIVE2數(shù)據(jù)庫上LCC箱線圖
Table 4 Comparison of SROCC on TID2008 database表4TID2008數(shù)據(jù)庫上SROCC對比
Table 5 Comparison of SROCC on CSIQ database表5CSIQ數(shù)據(jù)庫上SROCC對比
Table 6 Comparison of LCC on CSIQ database表6CSIQ數(shù)據(jù)庫上LCC對比
Fig.5 Result of CSIQ tested by LIVE model圖5LIVE模型測CSIQ散點圖
從表7、表8可以看出,本文算法相對傳統(tǒng)算法也具有非常明顯的優(yōu)勢,所提取的特征能較好地反映圖像失真變化規(guī)律,對各種失真類型都能有效度量圖像質(zhì)量。從以上對比實驗結(jié)果可見,無論在混合失真集或者多種混合失真圖像集上,本文算法都能取得較高的算法指標。
Fig.6 Result of TID2008 tested by LIVE model圖6 LIVE模型測TID2008散點圖
Table 7 Comparison of SROCC for different assessing methods on multi-kind distortion LIVE database表7 不同評價方法在LIVE混合失真圖像庫上SROCC對比
Table 8 Comparison of LCC for different assessing methods on multi-kind distortion LIVE database表8 不同評價方法在LIVE混合失真圖像庫上LCC對比
Fig.7 Result of image quality assessment on LIVE database and different N圖7 參數(shù)N變化在LIVE圖像庫上的圖像質(zhì)量評價結(jié)果
綜上所述,本文算法能準確地將圖像質(zhì)量與人類主觀感建立起很好的相關度,具有較好的推廣性和主客觀一致性。
5.3 參數(shù)對實驗結(jié)果的影響
影響本文算法的參數(shù)還有求圖像特征矩陣時QWT的分解尺度數(shù)N,通常情況下研究人員取尺度3,但沒有定量分析這個參數(shù)對實驗結(jié)果的影響。為了增加算法的普適性,本文通過實驗來定量研究分解尺度數(shù)N對實驗結(jié)果的影響。實驗結(jié)果如圖7所示。
很明顯,隨著QWT分級尺度的增加,圖像質(zhì)量的度量越精確,分解層數(shù)N對圖像質(zhì)量的度量有較大影響,并且隨著分解尺度的增加逐漸趨于穩(wěn)定,有一個獲得最佳值的取值范圍。對圖7的分析可知,最佳的取值范圍在3、4、5、6,且彼此差距幅度很小,考慮到算法運行的效率,取尺度數(shù)3,這從另一方面證明了本文特征選取也具有普適性。尺度N對算法影響的關鍵原因在于ψ相位包含圖像的相位信息,隨著分解尺度數(shù)的增加,可以得到更多記錄圖像邊緣改變的高頻信息,因此更能精確描述圖像質(zhì)量的變化程度,這也與實驗結(jié)果分析相一致。
5.4 算法時間復雜度分析
在圖像質(zhì)量評價過程中,提取特征過程所需的計算時間往往要遠大于對其進行分類和預測的過程,后者的時間復雜度往往也只與特征維數(shù)和機器學習方式有關。本文主要對算法中特征提取時間進行分析。在CPU 3.4 GHz,Core 4,RAM 4配置環(huán)境下,對LIVE圖像庫中的自然圖像parrots.bmp進行特征提取,對所需的時間進行比較,結(jié)果如表9所示??梢钥闯鯭WT-SVR所用的時間復雜度要遠低于DIIVINE和BLIINDS-Ⅱ算法。
Table 9 Comparison of time for feature extraction of 3 NR-IQAalgorithms表9 3類無參考特征提取方法所需時間對比
本文介紹了四元數(shù)小波變換理論以及它在圖像處理中的應用,通過將四元數(shù)小波幅值相位特征的提取與SVR算法相結(jié)合,提出了一種基于QWT-SVR的無參考圖像質(zhì)量評價算法。本文算法既考慮到圖像的多分辨特性,也考慮到圖像的內(nèi)容和視覺感知特性,從整體上反應了IQA的主客觀一致性,獲得了非常不錯的圖像質(zhì)量評價效果。探討基于小波域統(tǒng)計模型以及與多核學習、深度學習相結(jié)合的評價方法,是今后研究的主要工作。
[1]Li Ying,Wang Bo,Kong Xiangwei,et al.Image tampering detection using no-reference image quality metrics[J].Journal of Harbin Institute of Technology,2014,21(6):51-56.
[2]Unser M.Texture classification and segmentation using wavelet frames[J].IEEE Transactions on Image Processing,1995,4(11):1549-1560.
[3]Mallat S G.A theory for multi-resolution signal decomposition: the wavelet representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1989,11(7):674-693.
[4]Arivazhagan S,Ganesan L,Padam P S.Texture classification using Gabor wavelets based rotation invariant features [J].Pattern Recognition Letters,2006,27(16):1976-1982.
[5]Corner B R,Narayanan R M,Reichenbach S E.Noise estimation in remote sensing imagery using data masking[J]. International Journal of Remote Sensing,2003,24(4):689-702.
[6]Liu Lianhua,Ding Wanshan.Application of quaternion wavelet transform in image processing[J].Electronic Science&Technology,2010,23(4):89-93.
[7]Chan W L,Choi H,Baraniuk R.Quaternion wavelets for image analysis and processing[C]//Proceedings of the 2004 International Conference on Image Processing,Singapore, Oct 24-27,2004.Piscataway,USA:IEEE,2004:3057-3060.
[8]Soulard R,Carré P.Quaternionic wavelets for texture classification[C]//Proceedings of the 2010 IEEE International Conference on Acoustics Speech and Signal Processing, Dallas,USA,Mar 14-19,2010.Piscataway,USA:IEEE,2010:4134-4137.
[9]Li Hongbo.Algebra of Clifford,geometric calculations and geometric reasoning[J].Advances of Mathematics,2003,32 (4):405-415.
[10]Ulow T B.Hypercomplex spectral signal representations for the processing and analysis of images[D].Kiel,Germany: ChristianAl-brechts University,1999.
[11]Moorthy A K,Bovik A C.A two-step framework for constructing blind image quality indices[J].IEEE Signal Processing Letters,2010,17(5):513-516.
[12]Soulard R,Carré P.Quaternionic Wavelets for Texture Classification[J].Pattern Recognition Letters,2011,32(13):1669-1678.
[13]Kale A,Sundaresan A,Rajagopalan A N,et al.Identification of humans using gait[J].IEEE Transactions on Image Processing,2004,13(9):1163-1173.
[14]Sheikh H R,Wang Zhou,Cormack L,et al.LIVE image quality assessment database release 2[DB/OL].(2007-06-30)[2014-02-26].http://live.ece.utexas.edu/research/quality.
[15]Larson E C,Chandler D M.Categorical image quality (CSIQ)database[EB/OL].(2009)[2014-07-23].http://vision. okstate.edu/csiq.
[16]Ponomarenko N,Lukin V,Zelensky A,et al.TID2008—A database for evaluation of full-reference visual quality assessment metrics[J].Advances of Modern Radioelectronics, 2009,10(1):30-45.
[17]Gao Xinbo,Gao Fei,Tao Dacheng,et al.Universal blind image quality assessment metrics via natural scene statistics and multiple kernel learning[J].IEEE Transactions on Neural Networks and Learning Systems,2013,24(12):2013-2026.
[18]Saad M A,Bovik A C,Charrier C.DCT statistics modelbased blind image quality assessment[C]//Proceedings of the 2011 IEEE International Conference on Image Processing, Brussels,Belgium,Sep 11-14,2011.Washington:IEEE Computer Society,2011:3093-3096.
[19]Moorthy A K,Bovik A C.Blind image quality assessment from natural scene statistics to perceptual quality[J].IEEE Transactions on Image Processing,2011,20(12):3350-3364.
[20]Ye Peng,Kumar J,Kang Le,et al.Unsupervised feature learning framework for no-reference image quality assessment[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition,Provience,USA, Jun 16-21,2012.Piscataway,USA:IEEE,2012:1098-1105.
[21]Tong Hanghang,Li Mingjing,Zhang Hongjiang,et al.Noreference quality assessment for JPEG2000 compressed images[C]//Proceedings of the 2004 International Conference on Image Processing,Singapore,Oct 24-27,2004.Piscataway,USA:IEEE,2004,5:3539-3942.
[22]Zhou Wang,Simoncelli E P,Bovik A C.Multi-scale structural similarity for image quality assessment[C]//Proceedings of the 37th IEEE Asilomar Conference on Signals,Systems and Computers,Pacific Grove,USA,Nov 9-12,2003. Piscataway,USA:IEEE,2003:1398-1402.
[23]Sheikh H R,Bovik A C,Veciana G D.An information fidelity criterion for image quality assessment using natural scene statistics[J].IEEE Transactions on Image Processing,2005, 14(12):2117-2128.
[24]Chandler D M,Hemami S S.A wavelet-based visual signalto-noise ratio for natural images[J].IEEE Transactions on Image Processing,2007,16(9):2284-2298.
附中文參考文獻:
[6]柳蓮花,丁萬山.四元數(shù)小波變換在圖像處理中的應用[J].電子科技,2010,23(4):89-93.
[9]李洪波.Clifford代數(shù),幾何計算和幾何推理[J].數(shù)學進展,2003,32(4):405-415.
SANG Qingbing was born in 1973.He received the Ph.D.degree in image processing from Jiangnan University in 2013.Now he is an associate professor and M.S.supervisor at Jiangnan University.His research interests include image quality assessment and pattern recognition,etc.
桑慶兵(1973—),男,安徽明光人,2013年于江南大學圖像處理專業(yè)獲得博士學位,現(xiàn)為江南大學物聯(lián)網(wǎng)工程學院副教授、碩士生導師,主要研究領域為圖像質(zhì)量評價,模式識別等。
GAO Shuang was born in 1987.He is an M.S.candidate at School of Internet of Things Engineering,Jiangnan University.His research interest is image quality assessment.
高雙(1987—),男,河南南陽人,江南大學物聯(lián)網(wǎng)工程學院碩士研究生,主要研究領域為圖像質(zhì)量評價。
No-Reference Image QualityAssessment via Quaternion Wavelet Transform*
SANG Qingbing+,GAO Shuang
School of Internet of Things Engineering,Jiangnan University,Wuxi,Jiangsu 214122,China
+Corresponding author:E-mail:sangqb@163.com
This paper proposes a new general purpose no-reference image quality assessment based on quaternion wavelet transform.It projects a two-dimenisonal image to four-dimenisonal space by using the quaternion wavelet pyramid.Each level of pyramid provides a shift-invariant magnitude and 3-angle(Φ,θ,ψ)phase.Phase ψ includes image texture information and can effectively characterize the structural information of the image.So the method extracts the features which can reflect the degree of image distortion and constitute the feature vector.Finally,the extracted feature is inputted to the support vector regression(SVR)model to predict image quality score.The experimental results show that the proposed algorithm can effectively reflect the visual quality of the image in different distortion types.Spearman correlation coefficient(SROCC)value can reach 0.942.
no-reference image quality assessment;quaternion wavelet transform;quaternion wavelet pyramid;support vector regression(SVR)
10.3778/j.issn.1673-9418.1512042
A
TN911
*The National Natural Science Foundation of China under Grant No.61170120(國家自然科學基金);the Prospective Research Project of Jiangsu Province under Grant No.BY2013015-41(江蘇省產(chǎn)學研項目).
Received 2015-12,Accepted 2016-03.
CNKI網(wǎng)絡優(yōu)先出版:2016-03-07,http://www.cnki.net/kcms/detail/11.5602.TP.20160307.1710.010.html
SANG Qingbing,GAO Shuang.No-reference image quality assessment via quaternion wavelet transform. Journal of Frontiers of Computer Science and Technology,2017,11(4):633-642.