凌軍
(宿州學(xué)院 信息工程學(xué)院,安徽 宿州 234000)
特征提取在圖像處理中的應(yīng)用
凌軍
(宿州學(xué)院信息工程學(xué)院,安徽宿州234000)
特征提取可以提高圖像質(zhì)量.光照條件的多變性及物體間相互遮擋導(dǎo)致圖像質(zhì)量難以控制.把光照圖和反射物體圖進行分離,可改善圖像質(zhì)量,但亮度圖像重建計算量較大.提出一種特征提取方法,實驗證明可有效減少圖像處理時間,提高圖像質(zhì)量,改善圖像特征點提取.
特征提取;圖像處理;圖像增強
圖像的形成與入射光和物體的反射有關(guān).焦距不同的圖像常難以拼接.特征提取可提高圖像拼接、增強的質(zhì)量,實現(xiàn)圖像的有效縮放和旋轉(zhuǎn),體現(xiàn)圖像的局部不變性[1].
在特征提取應(yīng)用中,采用了多種點特征提取算子[2].基于特征點的增強,首先對圖像進行預(yù)處理,然后運用特征提取算法,實現(xiàn)圖像的增強,.文章對特征提取在圖像增強中的應(yīng)用進行了研究和分析.
2.1圖像預(yù)處理
圖像處理中的預(yù)處理主要是對圖像進行預(yù)先處理,減少干擾,從而保證特征提取的準(zhǔn)確、快速,減少圖像的失真.在小波分解中,如圖1,提取出低頻分量,減少高頻噪聲干擾,有效還原圖像信息,處理速度比傳統(tǒng)方法得到提高[3].
圖1 小波分解低頻圖像
2.2特征提取算法
特征提取算法提取出圖像的尺度不變特征,利用圖像序列特征點,進一步克服輸入圖像的噪聲干擾[4].尺度不變特征的提取過程中,通過檢測尺度空間的極值,提取出特征點的位置,然后計算出特征點信息,將其作為特征描述符.
特征提取需結(jié)合一定的模型,如人類視覺系統(tǒng),采用層次化和串行化的思想,實現(xiàn)視覺模型的功能[5].特征參數(shù)須正確描述圖像特征,具有較強的抗噪性、仿射不變性、相對穩(wěn)定性和泛化能力.
3.1可變框架模型
結(jié)合Retinex算法的可變框架模型假設(shè)光照圖存在空間平滑的特性,同時反射物體r在[0,1]區(qū)間單調(diào).光照亮度圖像中存在較大的值.對于入射分量l而言,盡可能地和輸出圖像s接近[6].圖像中的入射光光滑性為常數(shù).對式(1)進行最小化.
圖像用Ω表示,光照亮度圖像用l表示,輸出圖像用s表示,n表示區(qū)間,圖像的邊緣,用?Ω表示,α和β是非負系數(shù).圖像空間的平滑度,用|▽l|2表示.條件(1-s)2表示入射亮度圖像和輸出圖像接近程度,差值即是反射物體的圖像[7].
當(dāng)方程有最小值的時候,對式(1)進行求導(dǎo),如式(2)所示.
求出數(shù)值解,得出亮度圖像,實現(xiàn)Retinex圖像增強算法.模型中存在一定的缺陷.就光暈的存在而言,往往是一種人為的假象,在這種平滑性假設(shè)的前提下,當(dāng)光照強烈的區(qū)域存在時,難以降低黑暗區(qū)域內(nèi)部光照值.在邊緣附近的一些黑暗區(qū)中,一旦黑暗區(qū)域被移除,將會伴有一定的光暈效應(yīng).運用迭代法對模型進行求解時,往往具有較高的算法復(fù)雜性[8].
目前,有不少的企業(yè)沒有建立起完善的績效考核體系,或者績效考核體系較為落后,無法充分的發(fā)揮薪酬管理的激勵功能。這些企業(yè)無論是在考核內(nèi)容,還是考核方法的選擇方面都較為落后,績效考核體系對于企業(yè)員工工作態(tài)度與工作效率的改善并不十分理想,反而在績效考核中暴露了許多問題,諸如考核的定位不清、考核指標(biāo)的設(shè)計不夠科學(xué)性等,這些問題反而嚴(yán)重阻礙了員工積極性與創(chuàng)造性的提高。
3.2模型改進和加速迭代求解
改進模型中對于|▽l|2,提高光照圖的空間光滑性.結(jié)合限制條件|▽(l-s)|,保證r有著一定的平滑性,并結(jié)合限制條件,選擇好自由參數(shù)β.對于(1-s),要使得s逐漸地和l接近,并保證r有著盡可能小的值[9].
首先使得β的值為0,在光暈效果的作用下,r處于光滑的狀態(tài),越過物體的邊界,設(shè)置恰當(dāng)?shù)墓饣瑺顟B(tài),將光暈效應(yīng)有效地去除,結(jié)合反射圖的邊界變化情況,及時捕捉圖像特征點.
其次對于α,在趨向于0的過程中,要保證α有著越來越小的取值,但要盡可能地控制好與l以及s的接近程度.在新的假設(shè)中,方程如式(3)所示.
基于梯度下降法,對方程求解中,迭代方程如式(4)所示.
G是F[l]的梯度,如式(5)所示.
在實際使用時內(nèi)積定義如式(6)所示.
這種新的迭代方式不僅計算較為簡便,而且能對光暈現(xiàn)象進行有效地抑制.
3.3加速卷積速度
圖2 圖像增強的流程圖
通過結(jié)合卷積和多尺度,建立起新的卷積方程,降低卷積函數(shù)算法復(fù)雜度,流程圖如圖2.
S表示初始亮度圖像,對多尺度亮度圖像結(jié)合低解析度圖像,通過卷積函數(shù)的尺度變換,實現(xiàn)了Laplacian濾波變換.算法中變換提升了圖像增強的處理速度.
原始圖像和增強后圖像的對比,如圖3.
圖像增強后,灰度級得到提高,增加了物體邊界對比度,提取出更多的有效Susan特征點.實驗表明,本算法對視頻圖像的增強具有良好的實時性.對于512×384的圖像,算法的實際處理時間僅為17ms,對于每秒30幀的視頻圖像,具有良好的實時性.
圖3 原始圖像和增強后圖像的對比
運用結(jié)合特征點的圖像增強算法對圖像有著明顯的增強效果,提高了增強后圖像的有效特征點個數(shù),增強過程自動執(zhí)行,無需人為設(shè)置參數(shù),算法具有較好的實時性.
〔1〕Sang Hyun Park,Soochahn Lee,Il Dong Yun,Sang Uk Lee.Hierarchical MRF of globally consistent localized classifiers for 3D medical image segmentation[J].Pattern Recognition,2013,01(15):73-75.
〔2〕Hakime Vojodi,Ali Fakhari,Amir Masoud Eftekhari Moghadam.A new evaluation measure for color image segmentation based on genetic programming approach[J].Image and Vision Computing,2014,35(9):3156-3162.
〔3〕Chao Gao,Dongguo Zhou,Yongcai Guo.An Iterative Thresholding Segmentation ModelUsing aModified Pulse Coupled Neural Network[J].Neural Processing Letters,2011,24(6):33-35.
〔4〕AshirbaniSaha,Gaurav Bhatnagar,Q.M.Jonathan Wu.Mutual spectral residual approach for multifocus image fusion[J].Digital Signal Processing,2012,11(1):92-92.
〔5〕李竹林,王明芳,呼建雪,等.醫(yī)學(xué)圖像增強算法與特征提取算法研究與實現(xiàn)[J].計算機技術(shù)與發(fā)展,2015(1):115-118.
〔6〕Silvia P.Gennari,Maryellen C.MacDonald,Bradley R.Postle,Mark S.Seidenberg.Context-dependent interpretation of words:Evidence for interactive neural processes[J].Neuroimage,2014,35(9):3156-3162.
〔7〕Ying Liu,Dengsheng Zhang,Guojun Lu,Wei-Ying Ma.A survey of content-based image retrieval with high-level semantics[J].Pattern Recognition,2013,28(5):597-601.
〔8〕Stephen D.Van Hooser,Arani Roy,Heather J.Rhodes,Julie H.Culp,David Fitzpatrick.Transformation of Receptive Field Properties from Lateral Geniculate Nucleus to Superficial V1 in the Tree Shrew[J].Journal of Neuroscience,2013,24(6):33-35.
〔9〕Christopher Madden,Eric Dahai Cheng,Massimo Piccardi.Tracking people across disjoint camera views by an illumination-tolerant appearance representation[J].Machine Vision and Applications,2007,04(6):43-35.
TP391
A
1673-260X(2015)11-0035-02