姜太平,汪小帆,潘 祥,劉 恒
(安徽工業(yè)大學(xué) 計(jì)算機(jī)圖像處理研究所,安徽 馬鞍山 243000) E-mail:Wang_xiaofan427@163.com
在計(jì)算機(jī)視覺研究領(lǐng)域,通過提取人眼特征開展技術(shù)研究一直是該領(lǐng)域的主要研究方向之一.瞳孔檢測(cè)作為人眼檢測(cè)中一個(gè)重要的中間環(huán)節(jié),在表情識(shí)別,人機(jī)交互,人工智能,眨眼檢測(cè)等領(lǐng)域有著重要的應(yīng)用前景.T.Megaw等[1]通過提取瞳孔的參數(shù)特征來評(píng)估駕駛員的疲勞程度,避免交通事故的發(fā)生.文獻(xiàn)[2]中通過提取的瞳孔特征參數(shù)進(jìn)行眼球空間建模和視線估計(jì)建模,實(shí)現(xiàn)效果更好的人機(jī)交互系統(tǒng).此外,利用精確的瞳孔檢測(cè)提取的瞳孔直徑、位置、大小等檢測(cè)結(jié)果,可用于注意力監(jiān)測(cè),心理研究,醫(yī)學(xué)研究等方面的應(yīng)用.Kaklauskas等[3]設(shè)計(jì)開發(fā)了一套通過提取分析學(xué)生的瞳孔特征來評(píng)估學(xué)生學(xué)習(xí)狀態(tài)的分析系統(tǒng).本文的瞳孔檢測(cè)方法是通過圖像處理的手段將在正常光照條件下獲得的人臉圖像中的瞳孔精確檢測(cè)出來,包括瞳孔區(qū)域的分割和瞳孔輪廓的擬合.
瞳孔的檢測(cè)往往會(huì)受到人眼周邊如睫毛、眼瞼、眼鏡等信息的干擾,同時(shí)也受圖像噪聲、白光邊緣的影響,這給瞳孔的檢測(cè)精度帶來了一定的難度.Hansen等[4]通過人眼周邊紋理,顏色分布和相似性度量等特征構(gòu)造人眼模型,提出一種基于人眼形狀、外觀和兩者混合的人眼瞳孔檢測(cè)技術(shù).該方法人眼模型構(gòu)造較為復(fù)雜,且花費(fèi)大量的時(shí)間.王德朋等[5]提出了一種融合Hough變換和ASM定位瞳孔中心點(diǎn)的方法,顯著改善了人眼瞳孔特征點(diǎn)定位的準(zhǔn)確性,但該方法只能對(duì)相對(duì)完整的瞳孔進(jìn)行定位,在有遮擋的情況下準(zhǔn)確性達(dá)不到要求.張勇忠等[6]提出了一種基于改進(jìn)對(duì)稱變換的瞳孔定位方法,根據(jù)人臉的梯度信息,人眼瞳孔區(qū)域與人眼反光區(qū)域梯度方向不同的特征,改進(jìn)對(duì)稱變換算法,完成瞳孔的定位.該方法簡(jiǎn)單,但準(zhǔn)確性較低.研究表明,盡管現(xiàn)有的瞳孔檢測(cè)方法取得了卓有成效的研究成果,但是對(duì)瞳孔檢測(cè)的精度和效率的需求仍迫切需要解決.
充分考慮算法的復(fù)雜度,檢測(cè)精度,遮擋等因素,本文將在人眼定位的基礎(chǔ)上,提出一種結(jié)合瞳孔分割和輪廓匹配的瞳孔精確檢測(cè)方法,主要是在瞳孔分割的基礎(chǔ)上完成瞳孔的輪廓匹配,避免了在以往算法中存在的一些盲目搜索,實(shí)驗(yàn)結(jié)果證明了方法的有效性和可行性.
通過對(duì)已有人眼檢測(cè)以及瞳孔檢測(cè)方法的研究分析,本文提出一種改進(jìn)的基于人臉圖像結(jié)合瞳孔分割與輪廓匹配的瞳孔精確檢測(cè)方法,方法具體流程如圖1所示.
圖1 方法流程框圖Fig.1 Flow diagram of the algorithm
首先,提取人眼圖像.通過對(duì)大量人眼檢測(cè)算法的研究分析,本文對(duì)人臉圖像采用了基于AdaBoost的人臉檢測(cè)算法,對(duì)獲得的人臉圖像利用水平積分投影和區(qū)域特征的算法快速定位人眼區(qū)域,然后利用區(qū)域投影的方法實(shí)現(xiàn)了人眼定位[8].
其次,瞳孔的分割.對(duì)獲得的人眼圖像采用行掃描線法定位瞳孔的中心,然后采用改進(jìn)的星射線法完成瞳孔邊緣輪廓的提取,進(jìn)而實(shí)現(xiàn)了瞳孔的分割,也為下一步瞳孔輪廓的匹配縮小范圍.
再次,瞳孔邊緣的橢圓擬合.考慮到人眼存在開度較小的情況,本文采用橢圓擬合來實(shí)現(xiàn)瞳孔特征的提取.瞳孔擬合樣本點(diǎn)的選取對(duì)瞳孔擬合的精度至關(guān)重要,本文通過改進(jìn)的樣本點(diǎn)選取方案來提高瞳孔擬合的效率.
最后,根據(jù)橢圓擬合率的評(píng)價(jià)方法選出最優(yōu)橢圓.本文將邊段樣本點(diǎn)的擬合率作為衡量橢圓擬合程度的指標(biāo),提高了橢圓擬合的精確性.
2.1.1 人臉檢測(cè)
本文采用了Adaboost算法實(shí)現(xiàn)了人臉的檢測(cè).Adaboost算法是一種基于弱分類器的迭代算法,其核心思想是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器,即弱分類器,然后把這些弱分類器集合起來構(gòu)造一個(gè)更強(qiáng)的最終分類器.文獻(xiàn)[9]中深入分析了基于Haar-Like小波特征和AdaBoost算法構(gòu)造強(qiáng)分類器的人臉檢測(cè)算法.Adaboost算法能夠?qū)崿F(xiàn)人臉的快速定位,整個(gè)過程包括:圖像預(yù)處理,載入分類器,人臉檢測(cè).如圖2所示,為由原始人臉圖像檢測(cè)出人臉的效果圖.
2.1.2 人眼定位
根據(jù)圖2所示的定位好的人臉圖像,首先進(jìn)行圖像的預(yù)處理,根據(jù)人臉的面部特征縮小定位范圍,然后進(jìn)行圖像增強(qiáng)和圖像水平灰度投影,進(jìn)一步縮小人眼的范圍.本文采用的人眼定位方法綜合了邊緣檢測(cè),膨脹處理及區(qū)域連通性分析算法.
1)邊緣檢測(cè)
本文采用Sobel算子對(duì)圖像進(jìn)行邊緣處理.Sobel算子根據(jù)像素點(diǎn)上下、左右鄰點(diǎn)灰度加權(quán)差,在邊緣處達(dá)到極值這一現(xiàn)象檢測(cè)邊緣.對(duì)噪聲具有平滑作用,提供較為精確的邊緣方向信息.
2)膨脹處理
對(duì)一幅二值圖像的膨脹結(jié)果是用結(jié)構(gòu)元素在圖像上移動(dòng),只要結(jié)構(gòu)元素中有一個(gè)點(diǎn)與圖像中的點(diǎn)是重疊的就可以了.本文首先對(duì)邊緣檢測(cè)后的圖像進(jìn)行閾值分割,然后再進(jìn)行采用圓形結(jié)構(gòu)元素的膨脹處理來恢復(fù)目標(biāo)區(qū)域的大小.
3)區(qū)域連通性分析
本文采用區(qū)域增長(zhǎng)法的區(qū)域連通性分析.區(qū)域增長(zhǎng)法是一種遞歸式的區(qū)域增長(zhǎng)算法,該算法采用了一個(gè)下推堆棧來實(shí)現(xiàn)區(qū)域增長(zhǎng),下推堆??梢耘R時(shí)保存區(qū)中有關(guān)像素的目標(biāo).經(jīng)過連通性分析后,可以得到若干個(gè)子區(qū)域,通過設(shè)定區(qū)域像素點(diǎn)個(gè)數(shù)來篩選出眼睛區(qū)域.由此實(shí)現(xiàn)在人臉基礎(chǔ)上的人眼定位,如圖3所示.
圖2 人臉檢測(cè)效果Fig.2 Effectoffacedetection圖3 提取的人眼圖像Fig.3 Extractionofhumaneyeimage
2.2.1 瞳孔中心的定位
在上文獲得了簡(jiǎn)單的人眼圖像,為準(zhǔn)確提取出瞳孔的特征參數(shù),需進(jìn)一步縮小檢測(cè)的范圍.雖然瞳孔圖像中的灰度信息豐富,但灰度級(jí)相對(duì)明顯.文獻(xiàn)[11]中直接計(jì)算圖像灰度,灰度最小值點(diǎn)作為瞳孔內(nèi)的任意一點(diǎn),以灰度最小值作為閾值對(duì)圖像進(jìn)行分割.本文利用瞳孔的幾何特性進(jìn)行瞳孔的定位,由于瞳孔的灰度值最小而且其均值很小,所以在灰度直方圖中該區(qū)域像素點(diǎn)非常集中,這樣就很容易選定瞳孔與非瞳孔區(qū)域之間的閾值,根據(jù)此閾值遍歷圖像,粗略求取瞳孔的中心坐標(biāo).當(dāng)瞳孔區(qū)域內(nèi)像素?cái)?shù)小于5時(shí),則默認(rèn)當(dāng)前瞳孔圖像中無瞳孔信息.
具體的實(shí)現(xiàn)方法如下:
首先需要進(jìn)行圖像的預(yù)處理,包括歸一化處理和平滑處理.歸一化處理能夠?qū)⒋幚淼膱D像轉(zhuǎn)換成相同形式的標(biāo)準(zhǔn)圖像,平滑處理能消除無關(guān)的噪聲像素點(diǎn).然后建立人眼區(qū)域圖像的灰度直方圖.如圖4所示,由灰度直方圖可以看出,圖中有三個(gè)波峰,分別代表眼睛的三個(gè)區(qū)域,其中灰度均值最小的一類就是瞳孔區(qū)域,適當(dāng)?shù)脑诘谝?二波峰間選取灰度值作為閾值,就可以將瞳孔從采集的人眼圖像中區(qū)分出來[10].然后根據(jù)此閾值每隔5個(gè)像素單位掃描圖像,檢測(cè)灰度值低于閾值點(diǎn)的像素點(diǎn),并記錄.滿足閾值條件的像素點(diǎn)有多個(gè),設(shè)定低于閾值灰度的像素點(diǎn)為(xi,yi),1≤i≤n,瞳孔的圓心為(x0,y0),則
(1)
圖4 人眼圖像的灰度直方圖Fig.4 Gray histogram of human eye image
根據(jù)瞳孔中心的坐標(biāo),向四周取尺寸為20*20大小的圖像,將瞳孔圖像切割出來,作為下一步瞳孔輪廓匹配的基礎(chǔ).圖5為該人臉圖像瞳孔切割后的效果.
圖5 分割后的瞳孔圖像Fig.5 Segmentationofthepupilimage圖6 星射線法示意圖Fig.6 Illustrationofstarraymethod
2.2.2 瞳孔邊緣點(diǎn)的提取
為提高瞳孔輪廓匹配的精確度,提取瞳孔邊緣點(diǎn)的步驟至關(guān)重要.許多文獻(xiàn)在提高邊緣檢測(cè)的準(zhǔn)確性上進(jìn)行了算法研究.文獻(xiàn)[11]中使用Laplacian邊緣檢測(cè)算子檢測(cè)瞳孔區(qū)域,然后根據(jù)圓的對(duì)稱性計(jì)算邊緣的圓心和半徑.本文根據(jù)定位的瞳孔中心(x0,y0),從中心點(diǎn)進(jìn)行邊界的跟蹤,采用改進(jìn)的星射線法找到瞳孔的邊緣.傳統(tǒng)的星射線法是以中心點(diǎn)為起始點(diǎn),每隔5度向四周發(fā)散射線,對(duì)每條射線經(jīng)過的像素,搜索出具有最大梯度值的像素作為瞳孔的邊緣點(diǎn).由于受眼瞼和睫毛的影響,如文獻(xiàn)[12]提到當(dāng)遮擋程度超過一定的瞳孔面積時(shí),瞳孔檢測(cè)結(jié)果就會(huì)失去準(zhǔn)確性,同時(shí)考慮到人在閉眼時(shí)上眼瞼覆蓋的面積比下眼瞼多,因此射線的角度區(qū)域限制在[-70°,60°]和[120°,250°]內(nèi),分別為圖6中的α和β角范圍內(nèi).本文方法可以處理更大遮擋條件下的瞳孔圖像.
2.3.1 最小二乘法的橢圓擬合原理
由于人眼的瞳孔近似為圓形,所以人們最早使用Hough圓變換來擬合瞳孔輪廓.文獻(xiàn)[13]中采用圓變換算法,但是標(biāo)準(zhǔn)Hough圓變換基于三維參數(shù)空間,且受到噪聲邊緣、睫毛邊緣、眼瞼邊緣的影響,檢測(cè)結(jié)果并不準(zhǔn)確,且其計(jì)算量非常的大.基于最小二乘法的橢圓擬合是在隨機(jī)誤差為正態(tài)分布時(shí)由最大似然法推出的一個(gè)最優(yōu)估計(jì)方案,它可使橢圓擬合時(shí)誤差的平方和最小,且在有噪聲的影響下仍然能擬合出橢圓來.最小二乘橢圓擬合算法基本原理如下[13]:
橢圓擬合的算法公式:
F(x,y)=Ax2+Bxy+Cy2+Dx+Ey+F=0,B2-4AC<0
(2)
其中A,B,C,D,E,F是橢圓參數(shù)表達(dá)式的系數(shù),(x,y)是橢圓上的點(diǎn).
當(dāng)邊緣點(diǎn)個(gè)數(shù)足夠時(shí)(至少6個(gè)點(diǎn)唯一確定一個(gè)橢圓)即可得到橢圓參數(shù),通過橢圓擬合可以得到A、B、C、D、E及F的值.根據(jù)擬合的橢圓公式可以得到如下瞳孔參數(shù):
瞳孔中心坐標(biāo):
(3)
長(zhǎng)短軸坐標(biāo):
(4)
(5)
長(zhǎng)短軸比:
(6)
本文采用最小二乘橢圓擬合算法對(duì)瞳孔邊界上的邊緣點(diǎn)計(jì)算,具體過程如下:
設(shè)E為瞳孔分割后的實(shí)際邊緣,首先隨機(jī)選取瞳孔邊緣上的6個(gè)邊緣點(diǎn)(離散數(shù)據(jù)中至少6個(gè)點(diǎn)才能得到一個(gè)橢圓),然后進(jìn)行橢圓擬合,得到多個(gè)擬合的橢圓邊緣,使用非線性最小二乘法找到與實(shí)際邊緣的歐氏距離最小的擬合橢圓邊緣.
算法如下:
實(shí)際邊緣到橢圓中心的歐式距離表示為:
(7)
擬合橢圓邊緣到橢圓中心的歐式距離表示為:
(8)
擬合橢圓邊緣到實(shí)際邊緣的歐式距離表示為:
(9)
取所有實(shí)際邊緣到擬合橢圓邊緣距離平方和小的橢圓作為最小二乘意義下的最優(yōu)擬合
(10)
式中:
(11)
(12)
2.3.2 最小二乘橢圓擬合的改進(jìn)
最小二乘橢圓擬合算法提取瞳孔參數(shù)的方法使得瞳孔邊緣上的所有樣本點(diǎn)都參與了運(yùn)算,因此會(huì)對(duì)橢圓擬合的最后結(jié)果產(chǎn)生偏差且耗時(shí)較長(zhǎng).在文獻(xiàn)[14]中提出了橢圓擬合算法是基于代數(shù)距離提取瞳孔參數(shù),不是基于幾何距離,因此在擬合含有噪聲的數(shù)據(jù)時(shí),如果樣本點(diǎn)距離較近,擬合出來的最終橢圓和真實(shí)的橢圓誤差較大,擬合過程及結(jié)果就不具有意義,浪費(fèi)了時(shí)間和效率.
EaEb圖7 橢圓擬合樣本點(diǎn)的選取Fig.7 Selectionofsamplepointstoellipsefitting圖8 瞳孔擬合結(jié)果Fig.8 Resultofpupilfitting
圖9 人臉圖像瞳孔擬合結(jié)果Fig.9 Result of Face image pupil fitting
圖10 瞳孔參數(shù)Fig.10 Pupil parameters
最終,該人臉圖像的瞳孔擬合結(jié)果如圖9所示,瞳孔參數(shù)如圖10所示.
由于采用最小二乘法橢圓擬合完成的瞳孔輪廓匹配沒有考慮實(shí)際的擬合程度,因此僅能得到具有最小誤差的橢圓.為了使獲得的橢圓參數(shù)與實(shí)際的瞳孔參數(shù)更為吻合,本文設(shè)計(jì)了衡量所得橢圓擬合程度—擬合率的評(píng)價(jià)標(biāo)準(zhǔn)對(duì)所得橢圓進(jìn)行快速篩選評(píng)估獲得最優(yōu)橢圓.具體的過程如下:
首先從處理分割后的瞳孔圖像出發(fā),由于本文分割的瞳孔邊緣點(diǎn)為滿足同心條件的雙弧段,因此通過ADM(Absolute Difference Mask,絕對(duì)差分模板)算子[17]檢測(cè)瞳孔圖像邊緣,它能夠產(chǎn)生準(zhǔn)確的邊點(diǎn)集合,然后采用8-聯(lián)通方向鏈碼邊界跟蹤方法提取邊界[15].由于本文改進(jìn)的最小二乘橢圓擬合方法存在對(duì)瞳孔區(qū)域的限制條件,故可以得到兩個(gè)邊段的混合集.通過計(jì)算邊段組合上的邊點(diǎn)落在擬合橢圓上的數(shù)量與邊段數(shù)量的比率來作為橢圓是否在圖像中合理存在的依據(jù).比率越高的橢圓即擬合程度越高,將該依據(jù)作為選取擬合橢圓的一項(xiàng)指標(biāo)可以大大降低擬合的誤差.
為了驗(yàn)證本文改進(jìn)方法的有效性,實(shí)驗(yàn)采用在Microsoft Visual Stdio 2010的環(huán)境下,應(yīng)用Windows 7.0 操作系統(tǒng),同時(shí)借助OpenCV開源庫(kù).從人臉數(shù)據(jù)庫(kù)中選取人臉圖像(圖像大小均為800*600)作為實(shí)驗(yàn)數(shù)據(jù),利用文獻(xiàn)[8]中的方法(方法1)、文獻(xiàn)[13]中的方法(方法2)與本文方法(方法3)對(duì)同樣的圖像做對(duì)比測(cè)試,完成人臉圖像的瞳孔提取實(shí)驗(yàn).
圖11 原始圖像Fig.11 Source image
本文給出了該3種方法對(duì)兩幅不同瞳孔姿態(tài)的人臉圖像的右眼瞳孔擬合結(jié)果,以此來比較3種方法的擬合率.
圖12 對(duì)圖像a的瞳孔提取實(shí)驗(yàn)結(jié)果Fig.12 Experimental result of pupil extraction from image a
實(shí)驗(yàn)證明,本文改進(jìn)后的方法可以準(zhǔn)確地實(shí)現(xiàn)瞳孔的分割與橢圓擬合.對(duì)正常瞳孔的正面人臉圖像進(jìn)行擬合的效果如圖12中所示,和方法1,2比較,采用方法3定位更加準(zhǔn)確,處理得到的最優(yōu)擬合橢圓與瞳孔邊界幾乎吻合.圖13為非正常瞳孔姿態(tài)下的人臉圖像的擬合效果圖,和方法1,2相比較,方法3可以減小遮擋情況下的誤差,在瞳孔不完整的情況下仍然擬合出較為精確的瞳孔邊界.
圖13 對(duì)圖像b的瞳孔提取實(shí)驗(yàn)結(jié)果Fig.13 Experimental result of pupil extraction from image b
觀察表1中各項(xiàng)結(jié)果值,方法3的擬合率達(dá)到94%左右,明顯高于傳統(tǒng)的方法.雖然方法2的擬合率與方法3相近,但是方法3簡(jiǎn)化了橢圓擬合樣本點(diǎn)的選取過程,大大縮短了瞳孔擬合時(shí)間.此外,當(dāng)人眼瞳孔受到眼鏡干擾時(shí),方法3在準(zhǔn)確擬合出瞳孔輪廓的基礎(chǔ)上,擬合時(shí)間基本穩(wěn)定.
表1 三種方法擬合率的比較
Table 1 Comparison of three methods′s fitting rate
方 法擬合率(%)運(yùn)行時(shí)間(ms)圖a圖b圖a圖b方法189.3383.55398417方法293.5590.53142181方法394.1293.678285
為驗(yàn)證本文方法對(duì)人臉圖像提取瞳孔特征的普遍有效性,本文從人臉數(shù)據(jù)庫(kù)中采集200幅人臉圖像用于實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果表明該方法可以實(shí)現(xiàn)瞳孔的精確檢測(cè),擬合率達(dá)到92%以上,運(yùn)行時(shí)間較少.此外在受到睫毛,眼瞼、眼鏡等信息的干擾時(shí),保證擬合率的同時(shí),運(yùn)行時(shí)間基本不會(huì)受到影響,具有良好的魯棒性.
在人臉圖像研究領(lǐng)域,本文基于現(xiàn)有方法進(jìn)行分析改進(jìn),提出一種結(jié)合瞳孔分割和輪廓匹配的單張人臉圖像瞳孔精確檢測(cè)方法.在定位人眼的基礎(chǔ)上,首先采用改進(jìn)的星射線法完成瞳孔的分割,然后在瞳孔擬合過程中改進(jìn)了常規(guī)最小二乘擬合方法,簡(jiǎn)化該方法中選取最優(yōu)橢圓的過程,在準(zhǔn)確度提高的同時(shí),縮短了運(yùn)行時(shí)間,最后在完成瞳孔擬合步驟之后設(shè)計(jì)了擬合率評(píng)價(jià)標(biāo)準(zhǔn),減少了瞳孔的誤檢率.本方法在單張人臉圖像上可直接分割瞳孔并完成瞳孔輪廓的擬合,具有檢測(cè)精度高和檢測(cè)速度快的優(yōu)點(diǎn),對(duì)后續(xù)的基于視頻的人臉瞳孔的識(shí)別具有重要的意義.
[1] Megaw T,Sen T.Visual fatigue and saccadic eye movement parameters[C].Human Factors and Ergonomics Society Meeting,1983:728-732.
[2] Wu Yan-fan.The human-computer interaction system based on eye tracking[D].Changchun:Gilin University,2014.
[3] Kaklauskas A,Vlasenko A,Raudonis V,et al.Student progress assessment with the help of an intelligent pupil analysis system[J].Engineering Applications of Artificial Intelligence,2015,26(1):35-50.
[4] Hansen D W,Ji Q.In the eye of the beholder:a survey of models for eyes and gaze[J].IEEE Transactions on Software Engineering,2010,32(3):478-500.
[5] Wang De-peng,Lou Zhen.A method combining hough transformation with ASM to locate pupil landmarks[J].Computer System & Applications,2016,25(3):182-186.
[6] Zhang Yong-zhong,Lin Fu,Sun Ling-ming,et al.Pupil precise location method based on symmetry transform[J].Journal of Jilin University,2009,27(3):268-272.
[7] Mahadeo N K,Paplinski A P,Ray S.Model-based pupil and iris localization[C].International Joint Conference on Neural Networks,2012:1-7.
[8] Li Hong-xia.The human eye pupil location a lgorithm based on OpenCV[J].Electronics Quality,2012,33(11):14-17.
[9] Liao Hong-wen,Zhou De-long.Review of adaboost and its improvement[J].Computer System & Applications,2012,21(5):240-244.
[10] Lin Jing,Qin Hua-biao.An eyes location algorithm based on gray histogram and geometrical features[J].Microcomputer Information,2009,25(9):252-254.
[11] Zhao Jing.Iris inner edge location algorithm based on adaptive threshold segmentation and edge detection[J].Science,2012,29(16):41-42.
[12] Pan Lin,Lin Lin,Wei Li-fang,et al.The pupil diameter precise measurement under occlusion[J].Journal of Chinese Computer Systems,2011,32(8):1652-1654.
[13] Yan Pei,Wang Bin,Li Yuan.Optimal ellipse fitting method based on least-square principle[J].Journal of Beijing University of Aeronautics,2008,34(3):295-298.
[14] Lin Jin-long,Shi Qing-yun.Circle recognition through a point hough transformation[J].Computer Engineering,2003,29(11):17-18.
[15] Cui Jia-li,Gong He,Wang Yi-ding,et al.Optimazation and research on ellipse fitting and application based on algebraic distance[J].Computer Science,2014,41(s2):88-90.
[16] Hu Hai-ou,Zhu Jian-zhong.Direct least squares elliptic fitting based on arc combination[J].Journal of Hangzhou Normal University(Natural Sciences Edition),2011,10(6):556-560.
[17] Alzahrani F M.A real-time edge detector:algorithm and VLSI architecture[J].Real-Time Imaging,1997,3(5):363-378.
附中文參考文獻(xiàn):
[2] 吳艷繁.基于視線追蹤的人機(jī)交互系統(tǒng)[D].長(zhǎng)春:吉林大學(xué),2014.
[5] 王德朋,婁 震.一種融合Hough變換和ASM定位瞳孔中心點(diǎn)方法[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2016,25(3):182-186.
[6] 張勇忠,劉 富,孫令明,等.基于對(duì)稱變換的瞳孔定位方法[J].吉林大學(xué)學(xué)報(bào)信息科學(xué)版,2009,27(3):268-272.
[8] 李紅匣.基于OpenCV的人眼瞳孔定位算法[J].電子質(zhì)量,2012,33(11):14-17.
[9] 廖紅文,周德龍.AdaBoost及其改進(jìn)算法綜述[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2012,21(5):240-244.
[10] 劉 婧,秦華標(biāo).基于灰度直方圖的幾何特征人眼定位方法[J].微計(jì)算機(jī)信息,2009,25(9):252-254.
[11] 趙 靜.基于自適應(yīng)閾值分割及邊緣檢測(cè)的虹膜內(nèi)邊緣定位算法[J].科技信息,2012,29(16):41-42.
[12] 潘 林,林 琳,魏麗芳,等.遮擋條件下瞳孔精確檢測(cè)方法[J].小型微型計(jì)算機(jī)系統(tǒng),2011,32(8):1652-1654.
[13] 閆 蓓,王 斌,李 媛.基于最小二乘法的橢圓擬合改進(jìn)算法[J].北京航空航天大學(xué)學(xué)報(bào),2008,34(3):295-298.
[14] 林金龍,石青云.用點(diǎn)Hough變換實(shí)現(xiàn)圓檢測(cè)的方法[J].計(jì)算機(jī)工程,2003,29(11):17-18.
[15] 崔家禮,宮 賀,王一丁,等.基于代數(shù)距離的橢圓擬合的優(yōu)化及應(yīng)用研究{J].計(jì)算機(jī)科學(xué),2014,41(s2):88-90..
[16] 胡海鷗,祝建中.基于弧段組合的直接最小二乘橢圓擬合[J].杭州師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2011,10(6):556-560.