摘 要: 提出了一個由粗到細的多階段人臉" title="人臉">人臉檢測算法,介紹了檢測工作的三個部分:膚色區(qū)域分割預(yù)處理,、應(yīng)用人臉基本特征檢測和定位的人臉細檢、平均臉模板匹配的人臉驗證,。實驗證明該算法能有效檢測出復(fù)雜環(huán)境中的人臉,。該算法對于人臉的平移、縮放,、適度旋轉(zhuǎn)都能很好地適應(yīng),。
關(guān)鍵詞: 人臉檢測" title="人臉檢測">人臉檢測 彩色空間? 膚色模型" title="膚色模型">膚色模型? 圖像分割? 模板匹配
?
人臉檢測是指在輸入圖像中確定人臉(如果存在)的位置、大小等信息,。
在人臉檢測定位方面,,以前已經(jīng)有人提出了一些解決方案,。但在定位方法的簡便性、算法的穩(wěn)定性,、定位結(jié)果的準(zhǔn)確性以及適用條件等方面依然存在局限,。例如參考文獻[1]提出的人臉檢測算法,雖然可以在復(fù)雜背景下實現(xiàn)人臉檢測,,但其只能檢測單人臉,,而且人臉的姿態(tài)又不能任意。又如參考文獻[2]提出的復(fù)雜背景下的人臉檢測與定位算法,,雖可以檢測背景復(fù)雜,、姿態(tài)各異的多人臉,但對所檢人臉尺寸,、比例及灰度都有一定要求,,而且限制了所能檢測的人臉的種類。
筆者在人臉檢測定位方面做了一些有意義的探索和研究,。筆者認(rèn)為,,對于復(fù)雜背景中的人臉檢測,應(yīng)針對背景采用分階段的檢測定位算法,,即先減小背景的復(fù)雜度,,在簡單背景中檢測定位人臉,然后進一步由粗到細地檢測定位人臉,。這種檢測定位算法的整個檢測定位過程分三個階段進行:①預(yù)處理:膚色區(qū)域分割,;②粗檢:膚色區(qū)域的篩選;③細檢:候選人臉的特征檢測和定位,。
1 預(yù)處理——膚色區(qū)域分割
已有研究[3-4]表明,,人的皮膚顏色具有以下兩個重要的特征:(1)人的皮膚顏色分布在顏色空間中很小的一個范圍內(nèi);(2)人的皮膚顏色的不同主要是由顏色的強度引起,。即膚色具有聚類" title="聚類">聚類性,,膚色的這種聚類性可以用來從背景中分割出人臉。
通過對不同顏色空間的分析發(fā)現(xiàn),,YCbCr空間具有將色度與亮度分離的特點,,在YCrCb色彩空間中膚色的聚類特性比較好,受亮度變化的影響較小,而且是兩維獨立分布,,能較好地限制膚色分布區(qū)域[5],,并且受人種的影響不大。因此本研究選擇YCrCb色彩空間模式進行膚色區(qū)域分割,。
1.1 膚色模型的建立
膚色模型是根據(jù)大量樣本的統(tǒng)計數(shù)據(jù)建立的,。針對不同膚色的人:亞洲人、高加索人和非洲人,本文選擇在一般室內(nèi)外照明背景下的人臉圖片,,以便所建立的膚色模型具有一般性,。建立膚色模型的步驟如下:
(1)手工剪裁出大量膚色區(qū)域。在本文中首先手工裁減了1000個各色人種的膚色區(qū)域,,分別選自不同的性別,、不同的身體區(qū)域(包括臉部、手臂,、四肢和軀干部分),。
(2)將皮膚區(qū)域中每個像素點的R、G,、B轉(zhuǎn)換成Y,,Cb、Cr表示,,得到每個像素點的色度值(Cb,,Cr)。轉(zhuǎn)換公式如下:
(3)對剪裁出的膚色區(qū)域圖像使用低通濾波器減小樣本的噪聲,,這個低通濾波器的脈沖響應(yīng)如下:
(4)統(tǒng)計色度為(Cb,,Cr)的像素點數(shù),得到色度分布圖,,如圖1所示,。
從色度分布圖可以看到膚色聚類在色度空間中的一個很小的范圍內(nèi)。
(5)歸一化色度分布圖,,膚色分布可以用高斯模型N(m,,C)表示。其中,,m是均值,,C是協(xié)方差陣,可表示如下:
m=E{x},, x=(Cr?? Cb)T
C=E{(x-m)(x-m)T}
1.2 膚色區(qū)域的提取
通過前面所建立的膚色高斯分布,,可以得到某幅彩色圖像" title="彩色圖像">彩色圖像中任意一個像素點屬于皮膚的概率。對于某像素點s,,從R,、G、B空間轉(zhuǎn)換到Y(jié),、Cb,、Cr彩色空間,可以得到色度值(Cr,,Cb),則這個像素的膚色概率密度(即膚色似然度)可以通過下面的式子計算得到:
計算被檢測的彩色圖像各像素點的膚色似然度,并得到整幅圖像的最大膚色似然度,。每一點像素的膚色似然度除以最大膚色似然度所得到的值,,作為該像素點的灰度值(表征這個像素點屬于皮膚的概率),從而得到膚色似然圖像,,如圖2所示,。
隨著閾值的下降,直覺上將會導(dǎo)致分割區(qū)域的增加,。然而試驗結(jié)果表明,,當(dāng)閾值處于某一范圍中時,隨著閾值的降低分割區(qū)域并不會明顯增加(這是因為這個階段的膚色像素已經(jīng)被完全檢測出來,,而非膚色像素還沒有被認(rèn)為是膚色像素),。如果閾值繼續(xù)降低到某一個特定值后,隨著非膚色區(qū)域被錯認(rèn)為是膚色區(qū)域,,則會出現(xiàn)分割區(qū)域面積大幅度增加的情形,。故最優(yōu)閾值應(yīng)該是在隨著閾值增長而類膚色區(qū)域面積增長最小的范圍之內(nèi)。本文中采用的方法是,,讓閾值從0.65開始減少,,每次減少0.1,直到0.15為止,,并找出膚色分割區(qū)域面積增加最小的一段,,從而得到優(yōu)化后的閾值。其試驗結(jié)果如圖3所示,。
2 粗檢——膚色區(qū)域的篩選
2.1 膚色區(qū)域的提取
通過形態(tài)學(xué)處理不但可以過濾由于噪音或者其他原因引起的一些較小的不可能為人臉的類膚色區(qū)域,,減少候選區(qū)域和提高檢測速度,而且可以填補膚色區(qū)域內(nèi)的較小空洞,,防止這些空洞被誤認(rèn)為是人臉器官所造成的,,為后續(xù)檢測區(qū)域內(nèi)(歐拉數(shù)判斷是否為候選區(qū)域)降低了誤判的可能性。
在本文中,,考慮到干擾造成的小的虛假膚色區(qū)域,,使用5×5的結(jié)構(gòu)元素進行開運算消除較小物體(假設(shè)人臉區(qū)域應(yīng)該有足夠大),減小后面分割區(qū)域編碼的工作量,;同時,,考慮到一部分分割區(qū)域內(nèi)部有較小的空洞存在,使用3×3的結(jié)構(gòu)元素對其進行閉運算,,消除分割區(qū)域中的較小的空洞,,以利于后面計算歐拉數(shù)時可以減少干擾,其效果如圖4所示,。
2.2 人臉幾何特征分析
(1)有效面積,。在目標(biāo)圖像中,,存在著一些由某些原因引起的噪聲,這些噪聲的區(qū)域面積不大,,因此可用面積參數(shù)先過濾掉這些噪聲,。
Ai>A
式中,Ai代表第i個目標(biāo)區(qū)的面積,;A(=10)為一事先確定的面積閾值,。符合上式的區(qū)域可進一步進行檢測,否則被認(rèn)為是噪聲濾除掉,。
(2)圓度,。人臉在不同的視角中,都有類似橢圓的性質(zhì),。在人臉區(qū)域的檢測中,,區(qū)域的圓度可以作為一項基于形狀檢測的參數(shù):
式中,Ai為第i個區(qū)域的面積,;Pi為第i個區(qū)域的周長,,Ci為第i個目標(biāo)區(qū)的圓度;C(=0.05)是預(yù)定的圓度閾值,。符合此式的區(qū)域才能成為下一步的候選區(qū)域,。
(3)長寬比例。人臉區(qū)域的長寬比應(yīng)該符合一個約束范圍,,在目標(biāo)二值圖像中利用該約束范圍可快速排除那些太過狹長或橫軸長度明顯超標(biāo)的區(qū)域,。區(qū)域的長寬比例同樣是一項基于形狀檢測的參數(shù):
Ri=Hi/Wi?????? Ri∈RR
式中,Hi是第i個區(qū)域的高度,,Wi為第i個區(qū)域的寬度,,Ri等于該區(qū)域的長寬比例;RR(=[0.8 2.2])為設(shè)定的人臉區(qū)域長寬比例約束范圍,。不符合該式的區(qū)域被認(rèn)為是非人臉區(qū)域舍棄掉,。
(4)歐拉數(shù)。歐拉數(shù)可以表示一個封閉區(qū)間中的空洞數(shù)量的情況,,其定義如下:
E=C-H
式中,,E為連通區(qū)域的歐拉數(shù);C為連通區(qū)域的數(shù)目,,這里應(yīng)為1,;H為連通區(qū)域內(nèi)部的空洞數(shù)。在正常情況下,,人臉圖像中一定包括眼睛,、眉毛等非膚色區(qū)域,所以真正的人臉區(qū)域須包括一個或多個小孔,。故若歐拉數(shù)大于0,,則該連通區(qū)域不會是人臉待選區(qū)域,。但是如果歐拉數(shù)太小,也不應(yīng)該是人臉,,人臉中由于嘴,、眼等區(qū)域形成的空洞數(shù)不會太多,,在本文中,,如果計算出來的歐拉數(shù)小于-10,也不認(rèn)為其是人臉待選區(qū)域,。
(5)質(zhì)心,。對于一塊人臉圖像區(qū)域,應(yīng)該是或基本上是一個凸多邊形,,也就是說其質(zhì)心應(yīng)該在多邊形區(qū)域內(nèi),,質(zhì)心計算公式如下:
式中,A為該區(qū)域的像素數(shù)量,;i和j分別是水平和垂直坐標(biāo),;B是區(qū)域經(jīng)過計算得到的相似矩陣;B[i,,j]=1表示該點為膚色區(qū)域,。
在實驗中發(fā)現(xiàn),只需使用以上兩種計算進行篩選就能夠過濾掉大部分的非人臉區(qū)域,。
3 細檢——候選人臉的特征檢測和定位
在粗檢檢測結(jié)果的基礎(chǔ)上,,利用平均臉模板匹配的方法對候選隊列中的圖像進行是否是人臉的檢測[6-7]。
本文中所用的模板是對多個人臉樣本取平均構(gòu)造出來的,。具體構(gòu)造過程如下:
(1)在選取的樣本圖像中用矩形框手工裁剪出人臉的區(qū)域作為人臉樣本,,裁剪出100幅圖像,組成一組樣本圖像集,。并將所選人臉樣本轉(zhuǎn)換成灰度圖像,,將其尺度標(biāo)準(zhǔn)化到80×80[8]。
(2)將所選人臉樣本進行灰度分布標(biāo)準(zhǔn)化,。
(3)將所有樣本取灰度平均得到平均人臉圖像,,并對平均人臉圖像進行灰度分布標(biāo)準(zhǔn)化,得到初步的人臉模板,。如圖5所示,。
根據(jù)待選人臉區(qū)域的高度h、寬度w和傾斜角θ對原始人臉模板圖像T(x,,y)拉伸高寬比t(t=h/w),、旋轉(zhuǎn)θ變換為T′(x′,y′):
然后使用新的人臉模板對待選人臉圖像窗口進行匹配,。算法使用以下系數(shù)作為匹配準(zhǔn)則,。假設(shè)人臉模板的灰度矩陣為T[M][N],,灰度均值與方差分別為μT和σT,待選人臉圖像區(qū)域的灰度矩陣為S[M][N],,灰度均值與方差分別為μR和σR,,則它們之間的相關(guān)系數(shù)r(T,S)為:
使用人臉模板進行匹配時,,若相關(guān)系數(shù)r(T,,R)超過門限值t(t=0.6),則認(rèn)為通過了平均臉匹配篩選,,被認(rèn)為是人臉,。
將檢測到的人臉窗口存放在一個備選人臉列表中,在輸入的原彩色圖像上根據(jù)備選人臉列表中記錄的每個人臉框的位置和大小將其框出,,結(jié)果如圖6所示,。
本算法改變了傳統(tǒng)的模板匹配方法中逐點匹配的方式,通過對分割后的膚色區(qū)域的統(tǒng)計分析,,進一步減小搜索區(qū)域,,大大加快了檢測速度。具有計算量小,、速度快,、易于實現(xiàn)實時處理、不受臉部表情變化的影響,、抗噪聲能力強,、魯棒性好等優(yōu)點。
參考文獻
[1] YUILLE A,,HALLINAN P,,COHEN D.Feature extraction from faces using deformable templates[J].International Jour-nal of computer vision,1992,,8(2):99-111.
[2] TURK M,,PENTLAND A.Eigenface for recognition[J].J Cog Neurosci,1991,,23(3):71-86.
[3] YANG J,,WAIBEL A.Shin-color modeling and adaptation[C].Proceedings of ACCV′98,1998:687-694.
[4] PGRAF H,,COSATTO E,,GIBBON D et al.Multimodel sys-tem for the location heads and faces.proceedings of the Second IEEE International Conference on Automatic Face and Gesture Recognition,1996:88-93
[5] GONG Y,,SAKAUCHI M.Detection of regions matching specifiedchromatic features[J].Computer Vision and Image Understanding,,1995,61(2):263-269.
[6] MOGHADDAM B,,PENTLAND A.Probabilistic visual learn-ing for object representation.IEEE Transactions on Pattern Analysis and Machine Intelligence,,1997,,19(7):696-710.
[7] MOGHADDAM B,PENTLAND A.Beyond linear eigenspaces Bayesian matching for face recognition.WECHSLER H,,PHILLIPS,,P J,Bruce V,,et al.Face Recognition from Theory to Applications.New York:Springer-Verlag,,1997,230-243.