欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

提高人臉識別正確率的方法

文檔序號:6341005閱讀:552來源:國知局
專利名稱:提高人臉識別正確率的方法
技術領域
本發(fā)明涉及圖像處理領域,尤其是涉及一種提高人臉識別正確率的方法。
背景技術
SIFT算法由D. G. Lowe在1999年提出,并在2004年進行了完善總結。該算法通 過提取局部特征,在尺度空間尋找極值點,提取位置,尺度,旋轉等不變量,得出基本特征參 數(shù)。SIFT特征參數(shù)是圖像的局部特征,其對旋轉、尺度縮放保持不變,對亮度變化、視角變 化、仿射變換、噪聲也保持一定程度的穩(wěn)定性。目前有人成功地利用SIFT特征進行人臉識別。這類方法的核心是SIFT特征匹配 算法,它是獲取待匹配的兩幅圖像中的SIFT特征點后,對其中一圖像的特征點逐個考慮。 找出在某個點上歐式距離最近的前兩個關鍵點。在這兩個關鍵點中,如果最近的距離除以 次近的距離少于某個比例閾值,則接受這一對匹配點。由此,通過控制這個比例閾值,可以 調整SIFT匹配點數(shù)目進而控制匹配的穩(wěn)定性。但由于這種匹配算法僅僅考慮了 SIFT特征,在實際使用中可以發(fā)現(xiàn)這種匹配還 是具有一定的盲目性。采用這種匹配方法,得到的匹配點中經(jīng)常會在不同臉部區(qū)域內的點 之間形成的匹配點對。根據(jù)SIFT特征的計算原理,一副二維圖像的尺度空間可以由不同尺度的高斯核 與圖像的卷積得到,如下式所示L (X,y,σ ) = G (x,y σ ) *Ι (χ, y)G(x,兄 σ) = —^—e-(x2+y2) / 2σ2
2πσ其中G(x,y,σ )是尺度可變高斯函數(shù),I是每個點上的亮度,(x,y)是空間坐標, ο是尺度坐標。為了有效的在尺度空間檢測到穩(wěn)定的關鍵點,可以使用高斯差分尺度空間(DOG scale-space)。D(x, y, σ ) = (G(χ, y, k σ )-G(χ, y, σ ))*Ι(χ, y) = L(χ, y, k σ )-L(χ, y, σ )DoG算子的特點是計算簡單,與尺度歸一化的LoG算子的近似。Lowe的論文提供 了這種快速計算DoG算子的方法[3]。通過該方法可以得到所需尺度空間的DoG算子。之 后根據(jù)得到的DoG算子通過和領域比較得出在尺度空間和二維圖像空間都具有局部極值 的特定點以及其所處的尺度。這些點就是SIFT特征點。得到了特征點之后可以計算這些 特征點的屬性。利用關鍵點領域象素的梯度方向分布特性為每個關鍵點計算方向參數(shù)和模值。每 個具體點的方向和大小的計算公式如下m(x, y)=」(l(x+1 y) - l(x -1, y))2 + (l(x, y + \)-l(x,y-\)fθ (χ, y) = tan"1 ((L(χ, y+l)-L(x, y-l))/(L(x+l, y)-L(x-l, y)))其中L所用尺度為每個關鍵點各自所在的尺度。
根據(jù)計算所得到的領域內象素點的方向性,并結合領域象素和關鍵點的距離設置 權值對這些信息進行方向直方圖統(tǒng)計。以直方圖的峰值作為關鍵點的主方向。這樣,每4x4 個象素可以形成一個種子點,利用方向直方圖的方法可以得到每一個種子點在8個方向上 的方向向量。然后,對每個關鍵點計算16個種子點,就可以得到一個描述該關鍵點局部信 息的128維SIFT特征向量。該向量就是特征點匹配的關鍵信息。實際上,SIFT特征向量 采用了領域方向性信息聯(lián)合的思想,增強了算法抗噪聲的能力,同時對于含有定位誤差的 特征匹配也提供了較好的容錯性。

發(fā)明內容
本發(fā)明所要解決的技術問題是提供一種提高人臉識別正確率的方法,它結合人臉 區(qū)域劃分來去除不正確匹配的點。本發(fā)明為解決上述技術問題而采用的技術方案是一種提高人臉識別正確率的方 法,包括以下步驟a)從一參考圖片中得到人臉部分,作為目標匹配圖像;b)計算該目標匹配圖像的三個中心點位置;c)計算該目標匹配圖像的SIFT特征點集;d)對一待匹配圖像,計算該待匹配圖像的三個中心點位置和SIFT特征點集;e)使用SIFT匹配算法找出該待匹配圖像與該目標匹配圖像的匹配點;以及f)判定每一對匹配點是否位于人臉的相同區(qū)域,如果是,接受該對匹配點,否則拒 絕該對匹配點。在本發(fā)明的一實施例中,判定每一對匹配點是否位于人臉的相同區(qū)域的方法包 括對該對匹配點位于該目標匹配圖像的第一點,計算該第一點到該目標匹配圖像的三個 中心點的距離之和,與該目標匹配圖像的三個中心點組成的三角形周長的比值rl ;對該對 匹配點位于該待匹配圖像的第二點,計算該第二點到該待匹配圖像的三個中心點的距離之 和,與該待匹配圖像的三個中心點組成的三角形周長的比值r2 ;計算該對匹配點到各自圖 像中的三個中心的距離的比值的平均值ar。當滿足以下條件時,判定該對匹配點位于人臉 的相同區(qū)域rl,r2的比值在區(qū)間W. 90,1. 1]內;且ar在區(qū)間W. 90,1. 1]內。在本發(fā)明的一實施例中,所述三個中心為人臉的左眼中心、右眼中心和嘴部中心。在本發(fā)明的一實施例中,計算該目標匹配圖像和/或該待匹配圖像的三個中心點 位置的方法為Harr識別算法。在本發(fā)明的一實施例中,上述方法包括遍歷多個待匹配圖像,執(zhí)行步驟d)_f)以 找到與目標匹配圖像匹配的圖像。本發(fā)明由于采用以上技術方案,使之與現(xiàn)有技術相比,通過對傳統(tǒng)SIFT算法中的 匹配點對進行篩選,去除了不在人臉相同區(qū)域的那些匹配點,從而提高了人臉識別的正確率。


為讓本發(fā)明的上述目的、特征和優(yōu)點能更明顯易懂,以下結合附圖對本發(fā)明的具 體實施方式作詳細說明,其中
圖1示出本發(fā)明一實施例的提高人臉識別正確率的方法流程。圖2示出根據(jù)現(xiàn)有SIFT匹配算法的錯誤匹配結果。
具體實施例方式根據(jù)本發(fā)明實施例的構思,提出了一種可以量化一個特征點是否在人的臉部區(qū)域 的算法,并以此來改善人臉識別的結果。本發(fā)明實施例的人臉識別方法是基于匹配算法,同時結合特征點的空間位置進行 了聯(lián)合考慮。可以理解,有效匹配的兩個特征點,應當在人臉的相同部位。因此在符合特征 向量歐式距離最近的基礎上,還必須保證匹配的兩個特征點需要在人臉相同部位。在一實施例中,人臉區(qū)域可以分成眼部、鼻子、嘴部、臉頰、額頭等區(qū)域。對分別位 于相應人臉圖像中對應區(qū)域內的相應位置處匹配點進行計算,如果匹配的點對是來自于同 一人臉的相同點,那么匹配點對到各自圖像上三個中心點的距離之和與各自圖像上三個中 心點組成的三角形的周長的比值會大致上接近于1。因此可以通過判斷這一比值是否接近 于1來判斷匹配點對是否來自于同一人臉的相同點。從幾何學考慮,某一平面Pl內的線段AB在另外一個平面P2內的投影A' B'的 長度之和AB的長度是與Pl與P2之間的夾角成正比的。利用人臉上兩眼和嘴形成的三角 形,就有三條線段,可以減少中心定位誤差,計算誤差。首先分別計算出兩張圖中對應的一對匹配點11,12各自到左眼中心、右眼中心、 嘴部中心的距離111,lrl, Iml以及112,lr2,lm2。再分別計算兩張?zhí)卣髌ヅ鋱D中左眼中 心、右眼中心、嘴部中心三者之間的相互距離lrll, lrml, Ilml以及l(fā)rl2,lrm2, llm2。然后 計算比值rl = (lll+lrl+lml)/(lrll+lrml+llml) (1)r2 = (112+lr2+lm2)/(lrl2+lrm2+llm2) (2)進一步地,計算出rl/r2 rl/r2 = (Irl2+lrm2+llm2)*(111+lrl+lml)/((Ill+lr2+lm2)*(lrll+lrml+llml )) (3)接著計算兩個匹配點到各自圖像中的三個中心的距離的比值的平均值ar = (Irl/lr2+lll/112+lml/lm2)/3 (4)如果rl/r2和ar都處于范圍
內,可以認為該對匹配點11,12處于同 一區(qū)域,就可以接收該匹配點對,否則放棄。圖1示出一實施例的人臉識別方法流程。參照圖1所示,方法包括以下步驟。在步驟Si,從一參考圖片中得到人臉部分,作為目標匹配圖像target。在一個實例中,參考圖片是由人臉識別系統(tǒng)的攝像機拍攝獲得,作為之后比對的 ■石出。在步驟S2,計算圖像target中的左眼、右眼、嘴部位置,并且由此計算其中心位置 lrll, lrml,11ml。作為舉例,該步驟可通過Harr識別算法來實現(xiàn)。在步驟S3,計算圖像target的SIFT特征點集Features_target。在步驟S4,遍歷系統(tǒng)中預設的待匹配圖片集,針對每一圖片執(zhí)行步驟S2,S3的計算,得到相應圖片的右眼、左眼、以及嘴部中心lrln,lrmn,llmn及SIFT特征點集Features_ η。在步驟S5,對于每一 Features_n,先用Lowe的SIFT匹配算法找出匹配的點。在步驟S6,針對每一對匹配點,參照公式(1)-(4)計算rl/r2,ar。如果rl/r2,ar 處于
,認為匹配點對位于人臉的相同區(qū)域,接受這對匹配點,否則就拒絕。圖2是一個人臉識別的實驗結果,同一列的上圖和下圖的匹配點對用匹配線連 接,以最左側的兩個圖來說,位于上圖右耳(對觀察者而言)處的匹配點A,和位于下圖右臉 頰處的匹配點B,用匹配線連接。圖2中所示的匹配線在常用的SIFT匹配方法中依然是正 確的匹配線,然而這些匹配點對實際上位于人臉的不同區(qū)域。使用本發(fā)明實施例的人臉識 別方法,這些錯誤的匹配線是可以去除的,從而提高了人臉識別的正確率。雖然本發(fā)明已以較佳實施例揭示如上,然其并非用以限定本發(fā)明,任何本領域技 術人員,在不脫離本發(fā)明的精神和范圍內,當可作些許的修改和完善,因此本發(fā)明的保護范 圍當以權利要求書所界定的為準。
權利要求
1.一種提高人臉識別正確率的方法,包括以下步驟a)從一參考圖片中得到人臉部分,作為目標匹配圖像;b)計算該目標匹配圖像的三個中心點位置;c)計算該目標匹配圖像的SIFT特征點集;d)對一待匹配圖像,計算該待匹配圖像的三個中心點位置和SIFT特征點集;e)使用SIFT匹配算法找出該待匹配圖像與該目標匹配圖像的匹配點;以及f)判定每一對匹配點是否位于人臉的相同區(qū)域,如果是,接受該對匹配點,否則拒絕該 對匹配點。
2.如權利要求1所述的方法,其特征在于,判定每一對匹配點是否位于人臉的相同區(qū) 域的方法包括對該對匹配點位于該目標匹配圖像的第一點,計算該第一點到該目標匹配圖像的三個 中心點的距離之和,與該目標匹配圖像的三個中心點組成的三角形周長的比值rl ;對該對匹配點位于該待匹配圖像的第二點,計算該第二點到該待匹配圖像的三個中心 點的距離之和,與該待匹配圖像的三個中心點組成的三角形周長的比值r2;計算該對匹配點到各自圖像中的三個中心的距離的比值的平均值ar ;當滿足以下條件時,判定該對匹配點位于人臉的相同區(qū)域rl, r2的比值在區(qū)間
內;且ar在區(qū)間W. 90,1. 1]內。
3.如權利要求1所述的方法,其特征在于,所述三個中心為人臉的左眼中心、右眼中心 和嘴部中心。
4.如權利要求1所述的方法,其特征在于,計算該目標匹配圖像和/或該待匹配圖像的 三個中心點位置的方法為Harr識別算法。
5.如權利要求1所述的方法,其特征在于,包括遍歷多個待匹配圖像,執(zhí)行步驟d)-f) 以找到與目標匹配圖像匹配的圖像。
全文摘要
本發(fā)明涉及一種提高人臉識別正確率的方法,包括以下步驟a)從一參考圖片中得到人臉部分,作為目標匹配圖像;b)計算該目標匹配圖像的三個中心點位置;c)計算該目標匹配圖像的SIFT特征點集;d)對一待匹配圖像,計算該待匹配圖像的三個中心點位置和SIFT特征點集;e)使用SIFT匹配算法找出該待匹配圖像與該目標匹配圖像的匹配點;以及f)判定每一對匹配點是否位于人臉的相同區(qū)域,如果是,接受該對匹配點,否則拒絕該對匹配點。
文檔編號G06K9/00GK102004911SQ20101061869
公開日2011年4月6日 申請日期2010年12月31日 優(yōu)先權日2010年12月31日
發(fā)明者孫宏明 申請人:上海全景數(shù)字技術有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
双辽市| 伊宁县| 宜兴市| 盐边县| 米易县| 西乌珠穆沁旗| 东宁县| 乡宁县| 古浪县| 城固县| 齐齐哈尔市| 建昌县| 达日县| 黄陵县| 花垣县| 普兰店市| 常德市| 二连浩特市| 沙湾县| 福安市| 玉田县| 全南县| 哈巴河县| 施甸县| 漳浦县| 开平市| 红河县| 淮滨县| 封开县| 孙吴县| 樟树市| 洪江市| 商洛市| 盐城市| 财经| 乌审旗| 芷江| 高要市| 云南省| 石城县| 潮安县|