欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法

文檔序號:6365838閱讀:357來源:國知局
專利名稱:基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法
技術(shù)領(lǐng)域
本發(fā)明涉及一種人臉識別方法,尤其是涉及一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法。
背景技術(shù)
Wiskott等人在“Face Recognition by Elastic Bunch Graph matching”文中提出的彈性圖匹配算法識別率為97. 3%,并且需要嚴(yán)格定位出瞳孔位置,識別率受到眼睛閉合程度、墨鏡等因素強烈影響。張國云和章棘在“基于Gabor小波的多尺度PCA支持向量機人臉識別方法”一文中提出了一種基于Gabor小波的多尺度PCA支持向量機人臉識別方法將原始人臉圖片劃分為28*23個4*4模塊,取每個像素模塊中心點作為特征點提取Gabor特征值,然后采用PCA降維,最后構(gòu)造40個支持向量機分類器并采用選票決策機制決定識別結(jié)果。該方法提取644個特征點,極大增加了計算復(fù)雜度,而且該方法采用PCA降維的計算量也非常大,不適合與嵌入式實時人臉識別系統(tǒng)。上海大學(xué)申請的“基于Gabor小波變換和局部二值模式優(yōu)化的人臉識別方法”專利,申請?zhí)枮镃N201010215489. 6,公開號為CN102024141A。該專利采用一種基于Gabor小波變換和局部二值模式優(yōu)化的人臉識別方法,其特征在于將Gabor小波變換和局部二值算法進行融合,識別率為91. 4%,在PC機上識別時間為400. 2ms。該專利使用Gabor小波處理整幅圖片,計算量較大。清華大學(xué)申請的“人臉部件特征和Gabor人臉特征融合的人臉識別方法及其裝置”專利,申請?zhí)枮镃N200810104401. 6,公開號為CN101276421。該專利由基于Gabor方法的特征裸臉的提取、基于Gabor方法的圖像投影特征向量的提取,以及基于Gabor方法與基于人臉部件主分量分析的多模式人臉識別方法融合的人臉識別三部分組成。該專利同樣使用Gabor小波處理整幅圖片,使其計算量較大。

發(fā)明內(nèi)容
本發(fā)明的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法。本發(fā)明的目的可以通過以下技術(shù)方案來實現(xiàn)一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,包括以下步驟I)通過人臉數(shù)據(jù)庫中的每個人臉圖片進行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器;2)對輸入的人臉圖片進行特征區(qū)域定位,并對特征區(qū)域采用二維Gabor小波計算特征值;3)采用步驟2)獲得的二維Gabor特征值生成人臉圖片表示信息;4)將步驟3)生成的人臉圖片表示信息輸入神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)權(quán)值矩陣進行人臉識別。步驟I)中BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的過程具體包括以下步驟A)對人臉數(shù)據(jù)庫中的每個人臉圖片進行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值;B)根據(jù)步驟A)獲得的二維Gabor特征值生成人臉圖片表示信息;C)對權(quán)值矩陣的各個元素分 別賦一個在區(qū)間(-1,I)內(nèi)的隨機值;D)選取一個人臉圖片表不信息作為輸入值,并設(shè)定一期望輸出值;E)根據(jù)步驟D)的輸入值計算通過BP神經(jīng)網(wǎng)絡(luò)后的實際輸出值;F)根據(jù)期望輸出值和實際輸出值計算輸出誤差,并利用輸出誤差調(diào)整權(quán)值矩陣;G)根據(jù)所有已獲得的期望輸出值和實際輸出值計算全局誤差;H)將全局誤差與誤差閾值比較,若全局誤差大于誤差閾值,則執(zhí)行步驟D);若全局誤差小于誤差閾值,則結(jié)束。所述的特征區(qū)域包括眼睛、鼻子、嘴巴、下顎和眉毛。與現(xiàn)有技術(shù)相比,本發(fā)明具有以下優(yōu)點I、采用Gabor小波對人臉圖片的若干特征區(qū)域進行特征提取,大大減少了運算量。2、采用BP神經(jīng)網(wǎng)絡(luò)進行人臉識別,識別精度高。


圖I為本發(fā)明的Gabor小波網(wǎng)絡(luò)的模型示意圖;圖2為本發(fā)明的流程圖;圖3為本發(fā)明中BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的流程圖;圖4為本發(fā)明實施例中特征區(qū)域劃分的示意圖;其中,(a)為整個臉部區(qū)域,(b)為眉毛區(qū)域,(C)為眼睛區(qū)域,(d)為鼻子區(qū)域,(e)為嘴巴區(qū)域。
具體實施例方式下面結(jié)合附圖和具體實施例對本發(fā)明進行詳細說明。實施例一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,以二維Gabor小波空間作為特征空間,用Gabor小波抽取特征值作為BP神經(jīng)網(wǎng)絡(luò)的輸入,然后用BP神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練學(xué)習(xí),其Gabor小波網(wǎng)絡(luò)的模型如圖I所示,具體過程包括如圖2所示的步驟步驟SI :通過人臉數(shù)據(jù)庫中的每個人臉圖片進行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器;步驟S2 :對輸入的人臉圖片進行特征區(qū)域定位,分別按如圖4所示的方式將眼睛劃分為9個區(qū)域、眉毛劃分為2個區(qū)域、鼻子劃分為4個區(qū)域、嘴巴劃分為6個區(qū)域,每個區(qū)域選取中間點作為特征點,然后計算每一個特征點的二維Gabor特征值,其中進行離散Gabor變換的Gabor核函數(shù)如下
權(quán)利要求
1.一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,其特征在于,包括以下步驟 1)通過人臉數(shù)據(jù)庫中的每個人臉圖片進行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器; 2)對輸入的人臉圖片進行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值; 3)根據(jù)步驟2)獲得的二維Gabor特征值生成人臉圖片表示信息; 4)將步驟3)生成的人臉圖片表示信息輸入神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)權(quán)值矩陣進行人臉識別。
2.根據(jù)權(quán)利要求I所述的基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,其特征在于,步驟I)中BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的過程具體包括以下步驟 A)對人臉數(shù)據(jù)庫中的每個人臉圖片進行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值; B)根據(jù)步驟A)獲得的二維Gabor特征值生成人臉圖片表示信息; C)對權(quán)值矩陣的各個元素分別賦一個在區(qū)間(_1,1)內(nèi)的隨機值; D)選取一個人臉圖片表示信息作為輸入值,并設(shè)定一期望輸出值; E)根據(jù)步驟D)的輸入值計算通過BP神經(jīng)網(wǎng)絡(luò)后的實際輸出值; F)根據(jù)期望輸出值和實際輸出值計算輸出誤差,并利用輸出誤差調(diào)整權(quán)值矩陣; G)根據(jù)所有已獲得的望輸出值和實際輸出值計算全局誤差; H)將全局誤差與誤差閾值比較,若全局誤差大于誤差閾值,則執(zhí)行步驟D);若全局誤差小于誤差閾值,則結(jié)束。
3.根據(jù)權(quán)利要求2所述的基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,其特征在于,所述的特征區(qū)域包括眼睛、鼻子、嘴巴、下顎和眉毛。
全文摘要
本發(fā)明涉及一種基于局部特征Gabor小波的BP神經(jīng)網(wǎng)絡(luò)人臉識別方法,包括以下步驟1)通過人臉數(shù)據(jù)庫中的每個人臉圖片進行BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到包含權(quán)值矩陣的神經(jīng)網(wǎng)絡(luò)分類器;2)對輸入的人臉圖片進行特征區(qū)域定位,并根據(jù)特征區(qū)域位置信息計算二維Gabor特征值;3)根據(jù)步驟2)獲得的二維Gabor特征值生成人臉圖片表示信息;4)將步驟3)生成的人臉圖片表示信息輸入神經(jīng)網(wǎng)絡(luò)分類器,根據(jù)權(quán)值矩陣進行人臉識別。與現(xiàn)有技術(shù)相比,本發(fā)明具有運算量小,識別精度高等優(yōu)點。
文檔編號G06K9/00GK102622585SQ20121005761
公開日2012年8月1日 申請日期2012年3月6日 優(yōu)先權(quán)日2012年3月6日
發(fā)明者張晨曦, 羅怡桂, 范茂志 申請人:同濟大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
睢宁县| 亳州市| 华安县| 和顺县| 三原县| 山阳县| 神木县| 洛阳市| 靖江市| 社会| 南木林县| 迭部县| 津南区| 樟树市| 寻乌县| 合肥市| 漾濞| 西林县| 响水县| 湟中县| 岳阳县| 清新县| 利川市| 游戏| 古蔺县| 翁源县| 湟中县| 资阳市| 陇川县| 萨嘎县| 永泰县| 长垣县| 栾川县| 锦州市| 永济市| 绥宁县| 靖州| 克东县| 老河口市| 瓮安县| 石渠县|