欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于核空間的分類聚集稀疏表示的人臉識(shí)別方法與流程

文檔序號(hào):12544280閱讀:217來源:國知局
基于核空間的分類聚集稀疏表示的人臉識(shí)別方法與流程
本發(fā)明模式識(shí)別技術(shù)領(lǐng)域,具體地說,涉及一種基于核空間的分類聚集稀疏表示的人臉識(shí)別方法。

背景技術(shù):
隨著科技的發(fā)展,諸多領(lǐng)域均面臨著日益膨脹的大量數(shù)據(jù),例如地震數(shù)據(jù)、地球物理數(shù)據(jù)、音頻數(shù)據(jù)、天文數(shù)據(jù)、工業(yè)控制數(shù)據(jù)、基因數(shù)據(jù)等等,如何對這些龐大的數(shù)據(jù)實(shí)現(xiàn)靈活、有效和自適應(yīng)的表達(dá)逐漸成為人們關(guān)注的問題之一。圖像處理、信息傳輸、計(jì)算機(jī)視覺等諸多領(lǐng)域一直在尋求信號(hào)與圖像的稀疏而簡潔地表示方式,這種稀疏表示的好處就在于,非零系數(shù)揭示了信號(hào)與圖像的內(nèi)在結(jié)構(gòu)與本質(zhì)屬性,同時(shí)非零系數(shù)具有顯式的物理意義。人臉識(shí)別作為計(jì)算機(jī)視覺和模式分類領(lǐng)域的重要技術(shù),越來越受到人們的關(guān)注與重視。人臉識(shí)別是利用計(jì)算機(jī)對人臉信息進(jìn)行特征的提取并進(jìn)行分類識(shí)別的過程,通常包含兩個(gè)階段:一是特征提取,二是構(gòu)造分類器和標(biāo)簽預(yù)測。不同于指紋識(shí)別、步態(tài)識(shí)別、虹膜識(shí)別等一般的生物特征識(shí)別技術(shù),人臉識(shí)別因其便捷性、友好性、高效性,已成為圖像處理、模式識(shí)別、機(jī)器視覺和心理人臉識(shí)別具有廣泛的應(yīng)用意義和巨大的應(yīng)用前景。目前,人臉識(shí)別技術(shù)主要應(yīng)用于以下幾個(gè)方面:刑偵破案、自動(dòng)化智能管理、機(jī)器人學(xué)習(xí)、智能化相機(jī)、網(wǎng)絡(luò)應(yīng)用等。近些年,最近鄰子空間的方法受到了關(guān)注,通過比較一副測試圖像在每一類中的重建誤差,為其分配標(biāo)簽。在近鄰子空間的方法體系下,Huang等人(參見K.HuangandS.Aviyente.Sparserepresentationforsignalclassification.InNIPS,2006.)在一個(gè)隨機(jī)基上對一個(gè)信號(hào)進(jìn)行稀疏編碼,根據(jù)信號(hào)的編碼向量對其分類。Zhang等人提出了基于協(xié)同表示的人臉識(shí)別方法,該方法首先對一幅測試圖像在訓(xùn)練集上進(jìn)行協(xié)同表示,然后計(jì)算該幅圖像與每類訓(xùn)練集上協(xié)同表示的重構(gòu)誤差得到最終的判決結(jié)果,該方法實(shí)現(xiàn)起來比較簡單,而且性能良好。Wright等人(參見J.Wright,A.Y.Yang,A.Ganesh,S.S.Sastry,andY.Ma.Robustfacerecognitionviasparserepresentation.IEEEPAMI,31(2):210–227,2009)將稀疏編碼用于魯棒人臉識(shí)別,首先將一副測試的人臉圖像在模板圖像上稀疏編碼,然后根據(jù)產(chǎn)生最小編碼誤差的類別決定分類結(jié)果。這種基于稀疏表達(dá)的分類器方法,即SRC,在人臉識(shí)別領(lǐng)域取得了極大成功,同時(shí)也促進(jìn)了基于模式分類的稀疏性研究。不少研究學(xué)者探索了分類詞典學(xué)習(xí)的方法,并取得了矚目的成果。Yang等人(參見Yang,M.,Zhang,L.,Yang,J.,Zhang,D.,2010.Metafacelearningforsparserepresentationbasedfacerecognition.In:Proceedingsofthe17thICIP.IEEE,pp.1601–1604.2)使用稀疏表示為每一類學(xué)習(xí)一個(gè)詞典,并將其運(yùn)用到人臉識(shí)別中。此外,在核空間詞典學(xué)習(xí)領(lǐng)域,Gemert等人(參見vanGemertJ,VeenmanC,SmeuldersA,GeusebroekJ.Visualwordambiguity.IEEETransactionsonPatternAnalysisandMachineIntelligence,32(7):1271-1283,2010.)提出了一種高斯RBF核的詞典,在詞典學(xué)習(xí)的過程中,首先將特征映射到高斯RBF核空間,然后在新的空間使用K-means算法。高斯RBF核的引入提升了圖像分類性能,這是因?yàn)楦咚筊BF核將距離近的點(diǎn)映射到新空間后距離變的更近,將距離遠(yuǎn)的點(diǎn)映射到新空間后距離變的更遠(yuǎn),具有一定近鄰約束的性質(zhì)。Wu等人(參見WuJ,RehgJM.Beyondtheeuclideandistance:Creatingeffectivevisualcodebooksusingthehistogramintersectionkernel[C]//ComputerVision,2009IEEE12thInternationalConferenceon.IEEE,2009:630-637)提出了在直方圖交叉核空間詞典,由于圖像分類的特征本身就是一種直方圖,直方圖交叉核函數(shù)更適合度量直方圖間的距離,并且取得了不錯(cuò)的分類效果。這幾種方法都是基于K-means算法的擴(kuò)展,由于K-means算法自身的強(qiáng)約束性,分類性能受到一定的影響,很難有太大的進(jìn)展。Gao等人(參見GaoS,TsangI,ChiaL.Sparserepresentationwithkernels.IEEETransactiononImageProcessing,22(2):423-434,2013.)直接將歐式空間中SR算法求取的過完備基映射到再生核希爾伯特空間,完成再生核希爾伯特空間的稀疏表達(dá)。Gao等人首次將核函數(shù)引入到了稀疏編碼算法中,形成核空間的SR算法。該方法將圖像特征和詞典都映射到核空間,然后在核空間執(zhí)行SR算法。該方法取得了不錯(cuò)的效果,但是存在著一定的不足,首先,圖像特征空間與詞典空間映射到同一個(gè)核空間未必合理,這是因?yàn)閷τ趫D像分類問題,圖像特征一般說來每個(gè)bin都是正數(shù),是位于歐式空間的某個(gè)特定區(qū)間,而詞典的各個(gè)bin則有正有負(fù),在歐式空間中,線性擬合的方式?jīng)]有問題,然而映射到高維非線性核空間,這種線性擬合的假設(shè)并不準(zhǔn)確;其次,該方法所有的推導(dǎo)都是基于高斯RBF核的,所以推廣性不強(qiáng)。綜上所述,傳統(tǒng)的人臉識(shí)別方法大多都是直接使用訓(xùn)練樣本構(gòu)造子空間,利用測試樣本在構(gòu)造子空間中擬合,這種方式導(dǎo)致測試樣本在子空間中的擬合誤差較大。而傳統(tǒng)的詞典學(xué)習(xí)方法將原始樣本轉(zhuǎn)換到稀疏子空間時(shí),并不能保證稀疏子空間內(nèi)每類樣本的稀疏編碼聚集在一起,不利于人臉的識(shí)別。此外,常用的詞典學(xué)習(xí)方法都是在原始?xì)W式空間進(jìn)行的,是的隱藏在數(shù)據(jù)中的非線性結(jié)構(gòu)無法被捕捉,會(huì)導(dǎo)致人臉的非線性結(jié)構(gòu)信息丟失。

技術(shù)實(shí)現(xiàn)要素:
本發(fā)明針對現(xiàn)有人臉識(shí)別方法存在擬合誤差大、精確度不高等上述不足,提供一種基于核空間的分類聚集稀疏表示的人臉識(shí)別方法,該方法在稀疏表達(dá)約束中加熱分類集中約束項(xiàng),使同類樣本在子空間中更加聚集,不同類樣本在子空間中相對分散,有利于樣本在高維子空間中的聚類,提高了識(shí)別效果。本發(fā)明的技術(shù)方案是:一種基于核空間的分類聚集稀疏表示的人臉識(shí)別方法,含有以下步驟:步驟一:采用卷積神經(jīng)網(wǎng)絡(luò)對人臉圖像提取人臉特征。步驟二:訓(xùn)練分類聚集詞典,其訓(xùn)練步驟為:(一)輸入訓(xùn)練樣本,采用包含C個(gè)種類的圖片樣本訓(xùn)練分類詞典,訓(xùn)練樣本空間用X表示,表示為X=[X1,X2,…,Xc,…,XC]∈RD×N,D表示訓(xùn)練樣本的特征維度,N是訓(xùn)練樣本總的個(gè)數(shù),X1,X2,…,Xc,…,XC分別表示第1,2,…,c,…,C類樣本,定義N1,N2,…,Nc,…,NC分別表示每類訓(xùn)練樣本數(shù)目,則N=N1+N2+…Nc+…+NC;(二)對訓(xùn)練樣本進(jìn)行二范數(shù)歸一化,得到歸一化的訓(xùn)練樣本集X;(三)對每一類訓(xùn)練樣本分別訓(xùn)練其聚集詞典,訓(xùn)練詞典的過程為:1、取出第c類樣本Xc,將Xc映射到核空間φ(Xc);2、稀疏編碼詞典φ(Xc)Wc的訓(xùn)練需要滿足約束條件,所述約束條件的目標(biāo)函數(shù)為:式中,α為稀疏編碼算法中稀疏項(xiàng)約束的懲罰系數(shù),η為稀疏編碼詞典Xc中分類聚集約束的懲罰系數(shù),Sc為第c類核空間訓(xùn)練樣本的稀疏表示矩陣,K為學(xué)習(xí)得到的詞典的大小,是一個(gè)權(quán)重矩陣,其每一列表示核空間樣本對構(gòu)造詞典中每個(gè)詞條的貢獻(xiàn)大小,詞典Bc=φ(Xc)Wc,φ表示樣本在核空間中的映射;3、對步驟2中約束條件的目標(biāo)函數(shù)進(jìn)行求解,即對公式(1)求解,求解方法為:首先,對Wc和Sc進(jìn)行初始化,隨機(jī)生成兩個(gè)矩陣,其中,Wc是Nc×K矩陣,Sc是K×Nc矩陣;然后,交替迭代更新Wc和Sc,求取最優(yōu)的權(quán)重矩陣Wc和稀疏表示矩陣Sc,使得目標(biāo)函數(shù)值最小,將每一類訓(xùn)練樣本的權(quán)重矩陣Wc放置到一個(gè)大的矩陣當(dāng)中,獲得維數(shù)為N行C×K列的權(quán)重矩陣W,該權(quán)重矩陣W即為分類聚集詞典;步驟三:對圖像進(jìn)行識(shí)別,其步驟為:(一)采用卷積神經(jīng)網(wǎng)絡(luò)提取待識(shí)別測試樣本的圖像特征,定義y∈RD×1表示一幅待識(shí)別的測試樣本圖像特征;并將測試樣本圖像特征y映射到核空間φ(y);(二)使用步驟二中獲得的權(quán)重矩陣W,對核空間φ(y)進(jìn)行擬合,獲取擬合函數(shù);(三)對步驟(二)中獲取的擬合函數(shù)進(jìn)行求解;(四)核空間φ(y)在每類樣本所構(gòu)成子空間的擬合誤差;(五)比較核空間φ(y)和每類樣本的擬合誤差,待識(shí)別圖像則屬于擬合誤差最小的那個(gè)類別。作為優(yōu)選,所述步驟二的步驟3中,對步驟2中約束條件的目標(biāo)函數(shù)進(jìn)行求解的具體過程為:(1)固定Wc,更新Sc;將Wc帶入約束條件的目標(biāo)函數(shù),這時(shí)該目標(biāo)函數(shù)轉(zhuǎn)化成為一個(gè)關(guān)于Sc的l1范數(shù)正則化最小二乘問題,即目標(biāo)函數(shù)轉(zhuǎn)化為:忽略常數(shù)項(xiàng),上述公式(2)可以簡化為:κ(Xc,Xc)=<φ(Xc),φ(Xc)>為核函數(shù)。去掉常數(shù)項(xiàng),獲得以下公式:對Sc矩陣中的每一個(gè)元素進(jìn)行更新,使公式(4)最優(yōu),對Sc矩陣中的每一個(gè)元素進(jìn)行更新的方法步驟為:定義Sc中的第k行第n列的元素為更新Sc矩陣,使Sc矩陣滿足公式(3)的約束條件為:逐次更新Sc矩陣每一行每一列的元素;設(shè)第k行第n列的元素為未知,Sc矩陣其它元素為已知,則公式(3)可以變形為:上述公式(5)為變量的一元二次方程,則的最優(yōu)解為變量滿足如下方程:其中,E=WcTκ(Xc,Xc)Wc;依次遍歷Sc矩陣每一個(gè)元素,即求取最優(yōu)的稀疏表示矩陣Sc;(2)固定步驟(1)中求取的稀疏表示矩陣Sc,更新權(quán)重矩陣Wc,這時(shí)約束條件的目標(biāo)函數(shù)轉(zhuǎn)換為權(quán)重矩陣Wc的l2范數(shù)約束的最小二乘問題,即目標(biāo)函數(shù)轉(zhuǎn)化為:采用拉格朗日乘子的方法計(jì)算l2范數(shù)約束的最小二乘問題,忽略公式(7)中的常數(shù)項(xiàng)約束,則公式(7)變化為:式中,λk為拉格朗日乘子;根據(jù)Karush-Kuhn-Tucker條件,上述公式(8)取得最優(yōu)解需要滿足如下條件:對權(quán)重矩陣Wc的每一列逐次進(jìn)行更新,更新某一列時(shí),其余列則為固定值;通過求解公式(9)獲得Wc的每一列更新值為:式中,表示在滿足公式(7)的約束條件下的權(quán)重矩陣Wc的第k列的最優(yōu)值;F=ScScT,遍歷Wc的每一列來更新Wc的權(quán)值;(3)交替更新上述步驟(1)和步驟(2)來更新稀疏表示矩陣Sc和權(quán)重矩陣Wc的權(quán)值,當(dāng)上述公式(1)的目標(biāo)函數(shù)值f(Wc,Sc)趨于穩(wěn)定時(shí),稀疏表示矩陣Sc和權(quán)重矩陣Wc更新完畢;(4)依次訓(xùn)練每一類訓(xùn)練樣本的稀疏表示矩陣Sc和權(quán)重矩陣Wc;(5)將每一類訓(xùn)練樣本的權(quán)重矩陣Wc放置到一個(gè)大的矩陣當(dāng)中,獲得維數(shù)為N行C×K列的權(quán)重矩陣W,權(quán)重矩陣W表示為:上述獲得的權(quán)重矩陣W即為分類聚集詞典。進(jìn)一步的,步驟三的步驟(二)中獲取的擬合函數(shù)為:式中,s表示測試樣本φ(y)的稀疏編碼,φ(X)表示訓(xùn)練樣本X在核空間的映射。進(jìn)一步的,步驟三的步驟(三)中,對步驟(二)中公式(12)表示的擬合函數(shù)進(jìn)行求解,其求解結(jié)果為:式中,sk表示s中的第k個(gè)元素,進(jìn)一步的,步驟三的步驟(四)中,核空間φ(y)在每類樣本所構(gòu)成子空間的擬合誤差用r(c)表示,其表達(dá)式為:式中,φ(y)為測試樣本圖像特征y在核空間的映射。本發(fā)明的有益效果是:本發(fā)明考慮了用訓(xùn)練樣本對測試樣本進(jìn)行稀疏表達(dá)時(shí),每個(gè)訓(xùn)練樣本對子空間構(gòu)造的權(quán)重的不同,以及離類中心近的訓(xùn)練樣本對構(gòu)造子空間應(yīng)當(dāng)具有更大的權(quán)重,采用φ(Xc)Wc矩陣構(gòu)造新的稀疏表達(dá)詞典,其中φ(Xc)是每類訓(xùn)練樣本,Wc為本發(fā)明提出的詞典權(quán)重矩陣;本發(fā)明在稀疏表達(dá)約束中加入分類集中約束項(xiàng),使同類樣本在子空間中更加聚集,不同類樣本在子空間中相對分散,并推倒出該人臉識(shí)別方法的迭代優(yōu)化方法。與現(xiàn)有技術(shù)相比,本發(fā)明提出的人臉識(shí)別方法能夠有效的降低測試樣本在相應(yīng)子空間內(nèi)的擬合誤差,且使得相同類別的樣本在稀疏空間內(nèi)能夠聚集在一起,從而提升了人臉識(shí)別性能;推廣至核空間后,本發(fā)明人臉識(shí)別方法處理非線性結(jié)構(gòu)和關(guān)系的能力增強(qiáng),能夠有效發(fā)掘復(fù)雜數(shù)據(jù)的隱藏特征,進(jìn)一步提升人臉識(shí)別性能。附圖說明圖1為本發(fā)明具體實(shí)施例訓(xùn)練分類聚集詞典的流程圖。圖2為本發(fā)明具體實(shí)施例對樣本進(jìn)行圖像識(shí)別的流程圖。具體實(shí)施方式下面結(jié)合附圖對本發(fā)明作出進(jìn)一步說明。一種基于核空間的分類聚集稀疏表示的人臉識(shí)別方法,含有以下步驟:步驟一:采用卷積神經(jīng)網(wǎng)絡(luò)對人臉圖像提取人臉特征。本實(shí)施例中,選用VGG模型(Deepfacerecognition,O.M.ParkhiandA.VedaldiandA.Zisserman,DeepFaceRecognition,ProceedingsoftheBritishMachineVisionConference(BMVC),2015)。首先,將人臉圖像尺度大小變?yōu)?24×224大小,然后調(diào)用VGG模型,得到人臉圖像的特征。步驟二:訓(xùn)練分類聚集詞典,其訓(xùn)練步驟為:(一)輸入訓(xùn)練樣本,采用包含C個(gè)種類的圖片樣本訓(xùn)練分類詞典,訓(xùn)練樣本空間用X表示,表示為X=[X1,X2,…,Xc,…,XC]∈RD×N,D表示訓(xùn)練樣本的特征維度,N是訓(xùn)練樣本總的個(gè)數(shù),X1,X2,…,Xc,…,XC分別表示第1,2,…,c,…,C類樣本,定義N1,N2,…,Nc,…,NC分別表示每類訓(xùn)練樣本數(shù)目,則N=N1+N2+…Nc+…+NC;(二)對訓(xùn)練樣本進(jìn)行二范數(shù)歸一化,得到歸一化的訓(xùn)練樣本集X;(三)對每一類訓(xùn)練樣本分別訓(xùn)練其聚集詞典,訓(xùn)練詞典的過程為:1、取出第c類樣本Xc,將Xc映射到核空間φ(Xc);2、稀疏編碼詞典φ(Xc)Wc的訓(xùn)練需要滿足約束條件,所述約束條件的目標(biāo)函數(shù)為:式中,α為稀疏編碼算法中稀疏項(xiàng)約束的懲罰系數(shù),η為稀疏編碼詞典Xc中分類聚集約束的懲罰系數(shù),Sc為第c類核空間訓(xùn)練樣本的稀疏表示矩陣,K為學(xué)習(xí)得到的詞典的大小,是一個(gè)權(quán)重矩陣,其每一列表示核空間樣本對構(gòu)造詞典中每個(gè)詞條的貢獻(xiàn)大小,詞典Bc=φ(Xc)Wc,φ表示樣本在核空間中的映射,φ是未知的,但可以通過核函數(shù)計(jì)算其內(nèi)積,例如:κ(x,y)=<φ(x),φ(y)>。3、對步驟2中約束條件的目標(biāo)函數(shù)進(jìn)行求解,即對公式(1)求解,求解方法為:首先,對Wc和Sc進(jìn)行初始化,隨機(jī)生成兩個(gè)矩陣,其中,Wc是Nc×K矩陣,Sc是K×Nc矩陣;然后,交替迭代更新Wc和Sc,求取最優(yōu)的權(quán)重矩陣Wc和稀疏表示矩陣Sc,使得目標(biāo)函數(shù)值最小,將每一類訓(xùn)練樣本的權(quán)重矩陣Wc放置到一個(gè)大的矩陣當(dāng)中,獲得權(quán)重矩陣W,該權(quán)重矩陣W即為分類聚集詞典;其具體求解過程為:(1)固定Wc,更新Sc;將Wc帶入約束條件的目標(biāo)函數(shù),這時(shí)該目標(biāo)函數(shù)轉(zhuǎn)化成為一個(gè)關(guān)于Sc的l1范數(shù)正則化最小二乘問題,即目標(biāo)函數(shù)轉(zhuǎn)化為:忽略常數(shù)項(xiàng),上述公式(2)可以簡化為:κ(Xc,Xc)=<φ(Xc),φ(Xc)>為核函數(shù)。去掉常數(shù)項(xiàng),獲得以下公式:對Sc矩陣中的每一個(gè)元素進(jìn)行更新,使公式(4)最優(yōu),對Sc矩陣中的每一個(gè)元素進(jìn)行更新的方法步驟為:定義Sc中的第k行第n列的元素為更新Sc矩陣,使Sc矩陣滿足公式(3)的約束條件為:逐次更新Sc矩陣每一行每一列的元素;設(shè)第k行第n列的元素為未知,Sc矩陣其它元素為已知,則公式(3)可以變形為:上述公式(5)為變量的一元二次方程,則的最優(yōu)解為變量滿足如下方程:其中,E=WcTκ(Xc,Xc)Wc;依次遍歷Sc矩陣每一個(gè)元素,即求取最優(yōu)的稀疏表示矩陣Sc。(2)固定步驟(1)中求取的稀疏表示矩陣Sc,更新權(quán)重矩陣Wc,這時(shí)約束條件的目標(biāo)函數(shù)轉(zhuǎn)換為權(quán)重矩陣Wc的l2范數(shù)約束的最小二乘問題,即目標(biāo)函數(shù)轉(zhuǎn)化為:采用拉格朗日乘子的方法計(jì)算l2范數(shù)約束的最小二乘問題,忽略公式(7)中的常數(shù)項(xiàng)約束,則公式(7)變化為:式中,λk為拉格朗日乘子;根據(jù)Karush-Kuhn-Tucker條件,上述公式(8)取得最優(yōu)解需要滿足如下條件:對權(quán)重矩陣Wc的每一列逐次進(jìn)行更新,更新某一列時(shí),其余列則為固定值;通過求解公式(9)獲得Wc的每一列更新值為:式中,表示在滿足公式(7)的約束條件下的權(quán)重矩陣Wc的第k列的最優(yōu)值;F=ScScT,遍歷Wc的每一列來更新Wc的權(quán)值;(3)交替更新上述步驟(1)和步驟(2)來更新稀疏表示矩陣Sc和權(quán)重矩陣Wc的權(quán)值,當(dāng)上述公式(1)的目標(biāo)函數(shù)值f(Wc,Sc)趨于穩(wěn)定時(shí),稀疏表示矩陣Sc和權(quán)重矩陣Wc更新完畢;(4)依次訓(xùn)練每一類訓(xùn)練樣本的稀疏表示矩陣Sc和權(quán)重矩陣Wc;(5)將每一類訓(xùn)練樣本的權(quán)重矩陣Wc放置到一個(gè)大的矩陣當(dāng)中,獲得維數(shù)為N行C×K列的權(quán)重矩陣W,權(quán)重矩陣W表示為:上述獲得的權(quán)重矩陣W即為分類聚集詞典。步驟三:對圖像進(jìn)行識(shí)別,其步驟為:(一)采用卷積神經(jīng)網(wǎng)絡(luò)提取待識(shí)別測試樣本的圖像特征,具體如下:將測試樣本圖像尺度變?yōu)?24×224mm大小,然后調(diào)用VGG模型,提取該測試樣本圖像的特征,定義y∈RD×1表示一幅待識(shí)別的測試樣本圖像特征。(二)使用步驟二中獲得的權(quán)重矩陣W,對核空間φ(y)進(jìn)行擬合,獲取擬合函數(shù),獲取的擬合函數(shù)為:式中,s表示測試樣本φ(y)的稀疏編碼,φ(X)表示訓(xùn)練樣本X在核空間的映射。(三)對步驟(二)中獲取的擬合函數(shù)進(jìn)行求解,其求解結(jié)果為:式中,sk表示s中的第k個(gè)元素,(四)求核空間φ(y)在每類樣本所構(gòu)成子空間的擬合誤差,用r(c)表示,其表達(dá)式為:式中,φ(y)為測試樣本圖像特征y在核空間的映射。(五)比較核空間φ(y)和每類樣本的擬合誤差,待識(shí)別圖像則屬于擬合誤差最小的那個(gè)類別。通過本發(fā)明上述方法進(jìn)行人臉識(shí)別,一方面能夠有效地降低測試樣本在相應(yīng)子空間內(nèi)的擬合誤差,識(shí)別精確度高,另一方面,使得相同類別的測試樣本在稀疏空間內(nèi)能夠聚集在一起,從而提升人臉識(shí)別的性能。由于本發(fā)明人臉識(shí)別方法處理非線性結(jié)構(gòu)和關(guān)系的能力增強(qiáng),能夠有效發(fā)掘復(fù)雜數(shù)據(jù)的掩藏特征,進(jìn)一步提升了人臉識(shí)別性能。以上所舉實(shí)施例僅用為方便舉例說明本發(fā)明,并非對本發(fā)明保護(hù)范圍的限制,在本發(fā)明所述技術(shù)方案范疇,所屬技術(shù)領(lǐng)域的技術(shù)人員所作各種簡單變形與修飾,均應(yīng)包含在以上申請專利范圍中。
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會(huì)獲得點(diǎn)贊!
1
庐江县| 淳安县| 瓮安县| 林口县| 顺义区| 临澧县| 洛川县| 都兰县| 通河县| 汕头市| 江川县| 瑞金市| 交城县| 和龙市| 烟台市| 阳城县| 专栏| 潜江市| 白玉县| 霸州市| 抚顺市| 连山| 漾濞| 平武县| 上蔡县| 三河市| 内乡县| 朝阳县| 唐河县| 墨脱县| 呼和浩特市| 大足县| 陵川县| 万安县| 靖边县| 旬邑县| 光山县| 盈江县| 来安县| 丹巴县| 凤庆县|