欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法及人臉識(shí)別方法與流程

文檔序號(hào):12468507閱讀:322來(lái)源:國(guó)知局
深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法及人臉識(shí)別方法與流程

本發(fā)明涉及圖像處理領(lǐng)域,具體而言,涉及一種深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法、一種人臉識(shí)別方法及一種基于多深度神經(jīng)網(wǎng)絡(luò)融合的人臉認(rèn)證方法。



背景技術(shù):

人臉識(shí)別技術(shù)是利用圖像捕捉設(shè)備采集用戶的面部數(shù)據(jù)并由計(jì)算機(jī)通過(guò)特征提取和匹配,識(shí)別出用戶身份的技術(shù)。其主要步驟包括:(1)人臉檢測(cè),即從圖像捕捉設(shè)備采集的圖像中定位人臉的位置,提取出人臉對(duì)應(yīng)區(qū)域的圖像;(2)特征提取,即從人臉區(qū)域的圖像中通過(guò)計(jì)算,提取出有效的模式特征;(3)特征識(shí)別,對(duì)提取的模式特征與人臉特征庫(kù)中的各種進(jìn)行對(duì)比,從而識(shí)別出用戶身份。

人臉認(rèn)證是人臉識(shí)別的一個(gè)分支,要求計(jì)算機(jī)不僅可以識(shí)別人臉庫(kù)中已有的人臉,還要拒絕不屬于人臉庫(kù)中的人臉。人臉認(rèn)證在簽到系統(tǒng),監(jiān)控領(lǐng)域,人機(jī)交互,系統(tǒng)登錄等諸多領(lǐng)域有廣泛的應(yīng)用。

現(xiàn)有的識(shí)別、認(rèn)證技術(shù)在實(shí)施時(shí),人臉距離圖像采集設(shè)備的距離變化造成采集圖像的清晰度變化,距離較遠(yuǎn)時(shí)細(xì)節(jié)減少造成識(shí)別性能下降;另一方面由于人臉姿態(tài)變化,捕捉到人臉角度也在變化,導(dǎo)致采集到的圖像細(xì)節(jié)變化,有的情況下細(xì)節(jié)會(huì)丟失,從而造成識(shí)別準(zhǔn)確度下降。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明為了解決現(xiàn)有識(shí)別成功率低的技術(shù)問(wèn)題,第一方面提供了一種深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,包括如下步驟:

獲取帶有分類信息的人臉數(shù)據(jù)集;

根據(jù)所述分類信息對(duì)所述人臉數(shù)據(jù)集進(jìn)行分類,并將所述人臉數(shù)據(jù)集進(jìn)行對(duì)齊歸一化處理,形成訓(xùn)練數(shù)據(jù)集;

將所述訓(xùn)練數(shù)據(jù)集帶入到深度神經(jīng)網(wǎng)絡(luò)模型中,根據(jù)所述深度神經(jīng)網(wǎng)絡(luò)模型的損失函數(shù)及訓(xùn)練參數(shù)對(duì)所述深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到優(yōu)化深度神經(jīng)網(wǎng)絡(luò)模型;其中,針對(duì)不同清晰度的所述訓(xùn)練數(shù)據(jù)集,所述深度神經(jīng)網(wǎng)絡(luò)模型包括多個(gè)獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型,每個(gè)獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型對(duì)應(yīng)一個(gè)所述損失函數(shù)。

進(jìn)一步地,在將所述訓(xùn)練數(shù)據(jù)集帶入到深度神經(jīng)網(wǎng)絡(luò)模型中之前還包括步驟:針對(duì)每個(gè)所述獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型所應(yīng)對(duì)的清晰度,對(duì)待輸入到所述獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練數(shù)據(jù)集中的圖片進(jìn)行縮放和\或剪裁。

進(jìn)一步地,根據(jù)所述損失函數(shù)和訓(xùn)練參數(shù)采用隨機(jī)梯度下降法對(duì)所述深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。

本發(fā)明另一方面提供了一種人臉識(shí)別方法,包括如下步驟:

建立人臉模型庫(kù),所述人臉模型庫(kù)中至少包括1個(gè)人臉的模型;

使用所述人臉模型庫(kù)和權(quán)利要求1~4中任一建立的優(yōu)化深度神經(jīng)網(wǎng)絡(luò)模型,對(duì)待識(shí)別人臉圖片進(jìn)行識(shí)別,以確定所述待識(shí)別人臉屬于人臉模型庫(kù)中某一類的人臉標(biāo)識(shí)。

進(jìn)一步地,所述建立人臉模型庫(kù)的步驟包括:

獲取待識(shí)別的人臉對(duì)應(yīng)的標(biāo)識(shí)和人臉圖片集合;

對(duì)所述人臉圖片集合中的所有圖片進(jìn)行對(duì)齊處理;

將對(duì)齊后的人臉圖片集合中的圖片分別輸入到所述神經(jīng)網(wǎng)絡(luò)模型中,獲取特征向量集合,所述特征向量集合中的單個(gè)特征向量對(duì)應(yīng)一張所述圖片;

將所述特征向量集合及對(duì)應(yīng)的所述人臉標(biāo)識(shí)記錄到所述人臉模型庫(kù)中。

進(jìn)一步地,所述對(duì)待識(shí)別人臉圖片進(jìn)行識(shí)別的步驟包括:

獲取待識(shí)別人臉圖片并進(jìn)行對(duì)齊處理;

將對(duì)齊后的待識(shí)別人臉圖片分別輸入到所述神經(jīng)網(wǎng)絡(luò)模型中,獲取特征向量集合,所述特征向量集合中的單個(gè)特征向量對(duì)應(yīng)一個(gè)神經(jīng)網(wǎng)絡(luò)模型;

將所述特征向量集合與所述人臉模型庫(kù)進(jìn)行比對(duì),輸出最高相似度值及對(duì)應(yīng)最高相似度值的人臉標(biāo)識(shí);

將所述最高相似度值與閾值比較,如果大于閾值則輸出所述人臉標(biāo)識(shí)。

進(jìn)一步地,所述將所述特征向量集合與所述人臉模型庫(kù)進(jìn)行比對(duì),輸出最高相似度值及對(duì)應(yīng)最高相似度值的人臉標(biāo)識(shí)的步驟包括:將所述特征向量集合與所述人臉模型庫(kù)中各類別人臉進(jìn)行比對(duì)獲取各類別對(duì)應(yīng)的相似度,將各類別對(duì)應(yīng)的相似度值中的最高值作為所述最高相似度,將所述最高值對(duì)應(yīng)的類別作為所述對(duì)應(yīng)最高相似度值的人臉標(biāo)識(shí)。

進(jìn)一步地,所述將所述特征向量集合與所述人臉模型庫(kù)中各類別人臉進(jìn)行比對(duì)獲取各類別對(duì)應(yīng)的相似度的步驟包括:將所述特征向量集合中每個(gè)特征向量與所述人臉模型庫(kù)中一個(gè)類別圖片對(duì)應(yīng)的多個(gè)特征向量進(jìn)行對(duì)比,求取多幅圖片多個(gè)模型對(duì)應(yīng)的相似度集合,然后根據(jù)所述相似度集合進(jìn)行融合,求取模型融合后相似度集合,所述模型融合后的相似度集合對(duì)應(yīng)一個(gè)類別中多幅圖片,對(duì)所述模型融合后的相似度集合進(jìn)行歸納,獲得所述類別對(duì)應(yīng)的相似度。

進(jìn)一步地,所述求取多幅圖片多個(gè)模型對(duì)應(yīng)的相似度集合的步驟包括:利用向量余弦函數(shù)求出相似度值;所述根據(jù)所述相似度集合進(jìn)行融合的步驟包括,采用均值函數(shù)進(jìn)行融合;所述對(duì)所述模型融合后的相似度集合進(jìn)行歸納的步驟包括:采用最大值函數(shù)進(jìn)行歸納。

本發(fā)明另一方面提供了一種基于多深度神經(jīng)網(wǎng)絡(luò)融合的人臉認(rèn)證方法,包括:

獲取帶有分類信息的人臉數(shù)據(jù)集,并進(jìn)行人臉對(duì)齊處理;

設(shè)計(jì)多個(gè)深度神經(jīng)網(wǎng)絡(luò)模型,并確定損失函數(shù);

將人臉數(shù)據(jù)集輸入神經(jīng)網(wǎng)絡(luò)模型,并根據(jù)訓(xùn)練參數(shù)和損失函數(shù)的值訓(xùn)練網(wǎng)絡(luò),得到多個(gè)優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型;

獲取待識(shí)別人臉的標(biāo)識(shí)和圖片集,使用上述多個(gè)優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型提取特征向量集合,構(gòu)造人臉模型庫(kù);

獲取待識(shí)別圖片并進(jìn)行對(duì)齊處理,使用上述多個(gè)優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型提取特征向量集合,將該特征向量集合,與人臉模型庫(kù)中的各人臉模型進(jìn)行比對(duì),輸出相似度值最高的人臉類別和對(duì)應(yīng)的最高相似度值;

根據(jù)上述最高相似度值與預(yù)設(shè)閾值的關(guān)系,若最高相似度值大于預(yù)設(shè)閾值,則識(shí)別待識(shí)別圖片為所述相似度最高的人臉類別,否則拒絕識(shí)別該人臉圖片,判定不屬于人臉庫(kù)中的任何類別。

進(jìn)一步地,所述根據(jù)訓(xùn)練參數(shù)和損失函數(shù)的值訓(xùn)練網(wǎng)絡(luò),包括:

將所述圖片集中的圖片輸入到深度神經(jīng)網(wǎng)絡(luò)模型;

執(zhí)行深度神經(jīng)網(wǎng)絡(luò)的前向計(jì)算過(guò)程,計(jì)算出損失函數(shù)的值;

根據(jù)多元函數(shù)的鏈?zhǔn)椒▌t計(jì)算損失函數(shù)對(duì)各神經(jīng)網(wǎng)絡(luò)參數(shù)的偏導(dǎo)數(shù)值;

根據(jù)設(shè)定的權(quán)值更新策略和參數(shù),更新各神經(jīng)網(wǎng)絡(luò)的參數(shù);

計(jì)算更新后的神經(jīng)網(wǎng)絡(luò)在訓(xùn)練數(shù)據(jù)集上的平均損失函數(shù)值,當(dāng)該值小于預(yù)設(shè)的損失閾值時(shí),終止訓(xùn)練過(guò)程,得到訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)模型。

進(jìn)一步地,所述構(gòu)造人臉模型庫(kù)的步驟,包括:

從視頻采集設(shè)備中獲取待識(shí)別人的圖片數(shù)據(jù)集或者從圖片集中選取,記錄人臉標(biāo)記和圖片的對(duì)應(yīng)關(guān)系,形成待識(shí)別數(shù)據(jù)集;

使用所述多深度神經(jīng)網(wǎng)絡(luò)模型提取待識(shí)別數(shù)據(jù)集的特征向量集合;

將所述特征向量集合與人臉標(biāo)記的信息保存,形成人臉模型庫(kù)。

進(jìn)一步地,所述與人臉模型庫(kù)中的各人臉模型進(jìn)行比對(duì)的過(guò)程包括:

在計(jì)算待識(shí)別圖片與人臉模型中一幅圖片相似度時(shí),使用融合函數(shù)對(duì)多個(gè)深度神經(jīng)網(wǎng)絡(luò)模型的特征向量進(jìn)行融合;

在計(jì)算待識(shí)別圖片與人臉模型中一個(gè)類別的相似度時(shí),使用了歸納函數(shù)對(duì)一個(gè)類別的多個(gè)人臉圖片的相似度進(jìn)行歸納,得到待識(shí)別圖片與該人臉類別的相似度值。

通過(guò)上述實(shí)施例的技術(shù)方案,本發(fā)明中采用大量的包含各種人臉姿態(tài)的樣本圖像,對(duì)深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到的模型能夠更好的處理人臉不同姿態(tài)造成識(shí)別率下降的問(wèn)題,對(duì)人臉的姿態(tài)變化具有較好的適應(yīng)性,提高了人臉識(shí)別的準(zhǔn)確率。

其二,為了解決不同清晰度的人臉識(shí)別問(wèn)題,本發(fā)明中采用了多深度神經(jīng)網(wǎng)絡(luò)模型融合的方法,對(duì)不同分辨率的人臉圖像進(jìn)行特征提取,有效提高了因人臉圖片在一定距離范圍內(nèi)變化的識(shí)別率。

附圖說(shuō)明

通過(guò)參考附圖會(huì)更加清楚的理解本發(fā)明的特征和優(yōu)點(diǎn),附圖是示意性的而不應(yīng)理解為對(duì)本發(fā)明進(jìn)行任何限制,在附圖中:

圖1為本發(fā)明一些實(shí)施例中的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法的流程示意圖;

圖2為本發(fā)明一些實(shí)施例中的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法的流程示意圖;

圖3為本發(fā)明一些實(shí)施例中的人臉識(shí)別方法的流程示意圖;

圖4為本發(fā)明一些實(shí)施例中的人臉識(shí)別方法的流程示意圖;

圖5為本發(fā)明一些實(shí)施例中的人臉識(shí)別方法中部分步驟的流程示意圖;

圖6為本發(fā)明一些實(shí)施例中的人臉識(shí)別方法中部分步驟的流程示意圖。

具體實(shí)施方式

為了能夠更清楚地理解本發(fā)明的上述目的、特征和優(yōu)點(diǎn),下面結(jié)合附圖和具體實(shí)施方式對(duì)本發(fā)明進(jìn)行進(jìn)一步的詳細(xì)描述。需要說(shuō)明的是,在不沖突的情況下,本申請(qǐng)的實(shí)施例及實(shí)施例中的特征可以相互組合。

在下面的描述中闡述了很多具體細(xì)節(jié)以便于充分理解本發(fā)明,但是,本發(fā)明還可以采用其他不同于在此描述的其他方式來(lái)實(shí)施,因此,本發(fā)明的保護(hù)范圍并不受下面公開(kāi)的具體實(shí)施例的限制。

現(xiàn)有的人臉識(shí)別過(guò)程存在的困難主要包括:

人臉距離圖像采集設(shè)備距離的變化,會(huì)造成采集圖像清晰度的變化,距離遠(yuǎn)時(shí)圖像細(xì)節(jié)減少,造成識(shí)別性能下降;人臉姿態(tài)變化,采集設(shè)備捕捉人臉的角度變化和人臉姿態(tài)的變化都會(huì)導(dǎo)致成像的變化,從而影響識(shí)別的準(zhǔn)確性。

本發(fā)明為了識(shí)別人臉的分類信息,建立了基于分類信息的深度神經(jīng)網(wǎng)絡(luò),從而能夠優(yōu)化人臉的特征描述,使得識(shí)別過(guò)程快速、抗干擾強(qiáng),繼而能夠識(shí)別不同的角度,光線強(qiáng)度不同的人臉圖片。

本發(fā)明中處理的圖片數(shù)據(jù)不限于RGB彩色圖像數(shù)據(jù),還可以是單通道灰色圖像數(shù)據(jù),或者其他色彩空間的圖像數(shù)據(jù)如YUV,Lab。

實(shí)施例一

如圖1所示,本發(fā)明第一方面提供了一種深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法,包括如下步驟:

S101獲取帶有分類信息的人臉數(shù)據(jù)集。

S102根據(jù)所述分類信息對(duì)所述人臉數(shù)據(jù)集進(jìn)行分類,并將所述人臉數(shù)據(jù)集進(jìn)行對(duì)齊歸一化處理,形成訓(xùn)練數(shù)據(jù)集。

S103將所述訓(xùn)練數(shù)據(jù)集帶入到深度神經(jīng)網(wǎng)絡(luò)模型中,根據(jù)所述深度神經(jīng)網(wǎng)絡(luò)模型的損失函數(shù)及訓(xùn)練參數(shù)對(duì)所述深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到優(yōu)化深度神經(jīng)網(wǎng)絡(luò)模型。通過(guò)對(duì)人臉數(shù)據(jù)集進(jìn)行分類并對(duì)齊處理,消除了人臉角度對(duì)識(shí)別的影響,提高了所述優(yōu)化深度神經(jīng)網(wǎng)絡(luò)識(shí)別率,同時(shí)將屬于同一類的人臉數(shù)據(jù)歸類,如屬于同一個(gè)對(duì)象,一個(gè)人的圖片歸為一類,使得針對(duì)同一類別的識(shí)別率有效提升。

本發(fā)明中的深度神經(jīng)網(wǎng)絡(luò)模型的數(shù)量根據(jù)需要設(shè)定,例如可為一個(gè),也可為多個(gè),本發(fā)明的實(shí)施例為了考慮到圖像拍攝時(shí)距離對(duì)象遠(yuǎn)近造成,所拍攝的圖片的清晰度不同的問(wèn)題進(jìn)行了考慮,針對(duì)不同清晰度的圖片設(shè)計(jì)不同的深度神經(jīng)網(wǎng)絡(luò),層數(shù)可相同也可不同,所述步驟S103中的所述深度神經(jīng)網(wǎng)絡(luò)模型包括多個(gè)獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型,每個(gè)獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型對(duì)應(yīng)一個(gè)所述損失函數(shù),各自獨(dú)立表征各個(gè)神經(jīng)網(wǎng)絡(luò),獨(dú)立運(yùn)行,具有獨(dú)立的參數(shù)。這樣使得針對(duì)不同清晰度的一類圖片各自處理,提高了整體的識(shí)別效率,同時(shí)針對(duì)不同清晰度的圖片進(jìn)行處理,更加具有針對(duì)性,使得神經(jīng)網(wǎng)絡(luò)參數(shù)健壯,參數(shù)可信度高,有力提升了將來(lái)的識(shí)別成功率。

本發(fā)明為了使得不同清晰度的圖片都能有效的利用到訓(xùn)練過(guò)程中,從而保證訓(xùn)練集的普遍性,從而提高識(shí)別廣度,所述S103中在將所述訓(xùn)練數(shù)據(jù)集帶入到深度神經(jīng)網(wǎng)絡(luò)模型中之前還包括步驟:針對(duì)每個(gè)所述獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型所應(yīng)對(duì)的清晰度,對(duì)待輸入到所述獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練數(shù)據(jù)集中的圖片進(jìn)行縮放和\或剪裁。

在本發(fā)明的一些實(shí)施例中根據(jù)所述損失函數(shù)和訓(xùn)練參數(shù)采用隨機(jī)梯度下降法對(duì)所述深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。

本發(fā)明實(shí)施例中采用大量的包含各種人臉姿態(tài)的樣本圖像,對(duì)深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到的模型能夠更好的處理人臉不同姿態(tài)造成識(shí)別率下降的問(wèn)題,對(duì)人臉的姿態(tài)變化具有較好的適應(yīng)性,提高了人臉識(shí)別的準(zhǔn)確率。

本發(fā)明中為克服不同人臉姿態(tài)對(duì)識(shí)別的影響,采集了包含多個(gè)人臉的各種姿態(tài)的樣本數(shù)據(jù),設(shè)計(jì)了一種復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練方法,通過(guò)訓(xùn)練得到的模型能夠更好的克服姿態(tài)對(duì)人臉識(shí)別的影響,放寬了人臉識(shí)別時(shí)對(duì)人臉姿態(tài)的約束,使識(shí)別更自然更精確。

實(shí)施例二

如圖2所示,本發(fā)明提供了一種深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法,包括如下步驟:

S110:獲取帶有分類信息的包含多個(gè)類別的人臉數(shù)據(jù)集。一個(gè)類別表示同一個(gè)對(duì)象,即一個(gè)人。人臉數(shù)據(jù)集中應(yīng)包含多個(gè)類別的人臉數(shù)據(jù),每個(gè)類別至少包含一幅人臉圖片。本發(fā)明的一個(gè)實(shí)施例中使用的數(shù)據(jù)集包含的類別數(shù)約為1萬(wàn),總數(shù)據(jù)集大小約100萬(wàn)幅圖片。數(shù)據(jù)集的獲取可以從開(kāi)放數(shù)據(jù)集得到或者從互聯(lián)網(wǎng)上搜集。

S120:根據(jù)分類信息對(duì)所述人臉圖片進(jìn)行分類,并將所述人臉圖片進(jìn)行對(duì)齊歸一化處理,形成訓(xùn)練數(shù)據(jù)集,上述分類過(guò)程例如可采用機(jī)器分類,由于訓(xùn)練數(shù)據(jù)是帶標(biāo)簽(分類信息)的數(shù)據(jù),因此將訓(xùn)練數(shù)據(jù)轉(zhuǎn)化為深度神經(jīng)網(wǎng)絡(luò)需要的專用數(shù)據(jù),然后根據(jù)標(biāo)簽進(jìn)行統(tǒng)計(jì)分類,具體轉(zhuǎn)化方法為:將單類中樣本數(shù)較少的數(shù)據(jù)類別去除;將樣本進(jìn)行隨機(jī)打亂生成批量RGB圖像數(shù)據(jù)。

獲取到的人臉圖片在大小和角度上不一致,會(huì)對(duì)識(shí)別效果造成不良影響,通過(guò)現(xiàn)有方式對(duì)人臉圖片進(jìn)行關(guān)鍵點(diǎn)對(duì)齊處理,消除因人臉角度對(duì)識(shí)別的影響。其中使用的關(guān)鍵點(diǎn)為雙眼的中點(diǎn)和嘴巴的中點(diǎn),使所述兩個(gè)關(guān)鍵點(diǎn)在歸一化的圖像上在固定位置。

S130:設(shè)計(jì)用于提取人臉特征的深度神經(jīng)網(wǎng)絡(luò)模型,該模型可以獨(dú)立設(shè)計(jì)得到。也可以使用現(xiàn)有模型,例如VGG-Face(Omkar M.Parkhi,Andrea Vedaldi,Andrew Zisserman Deep Face Recognition BMVC 2015),或者在現(xiàn)有網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行修改得到。本發(fā)明的一個(gè)實(shí)施例中,為增強(qiáng)識(shí)別方法對(duì)因人臉距離圖像采集設(shè)備距離變化造成圖像清晰度變化造成識(shí)別率下降的問(wèn)題,設(shè)計(jì)了K個(gè)獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型,記為M1,M2,…,Mk,以對(duì)不同的清晰度的輸入數(shù)據(jù)進(jìn)行建模。輸入到不同網(wǎng)絡(luò)模型中的人臉圖片的尺寸以一定的比例變化。不同的網(wǎng)絡(luò)模型可以采用相同的層級(jí)結(jié)構(gòu),也可以為各網(wǎng)絡(luò)設(shè)計(jì)不同的層級(jí)結(jié)構(gòu)。本發(fā)明中提出使用多深度網(wǎng)絡(luò)模型來(lái)分別建模高低清晰度的人臉,其網(wǎng)絡(luò)模型數(shù)目可以是兩個(gè)或者以上,各深度神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)可以一致,也可以分別設(shè)計(jì)不同的結(jié)構(gòu)。

S140:針對(duì)上述K個(gè)深度神經(jīng)網(wǎng)絡(luò)模型的每一個(gè)模型Mi,定義損失函數(shù)為SoftmaxLoss,將所述訓(xùn)練圖片輸入到網(wǎng)絡(luò)中。

S150:根據(jù)所述損失函數(shù)以及訓(xùn)練參數(shù),使用現(xiàn)有方法對(duì)模型進(jìn)行訓(xùn)練,得到優(yōu)化的網(wǎng)絡(luò)模型。上述K個(gè)網(wǎng)絡(luò)分別獨(dú)立訓(xùn)練,在將訓(xùn)練圖片集輸入到網(wǎng)絡(luò)前,需根據(jù)對(duì)應(yīng)網(wǎng)絡(luò)的輸入要求對(duì)訓(xùn)練集圖片進(jìn)行縮放或者裁剪。這樣,保證了各種角度和清晰度的圖片上的信息都能利用上,保證了信息的利用率,也使得建立的模型涉及到更廣泛的信息,從而使得識(shí)別成功率提升。

在一個(gè)實(shí)施例中,可以根據(jù)所述損失函數(shù)值和訓(xùn)練參數(shù)用隨機(jī)梯度下降法在所述訓(xùn)練集中訓(xùn)練所述深度神經(jīng)網(wǎng)絡(luò)。能夠使得訓(xùn)練快速收斂,保證了學(xué)習(xí)的效率。在一些實(shí)施例中訓(xùn)練神經(jīng)網(wǎng)絡(luò)步驟包括:將所述圖片集中的圖片輸入到深度神經(jīng)網(wǎng)絡(luò)模型;執(zhí)行深度神經(jīng)網(wǎng)絡(luò)的前向計(jì)算過(guò)程,計(jì)算出損失函數(shù)的值;根據(jù)多元函數(shù)的鏈?zhǔn)椒▌t計(jì)算損失函數(shù)對(duì)各神經(jīng)網(wǎng)絡(luò)參數(shù)的偏導(dǎo)數(shù)值;根據(jù)設(shè)定的權(quán)值更新策略和參數(shù),更新各神經(jīng)網(wǎng)絡(luò)的參數(shù);計(jì)算更新后的神經(jīng)網(wǎng)絡(luò)在訓(xùn)練數(shù)據(jù)集上的平均損失函數(shù)值,當(dāng)該值小于預(yù)設(shè)的損失閾值時(shí),終止訓(xùn)練過(guò)程,得到訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)模型。

訓(xùn)練參數(shù)包括學(xué)習(xí)率及動(dòng)量系數(shù)。在一個(gè)較優(yōu)實(shí)施例中,學(xué)習(xí)率的值可以默認(rèn)設(shè)置為0.001,動(dòng)量系數(shù)設(shè)置為0.9。

本發(fā)明實(shí)施例中采用大量的包含各種人臉姿態(tài)的樣本圖像,對(duì)深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到的模型能夠更好的處理人臉不同姿態(tài)造成識(shí)別率下降的問(wèn)題,對(duì)人臉的姿態(tài)變化具有較好的適應(yīng)性,提高了人臉識(shí)別的準(zhǔn)確率,也提高了識(shí)別的效率,使得識(shí)別的時(shí)間成本降低。

實(shí)施例三

本發(fā)明的本實(shí)施例在獲取實(shí)施例一和實(shí)施例二獲取了優(yōu)化深度神經(jīng)網(wǎng)絡(luò)之后,利用所述優(yōu)化深度神經(jīng)網(wǎng)絡(luò)對(duì)人臉圖片進(jìn)行識(shí)別,識(shí)別之后獲取分類信息,即分來(lái)標(biāo)識(shí)。具體地,如圖3所示,提供了一種人臉識(shí)別方法,包括步驟:

S201建立人臉模型庫(kù),所述人臉模型庫(kù)中至少包括1個(gè)人臉的模型。

S202使用所述人臉模型庫(kù)和實(shí)施例一或?qū)嵤├我唤⒌膬?yōu)化深度神經(jīng)網(wǎng)絡(luò)模型,對(duì)待識(shí)別人臉圖片進(jìn)行識(shí)別,以確定所述待識(shí)別人臉屬于人臉模型庫(kù)中某一類的人臉標(biāo)識(shí)。本發(fā)明的實(shí)施例通過(guò)根據(jù)分類信息建立優(yōu)化深度神經(jīng)網(wǎng)絡(luò)模型使得識(shí)別率有效提升,信息利用率大,識(shí)別成功率高,根據(jù)不同清晰度建立多個(gè)獨(dú)立的深度神經(jīng)網(wǎng)絡(luò)模型,使得識(shí)別算法能夠利用各自的模型處理不同清晰度的圖片,處理速度快,具有針對(duì)性。

在本發(fā)明的實(shí)施例中所述建立人臉模型庫(kù)的步驟包括:獲取待識(shí)別的人臉對(duì)應(yīng)的標(biāo)識(shí)和人臉圖片集合;對(duì)所述人臉圖片集合中的所有圖片進(jìn)行對(duì)齊處理;將對(duì)齊后的人臉圖片集合中的圖片分別輸入到所述神經(jīng)網(wǎng)絡(luò)模型中,獲取特征向量集合,所述特征向量集合中的單個(gè)特征向量對(duì)應(yīng)一張所述圖片;將所述特征向量集合及對(duì)應(yīng)的所述人臉標(biāo)識(shí)記錄到所述人臉模型庫(kù)中。本實(shí)施例中,當(dāng)所述優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)模型為一個(gè)時(shí),即將人臉圖片集合(N張)輸入到模型中,獲得特征向量集合(N個(gè)特征向量),所述優(yōu)化深度神經(jīng)網(wǎng)絡(luò)模型為多個(gè)時(shí)(K個(gè)),則將人臉圖片集合輸入到多個(gè)網(wǎng)絡(luò)模型中后獲得的特征向量集合中包括了K*N個(gè)特征向量。

本發(fā)明實(shí)施例中所述對(duì)待識(shí)別人臉圖片進(jìn)行識(shí)別的步驟包括:獲取待識(shí)別人臉圖片并進(jìn)行對(duì)齊處理;將對(duì)齊后的待識(shí)別人臉圖片分別輸入到所述神經(jīng)網(wǎng)絡(luò)模型中,獲取特征向量集合,所述特征向量集合中的單個(gè)特征向量對(duì)應(yīng)一個(gè)神經(jīng)網(wǎng)絡(luò)模型;將所述特征向量集合與所述人臉模型庫(kù)進(jìn)行比對(duì),輸出最高相似度值及對(duì)應(yīng)最高相似度值的人臉標(biāo)識(shí);將所述最高相似度值與閾值比較,如果大于閾值則輸出所述人臉標(biāo)識(shí)。本發(fā)明實(shí)施例中對(duì)于單個(gè)頭像,將單個(gè)頭像對(duì)應(yīng)的特征向量或者特征向量集合與人臉模型庫(kù)中特征向量進(jìn)行比較,求出相似度,通過(guò)相似度與閾值的比較得到待識(shí)別頭像是否在模型庫(kù)中的結(jié)果,繼而找出對(duì)應(yīng)的標(biāo)識(shí)。當(dāng)待識(shí)別圖片中包括多個(gè)頭像時(shí),對(duì)每個(gè)頭像依次都進(jìn)行上述的處理,從而依次確認(rèn)頭像是否在庫(kù)中。

本發(fā)明實(shí)施例中,先從類中求出最高的相似度,再在各個(gè)類中選出最高的類,具體地,所述將所述特征向量集合與所述人臉模型庫(kù)進(jìn)行比對(duì),輸出最高相似度值及對(duì)應(yīng)最高相似度值的人臉標(biāo)識(shí)的步驟包括:將所述特征向量集合與所述人臉模型庫(kù)中各類別人臉進(jìn)行比對(duì)獲取各類別對(duì)應(yīng)的相似度,將各類別對(duì)應(yīng)的相似度值中的最高值作為所述最高相似度,將所述最高值對(duì)應(yīng)的類別作為所述對(duì)應(yīng)最高相似度值的人臉標(biāo)識(shí)。

本發(fā)明中對(duì)于求出類中最高相似度的步驟包括融合、歸納等步驟,使得頭像圖片與各個(gè)模型各個(gè)庫(kù)中的圖片對(duì)應(yīng)特征向量進(jìn)行比對(duì),從而還考慮了類信息,將相似度融合后,在比較,能夠?qū)⒏鞣N比對(duì)結(jié)果都利用上,減小誤差對(duì)結(jié)果的影響,保證了結(jié)果的準(zhǔn)確性,同時(shí)針對(duì)不同清晰度存在針對(duì)的模型,且又不失去其他清晰度對(duì)應(yīng)的模型的描述,具有遍歷性。具體地,所述將所述特征向量集合與所述人臉模型庫(kù)中各類別人臉進(jìn)行比對(duì)獲取各類別對(duì)應(yīng)的相似度的步驟包括:將所述特征向量集合中每個(gè)特征向量與所述人臉模型庫(kù)中一個(gè)類別圖片對(duì)應(yīng)的多個(gè)特征向量進(jìn)行對(duì)比,求取多幅圖片多個(gè)模型對(duì)應(yīng)的相似度集合,然后根據(jù)所述相似度集合進(jìn)行融合,把不同模型對(duì)應(yīng)的相似度進(jìn)行融合,求取模型融合后相似度集合,所述模型融合后的相似度集合對(duì)應(yīng)一個(gè)類別中多幅圖片,對(duì)所述模型融合后的相似度集合進(jìn)行歸納,獲得所述類別對(duì)應(yīng)的相似度。

在本發(fā)明一些實(shí)施例中所述求取多幅圖片多個(gè)模型對(duì)應(yīng)的相似度集合的步驟包括:利用向量余弦函數(shù)求出相似度值;所述根據(jù)所述相似度集合進(jìn)行融合的步驟包括,采用均值函數(shù)進(jìn)行融合,從而考慮到每個(gè)參數(shù);所述對(duì)所述模型融合后的相似度集合進(jìn)行歸納的步驟包括:采用最大值函數(shù)進(jìn)行歸納,選取最具代表性的參數(shù)。在一些實(shí)施例中求出相似度值還可以采用歐氏距離、明氏距離、馬氏距離的負(fù)值來(lái)表征。在一些實(shí)施例中,融合步驟還可采用最大值函數(shù)或者中值函數(shù)來(lái)計(jì)算。在一些實(shí)施例中,歸納步驟還可采用均值函數(shù)或者中值函數(shù)計(jì)算。

本發(fā)明中為克服不同清晰度人臉圖片對(duì)識(shí)別的影響,創(chuàng)造性的提出了多模型融合的方法,有效的解決了因人臉庫(kù)建立時(shí)人臉數(shù)據(jù)與識(shí)別時(shí)人臉數(shù)據(jù)清晰度差異造成識(shí)別率下降的問(wèn)題。使得人臉識(shí)別技術(shù)可以在更大的距離范圍內(nèi)工作,減少了環(huán)境約束,擴(kuò)展了人臉識(shí)別技術(shù)應(yīng)用的場(chǎng)景。

實(shí)施例四

與實(shí)施例三類似,本實(shí)施例利用了上述實(shí)施例一或?qū)嵤├猩傻膬?yōu)化深度網(wǎng)絡(luò)模型中,如圖4所示,本發(fā)明提供了一種人臉識(shí)別方法,包括步驟:

S210:建立可識(shí)別的人臉模型庫(kù),人臉庫(kù)中至少需要包含1個(gè)人臉的模型;

S220:使用所述人臉識(shí)別庫(kù)和訓(xùn)練完成的多神經(jīng)網(wǎng)絡(luò)模型,對(duì)待識(shí)別人臉圖片進(jìn)行識(shí)別,以確定帶識(shí)別人臉圖片屬于人臉庫(kù)中某一類的身份標(biāo)識(shí),或者給出拒絕識(shí)別的結(jié)果。訓(xùn)練完成的多神經(jīng)網(wǎng)絡(luò)模型即為上述優(yōu)化深度神經(jīng)網(wǎng)絡(luò)模型。

具體地,請(qǐng)參閱圖5,步驟S210包括:

S310:獲取待識(shí)別的人臉對(duì)應(yīng)的標(biāo)識(shí)L和人臉圖片集合P,其中P可以包含1幅人臉圖片或者包含多幅人臉圖片,即P={P1,…,Pm},其中m為正整數(shù)。獲取人臉圖片集可以用現(xiàn)有方法實(shí)現(xiàn),如通過(guò)圖像采集設(shè)備采集,或者從照片中選取。

S320:對(duì)上述人臉圖片集合P中的所有圖片進(jìn)行對(duì)齊處理,對(duì)齊處理的可用現(xiàn)有技術(shù)實(shí)現(xiàn),此處使用的對(duì)齊處理如步驟S120中所述。

S330:對(duì)所述對(duì)齊后的圖片集合P中的每一個(gè)圖片Pi分別輸入到所述K個(gè)深度神經(jīng)網(wǎng)絡(luò)模型中,計(jì)算得到對(duì)應(yīng)的K個(gè)特征向量的列表,記為Vi=<Vi1,...,Vik>,則集合P對(duì)應(yīng)的特征向量集合V={V1,...,Vm}。

S340:將上述特征向量集合V及對(duì)應(yīng)的人臉標(biāo)識(shí)L,記錄到人臉庫(kù)模型庫(kù)中。

本發(fā)明的人臉識(shí)別方法可以支持多人臉的識(shí)別,當(dāng)有多個(gè)待識(shí)別人臉時(shí),分別對(duì)每個(gè)待識(shí)別人臉重復(fù)上述步驟S310-S340以完成人臉模型庫(kù)的建模。

具體地,請(qǐng)參閱圖6,步驟S220包括:

S410:獲取一幅待識(shí)別的人臉圖片Pr,可以通過(guò)現(xiàn)有方法實(shí)現(xiàn),如從圖像采集設(shè)備得到或者從包含人臉的照片中選取。

S420:對(duì)上述人臉圖片Pr進(jìn)行對(duì)齊處理,得到對(duì)齊后的人臉圖片Pr,對(duì)齊處理的可用現(xiàn)有技術(shù)實(shí)現(xiàn),此處使用的對(duì)齊處理如步驟S120中所述。

S430:將所述對(duì)齊后的人臉圖片Pr分別輸入到所述K個(gè)深度神經(jīng)網(wǎng)絡(luò)模型中,計(jì)算得到對(duì)應(yīng)的K個(gè)特征向量的列表,記為Vr=<Vr1,...,Vrk>。

S440:將所述特征向量的列表Vr,與所述人臉模型庫(kù)進(jìn)行比對(duì),輸出相似度值最高的人臉標(biāo)識(shí)Lmax及該最高相似度值Smax。設(shè)人臉庫(kù)中包含Q個(gè)人臉的類別,一般地,設(shè)一個(gè)類別的標(biāo)識(shí)為L(zhǎng),具有m個(gè)人臉圖片,該類別對(duì)應(yīng)的特征向量集合V={V1,...,Vm}。計(jì)算Vr與所述特征向量集合V的相似度的過(guò)程為:

定義向量相似度的度量函數(shù)SimFunc(X,Y),輸入兩個(gè)向量,輸出一個(gè)實(shí)數(shù)值。將Vr與特征向量集合V中的第i個(gè)向量列表Vi的對(duì)應(yīng)特征向量進(jìn)行度量,可以得到相似度值列表Si=<Si1,…,Sik>,其中Sij=SimFunc(Vrj,Vij),在一個(gè)實(shí)施例中SimFunc可以使用向量余弦相似度;

定義一個(gè)融合函數(shù)MergeFunc(<.>),輸入相似度值的列表,輸出一個(gè)實(shí)數(shù)相似度值。將所述相似度值列表Si輸入融合函數(shù),得到Vr與向量列表Vi的相似度值Fi=MergeFunc(Si),Vr與集合中V中的所有向量計(jì)算的相似度值形成集合F={F1,…,Fm}。在一個(gè)實(shí)施例中,MergeFunc可以選擇為均值函數(shù),即輸出列表中所有數(shù)值的平均值;

定義歸納函數(shù)ComFunc({.}),輸入相似度的集合,輸出一個(gè)實(shí)值相似度值。將所述集合F輸入到歸納函數(shù)中,得到輸入圖片Pr與人臉庫(kù)中該類別L的相似度SL=ComFunc(F)。在一個(gè)實(shí)施例中ComFunc可以使用最大值函數(shù),即輸出輸入集合中的最大值。

對(duì)人臉庫(kù)中的所有人臉類別,分別計(jì)算出Pr與各類別的相似度,輸出相似度最高的類別表示Lmax和對(duì)應(yīng)的相似度值Smax。

S450:將所述輸出最高相似度值Smax與預(yù)設(shè)相似度閾值T進(jìn)行比較,若Smax>T,則輸出識(shí)別人臉標(biāo)識(shí)為L(zhǎng)max;否則拒絕識(shí)別,即判決人臉圖片Pr不屬于人臉庫(kù)中任何類別。所述預(yù)設(shè)的相似度閾值T通過(guò)在測(cè)試數(shù)據(jù)集中確定。

本發(fā)明中提出使用多深度網(wǎng)絡(luò)模型來(lái)分別建模高低清晰度的人臉,其網(wǎng)絡(luò)模型數(shù)目可以是兩個(gè)或者以上,各深度神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)可以一致,也可以分別設(shè)計(jì)不同的結(jié)構(gòu)。

本發(fā)明中所述定義向量相似度的度量函數(shù)SimFunc,不限于向量余弦相似度函數(shù),還可以是歐氏距離、明氏距離、馬氏距離的負(fù)值。

本發(fā)明中所述融合函數(shù)MergeFunc,不限于均值函數(shù),還可以是最大值函數(shù),中值函數(shù)等。

本發(fā)明中所述歸納函數(shù)ComFunc,不限于最大值函數(shù),還可以是均值函數(shù),中值函數(shù)等。

本發(fā)明中為克服不同清晰度人臉圖片對(duì)識(shí)別的影響,創(chuàng)造性的提出了多模型融合的方法,有效的解決了因人臉庫(kù)建立時(shí)人臉數(shù)據(jù)與識(shí)別時(shí)人臉數(shù)據(jù)清晰度差異造成識(shí)別率下降的問(wèn)題。使得人臉識(shí)別技術(shù)可以在更大的距離范圍內(nèi)工作,減少了環(huán)境約束,擴(kuò)展了人臉識(shí)別技術(shù)應(yīng)用的場(chǎng)景。

實(shí)施例五

與實(shí)施例一至實(shí)施例四原理類似,本發(fā)明本實(shí)施例還提供了一種基于多深度神經(jīng)網(wǎng)絡(luò)融合的人臉認(rèn)證方法,包括:

獲取帶有分類信息的人臉數(shù)據(jù)集,并進(jìn)行人臉對(duì)齊處理;

設(shè)計(jì)多個(gè)深度神經(jīng)網(wǎng)絡(luò)模型,并確定損失函數(shù);

將人臉數(shù)據(jù)集輸入神經(jīng)網(wǎng)絡(luò)模型,并根據(jù)訓(xùn)練參數(shù)和損失函數(shù)的值訓(xùn)練網(wǎng)絡(luò),得到多個(gè)優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型;

獲取待識(shí)別人臉的標(biāo)識(shí)和圖片集,使用上述多個(gè)優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型提取特征向量集合,構(gòu)造人臉模型庫(kù);

獲取待識(shí)別圖片并進(jìn)行對(duì)齊處理,使用上述多個(gè)優(yōu)化的神經(jīng)網(wǎng)絡(luò)模型提取特征向量集合,將該特征向量集合,與人臉模型庫(kù)中的各人臉模型進(jìn)行比對(duì),輸出相似度值最高的人臉類別和對(duì)應(yīng)的最高相似度值;

根據(jù)上述最高相似度值與預(yù)設(shè)閾值的關(guān)系,若最高相似度值大于預(yù)設(shè)閾值,則識(shí)別待識(shí)別圖片為所述相似度最高的人臉類別,否則拒絕識(shí)別該人臉圖片,判定不屬于人臉庫(kù)中的任何類別。

本發(fā)明實(shí)施例中,所述根據(jù)訓(xùn)練參數(shù)和損失函數(shù)的值訓(xùn)練網(wǎng)絡(luò)的步驟包括:

將所述圖片集中的圖片輸入到深度神經(jīng)網(wǎng)絡(luò)模型;

執(zhí)行深度神經(jīng)網(wǎng)絡(luò)的前向計(jì)算過(guò)程,計(jì)算出損失函數(shù)的值;

根據(jù)多元函數(shù)的鏈?zhǔn)椒▌t計(jì)算損失函數(shù)對(duì)各神經(jīng)網(wǎng)絡(luò)參數(shù)的偏導(dǎo)數(shù)值;

根據(jù)設(shè)定的權(quán)值更新策略和參數(shù),更新各神經(jīng)網(wǎng)絡(luò)的參數(shù);

計(jì)算更新后的神經(jīng)網(wǎng)絡(luò)在訓(xùn)練數(shù)據(jù)集上的平均損失函數(shù)值,當(dāng)該值小于預(yù)設(shè)的損失閾值時(shí),終止訓(xùn)練過(guò)程,得到訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)模型。

在一些實(shí)施例中,所述構(gòu)造人臉模型庫(kù)的步驟,包括:

從視頻采集設(shè)備中獲取待識(shí)別人的圖片數(shù)據(jù)集或者從圖片集中選取,記錄人臉標(biāo)記和圖片的對(duì)應(yīng)關(guān)系,形成待識(shí)別數(shù)據(jù)集;使用所述多深度神經(jīng)網(wǎng)絡(luò)模型提取待識(shí)別數(shù)據(jù)集的特征向量集合;將所述特征向量集合與人臉標(biāo)記的信息保存,形成人臉模型庫(kù)。

在一些實(shí)施例中,所述與人臉模型庫(kù)中的各人臉模型進(jìn)行比對(duì)的過(guò)程包括:在計(jì)算待識(shí)別圖片與人臉模型中一幅圖片相似度時(shí),使用了融合函數(shù)對(duì)多個(gè)深度神經(jīng)網(wǎng)絡(luò)模型的特征向量進(jìn)行融合;在計(jì)算待識(shí)別圖片與人臉模型中一個(gè)類別的相似度時(shí),使用了歸納函數(shù)對(duì)一個(gè)類別的多個(gè)人臉圖片的相似度進(jìn)行歸納,得到待識(shí)別圖片與該人臉類別的相似度值。

本發(fā)明中采用大量的包含各種人臉姿態(tài)的樣本圖像,對(duì)深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到的模型能夠更好的處理人臉不同姿態(tài)造成識(shí)別率下降的問(wèn)題,對(duì)人臉的姿態(tài)變化具有較好的適應(yīng)性,提高了人臉識(shí)別的準(zhǔn)確率。

其二,為了解決不同清晰度的人臉識(shí)別問(wèn)題,本發(fā)明中采用了多深度神經(jīng)網(wǎng)絡(luò)模型融合的方法,對(duì)不同分辨率的人臉圖像進(jìn)行特征提取,有效提高了因人臉圖片在一定距離范圍內(nèi)變化的識(shí)別率。

本發(fā)明中為克服不同清晰度人臉圖片對(duì)識(shí)別的影響,創(chuàng)造性的提出了多模型融合的方法,有效的解決了因人臉庫(kù)建立時(shí)人臉數(shù)據(jù)與識(shí)別時(shí)人臉數(shù)據(jù)清晰度差異造成識(shí)別率下降的問(wèn)題。使得人臉識(shí)別技術(shù)可以在更大的距離范圍內(nèi)工作,減少了環(huán)境約束,擴(kuò)展了人臉識(shí)別技術(shù)應(yīng)用的場(chǎng)景。

本發(fā)明中為克服不同人臉姿態(tài)對(duì)識(shí)別的影響,采集了包含多個(gè)人臉的各種姿態(tài)的樣本數(shù)據(jù),并設(shè)計(jì)了一種復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型,通過(guò)訓(xùn)練得到的模型能夠更好的克服姿態(tài)對(duì)人臉識(shí)別的影響,放寬了人臉識(shí)別時(shí)對(duì)人臉姿態(tài)的約束,使識(shí)別更自然更精確。

本發(fā)明中為克服不同人臉姿態(tài)對(duì)識(shí)別的影響,采集了包含多個(gè)人臉的各種姿態(tài)的樣本數(shù)據(jù),并設(shè)計(jì)了一種復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型,通過(guò)訓(xùn)練得到的模型能夠更好的克服姿態(tài)對(duì)人臉識(shí)別的影響,放寬了人臉識(shí)別時(shí)對(duì)人臉姿態(tài)的約束,使識(shí)別更自然更精確。

在本發(fā)明中,術(shù)語(yǔ)“第一”、“第二”、“第三”僅用于描述目的,而不能理解為指示或暗示相對(duì)重要性。術(shù)語(yǔ)“多個(gè)”指兩個(gè)或兩個(gè)以上,除非另有明確的限定。

以上所述僅為本發(fā)明的優(yōu)選實(shí)施例而已,并不用于限制本發(fā)明,對(duì)于本領(lǐng)域的技術(shù)人員來(lái)說(shuō),本發(fā)明可以有各種更改和變化。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
佛山市| 鄂托克旗| 张家口市| 梓潼县| 平遥县| 阜平县| 新河县| 英超| 达日县| 怀集县| 长白| 白城市| 壶关县| 丽水市| 瓦房店市| 玛多县| 麦盖提县| 黔江区| 寻乌县| 三亚市| 文化| 哈尔滨市| 北京市| 大渡口区| 滕州市| 光泽县| 邢台县| 玛沁县| 伽师县| 平武县| 扬中市| 永清县| 武山县| 天长市| 衢州市| 抚顺县| 汶川县| 阳泉市| 鄂伦春自治旗| 卢氏县| 泽库县|