欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于非平衡標(biāo)簽信息融合的人臉識別算法架構(gòu)的制作方法

文檔序號:9922281閱讀:476來源:國知局
基于非平衡標(biāo)簽信息融合的人臉識別算法架構(gòu)的制作方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及計(jì)算機(jī)生物特征識別領(lǐng)域,具體涉及一種基于非平衡標(biāo)簽信息融合的 人臉識別算法架構(gòu)。
【背景技術(shù)】
[0002] 隨著深度學(xué)習(xí)理論的逐步成熟和有標(biāo)簽人臉數(shù)據(jù)的大量增加,越來越多的人臉識 別算法選擇使用深度學(xué)習(xí),從而使得近幾年人臉識別算法的性能大幅提升。然而這類方法 面臨兩個(gè)問題:(1)多數(shù)基于深度學(xué)習(xí)的人臉識別算法需要大規(guī)模有標(biāo)簽數(shù)據(jù),同時(shí)也要求 數(shù)據(jù)具備多樣性,例如包含多個(gè)種族、不同姿態(tài)、多種來源和不同光照等。如何獲得帶有標(biāo) 簽信息的人臉數(shù)據(jù)成為提升人臉識別性能的瓶頸。隨著傳感器的大量使用,每天都會產(chǎn)生 海量數(shù)據(jù),完成這些數(shù)據(jù)的標(biāo)定工作將耗費(fèi)大量人力物力,代價(jià)巨大,從而導(dǎo)致大量無標(biāo)簽 數(shù)據(jù)無法在實(shí)際應(yīng)用中充分發(fā)揮作用。(2)在現(xiàn)有數(shù)據(jù)規(guī)模和計(jì)算資源的條件下,由于用于 訓(xùn)練的數(shù)據(jù)規(guī)模和多樣性都達(dá)不到要求,所以經(jīng)常會出現(xiàn)過學(xué)習(xí)現(xiàn)象,導(dǎo)致得到的模型泛 化能力不佳,只能在一些場景下取得不錯(cuò)的性能,一旦切換場景,性能會出現(xiàn)明顯下降。
[0003] 基于無監(jiān)督學(xué)習(xí)的算法能夠一定程度上解決上述問題。(1)無監(jiān)督學(xué)習(xí)算法不需 要有標(biāo)簽信息的數(shù)據(jù),所以沒有數(shù)據(jù)標(biāo)定任務(wù)。(2)由于沒有標(biāo)簽信息的約束,無監(jiān)督學(xué)習(xí) 方法出現(xiàn)過學(xué)習(xí)的幾率較小,對于多種場景的適應(yīng)性也較強(qiáng)。然而,正是因?yàn)闆]有標(biāo)簽信息 約束,無監(jiān)督學(xué)習(xí)方法普遍存在針對性不強(qiáng)的問題,導(dǎo)致在實(shí)際應(yīng)用時(shí)性能不佳,所以這類 方法目前主要還處于研究階段。

【發(fā)明內(nèi)容】

[0004] 監(jiān)督學(xué)習(xí)人臉識別算法(使用標(biāo)簽信息)和無監(jiān)督學(xué)習(xí)人臉識別算法(不使用標(biāo)簽 信息)有著各自的優(yōu)勢和缺點(diǎn),任意一種都無法保證所開發(fā)的算法兼具優(yōu)秀的泛化性能和 辨識能力,本發(fā)明旨在提出一種基于非平衡標(biāo)簽信息融合的人臉識別算法架構(gòu),結(jié)合監(jiān)督 學(xué)習(xí)人臉識別算法和無監(jiān)督學(xué)習(xí)算法各自的優(yōu)勢,充分發(fā)揮海量無標(biāo)簽數(shù)據(jù)的作用,從而 使算法既能夠在特定場景下具備優(yōu)秀的識別能力,又可以適應(yīng)不同場景。
[0005] 為了實(shí)現(xiàn)上述目的,本發(fā)明采用如下技術(shù)方案:
[0006] 基于非平衡標(biāo)簽信息融合的人臉識別算法架構(gòu),包括如下兩層架構(gòu):
[0007] L1先進(jìn)行監(jiān)督步驟:將有標(biāo)簽的人臉數(shù)據(jù)和對應(yīng)的標(biāo)簽信息作為輸入,利用監(jiān)督 學(xué)習(xí)算法得到初始化人臉識別模型一;然后以所述初始化人臉識別模型一為輸入,采用無 監(jiān)督方法訓(xùn)練一定量的無標(biāo)簽人臉數(shù)據(jù)得到最終的人臉識別模型一:先預(yù)測所述無標(biāo)簽人 臉數(shù)據(jù)的標(biāo)簽信息,然后以所述無標(biāo)簽人臉數(shù)據(jù)和預(yù)測出的標(biāo)簽信息更新模型參數(shù),按此 進(jìn)行多次迭代;
[0008] L2先隨機(jī)初始化模型參數(shù)得到初始化人臉識別模型二,然后對所述初始化人臉識 別模型二按照L1的無監(jiān)督方法進(jìn)行訓(xùn)練得到優(yōu)化后的人臉識別模型二;然后對于優(yōu)化后的 人臉識別模型二輸入有標(biāo)簽的人臉數(shù)據(jù)和對應(yīng)的標(biāo)簽信息,利用監(jiān)督學(xué)習(xí)算法繼續(xù)訓(xùn)練, 得到最終的人臉識別模型二;
[0009] 融合L1中最終得到的人臉識別模型一和L2中最終得到的人臉識別模型二即可得 到最終的人臉識別模型。
[0010] 需要說明的是,L1中,以所述初始化人臉識別模型一為輸入,采用無監(jiān)督方法訓(xùn)練 一定量的無標(biāo)簽人臉數(shù)據(jù)得到最終的人臉識別模型一:先預(yù)測所述無標(biāo)簽人臉數(shù)據(jù)的標(biāo)簽 信息,然后以所述無標(biāo)簽人臉數(shù)據(jù)和預(yù)測出的標(biāo)簽信息更新模型參數(shù),按此進(jìn)行多次迭代 的具體方法為:
[0011] 將所述初始化人臉識別模型一作為輸入,固定模型參數(shù),利用聚類算法預(yù)測無標(biāo) 簽人臉數(shù)據(jù)的標(biāo)簽信息,然后將所述無標(biāo)簽人臉數(shù)據(jù)和預(yù)測出的標(biāo)簽信息作為輸入,更新 所述初始化人臉識別模型一的模型參數(shù);
[0012] 此后每次迭代中,均將前一次迭代后的模型作為輸入,在固定模型參數(shù)的條件下 利用聚類算法預(yù)測無標(biāo)簽人臉數(shù)據(jù)的標(biāo)簽信息,然后將所述無標(biāo)簽人臉數(shù)據(jù)和預(yù)測出的標(biāo) 簽信息作為輸入,更新本次迭代中作為輸入的模型的模型參數(shù);
[0013] 如此經(jīng)過多次迭代后,得到最終的人臉識別模型一。
[0014] 需要說明的是,L1中,采用卷積神經(jīng)網(wǎng)絡(luò)作為監(jiān)督學(xué)習(xí)算法。
[0015] 進(jìn)一步需要說明的是,所述卷積神經(jīng)網(wǎng)絡(luò)的輸入為切分后的人臉圖像,使用不同 區(qū)域和尺度的人臉圖像塊來進(jìn)行訓(xùn)練得到初始化人臉識別模型一;所述卷積神經(jīng)網(wǎng)絡(luò)最后 一層Softmax除了使用Logistic Regression作為識別信號外,還在目標(biāo)函數(shù)上添加了驗(yàn)證 信號,通過加權(quán)的方式進(jìn)行組合。
[0016] 更進(jìn)一步需要說明的是,步驟1.1)中所述識別信號如下式:
[0017] !d(/', i, 0kl) = - ΣΓ=1 -Pi logp: = - log/3,;
[0018] f是由所述卷積神經(jīng)網(wǎng)絡(luò)計(jì)算得到的向量,t是目標(biāo)類別,η是類別數(shù),0ld是Softmax 層的參數(shù),Pl是類別i的概率分布,當(dāng)類別是目標(biāo)類別tg卩i = t時(shí),pt=l,對于其他任意i,Pl =〇,爲(wèi),是類別i的預(yù)測的概率分布,則是目標(biāo)類別t的預(yù)測的概率分布;
[0019] 所述驗(yàn)證信號如下式:
[0021 ] f i和f j是兩張人臉圖像經(jīng)過所述卷積神經(jīng)網(wǎng)絡(luò)計(jì)算得到的向量,yij = 1和yij = _1 分別表示兩個(gè)向量fi和fj來自同一個(gè)目標(biāo)和來自不同目標(biāo);上式要求兩個(gè)向量fi和fj的距 離大于m,0ver={ m}是需要從驗(yàn)證信號的約束中學(xué)習(xí)得到的。
[0022] 需要說明的是,在L1和L2的無監(jiān)督訓(xùn)練中,當(dāng)經(jīng)過迭代計(jì)算累計(jì)的損失達(dá)到收斂 條件后,迭代結(jié)束;
[0023] 所述經(jīng)過迭代計(jì)算后累計(jì)的損失通過下式得到:
[0024] L(y,S|〇 = Σ?^χ^^?Ο;
[0025] 其中,I代表無標(biāo)簽人臉圖像,爐是在第t輪計(jì)算時(shí)的模型參數(shù)是第t輪計(jì)算時(shí) 的目標(biāo)標(biāo)簽信息,T為累計(jì)迭代次數(shù),P代表第t次迭代的損失,0和7分別代表經(jīng)過T次迭代 后的得到的模型參數(shù)和無標(biāo)簽人臉數(shù)據(jù)預(yù)測得到的標(biāo)簽信息;
[0026] 其中:
[0027] 經(jīng)過T次迭代后,預(yù)測無標(biāo)簽人臉數(shù)據(jù)的標(biāo)簽信息累計(jì)的損失按照下式計(jì)算:
[0028] 1{γ\?,θ) =
[0029] 經(jīng)過Τ次迭代后,利用預(yù)測得到的無標(biāo)簽人臉數(shù)據(jù)的標(biāo)簽信息進(jìn)行優(yōu)化模型參數(shù) 所累計(jì)的損失按照下式計(jì)算:
[0030] L(0|/,y) =
[0031] 進(jìn)一步需要說明的是,第t輪迭代計(jì)算時(shí)的損失計(jì)算如下式:
[0033] £?表示第t輪迭代計(jì)算時(shí)圖像所屬類別為&,/^是第t輪計(jì)算時(shí)圖像所屬類別匕 的KC個(gè)近鄰,以降序方式標(biāo)號,代表類別匕的以個(gè)近鄰中的最近鄰,A( ·)是相似度 計(jì)算函數(shù);在第t輪迭代時(shí),上式第一項(xiàng)表示的是匕與其最近鄰之間的距離,第二項(xiàng)則考慮 到了多個(gè)近鄰的局部結(jié)構(gòu)信息,要求最近鄰與匕盡量地相似,同時(shí)排名靠后的近鄰與G的相 似度要盡量小,γ表示權(quán)重。
[0034]本發(fā)明的有益效果在于:
[0035] 1、L1最終生成的人臉識別模型一由于后續(xù)訓(xùn)練中加入了無標(biāo)簽人臉數(shù)據(jù),并且采 用了交替優(yōu)化的策略,使得之前用有標(biāo)簽數(shù)據(jù)訓(xùn)練得到模型的參數(shù)發(fā)生變化,在降低了模 型對有標(biāo)簽數(shù)據(jù)的針對性的同時(shí)提升了泛化能力,從而讓模型具備更
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1
石阡县| 高要市| 昭通市| 榆中县| 碌曲县| 新余市| 金平| 惠安县| 理塘县| 红安县| 纳雍县| 弥渡县| 正阳县| 霍林郭勒市| 苏尼特右旗| 沛县| 景洪市| 扎赉特旗| 宁河县| 稻城县| 墨脱县| 鄂温| 德昌县| 长顺县| 壤塘县| 四会市| 玉林市| 菏泽市| 汤原县| 祥云县| 阜南县| 武强县| 武威市| 浮山县| 珠海市| 改则县| 华安县| 洛浦县| 乌鲁木齐市| 夏津县| 南和县|