欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種篩選視頻中單個(gè)行人目標(biāo)的最佳易識(shí)別幀的方法

文檔序號(hào):10535322閱讀:282來源:國知局
一種篩選視頻中單個(gè)行人目標(biāo)的最佳易識(shí)別幀的方法
【專利摘要】本發(fā)明公開了一種篩選視頻中單個(gè)行人最佳易識(shí)別幀的方法,所述方法首先進(jìn)行彩色背景建模并使用背景差法來提取視頻中的前景目標(biāo),然后對(duì)前景目標(biāo)進(jìn)行模糊度檢測、行人檢測、人臉檢測以及眼睛和嘴巴位置檢測。接著計(jì)算每一幀視頻中前景目標(biāo)的易識(shí)度。最后根據(jù)該行人在整個(gè)視頻中每一幀里的易識(shí)別度篩選出該行人在整個(gè)視頻中的最佳易識(shí)別幀。本發(fā)明利用視頻中目標(biāo)的易識(shí)別度和行人識(shí)別效率之間的關(guān)系,可以應(yīng)用于視頻監(jiān)控中的行人目標(biāo)識(shí)別等相關(guān)領(lǐng)域,指導(dǎo)不同應(yīng)用領(lǐng)域?qū)Σ杉降男腥四繕?biāo)視頻段進(jìn)行關(guān)鍵幀的提取,從而提升后續(xù)目標(biāo)識(shí)別的效率。
【專利說明】
一種篩選視頻中單個(gè)行人目標(biāo)的最佳易識(shí)別幀的方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,特別涉及一種篩選視頻中單個(gè)行人的易識(shí)別幀的 方法。
【背景技術(shù)】
[0002] 目標(biāo)識(shí)別是視頻監(jiān)控領(lǐng)域的三大核心難題之一。然而在實(shí)際的監(jiān)控應(yīng)用中,我們 往往是先存儲(chǔ)了特定行人目標(biāo)的一段視頻。而由于在后續(xù)的行人目標(biāo)識(shí)別中,我們往往只 需要該行人目標(biāo)關(guān)鍵的若干幀圖片即可,這時(shí)候就需要我們事先從視頻中對(duì)行人目標(biāo)的容 易識(shí)別的幀進(jìn)行篩選,篩選出那些對(duì)后續(xù)的識(shí)別最有利的圖片。
[0003] 如何從視頻中篩選出行人目標(biāo)最易于后續(xù)識(shí)別的圖片在理論研究與實(shí)際應(yīng)用都 具備重要的研究意義。在應(yīng)用層面上,從視頻中篩選出易于識(shí)別的行人目標(biāo)幀對(duì)后續(xù)識(shí)別 成功率有巨大影響。由于行人目標(biāo)在視頻中可能會(huì)有各種不同角度,不同距離以及不同完 整度與不同清晰度的呈現(xiàn),而所有這些因素都會(huì)對(duì)后續(xù)識(shí)別產(chǎn)生重大影響。在進(jìn)入目標(biāo)識(shí) 別之前先篩選出那些易于識(shí)別的幀,這樣就能夠避免浪費(fèi)用于有效目標(biāo)識(shí)別的計(jì)算資源; 在技術(shù)層面上,為了篩選出視頻中行人目標(biāo)的那些易于識(shí)別的幀,要涉及圖像質(zhì)量評(píng)價(jià)、人 臉檢測、行人檢測等領(lǐng)域的內(nèi)容,它們代表了計(jì)算機(jī)視覺領(lǐng)域的前沿研究方向;同時(shí),由于 圖像質(zhì)量評(píng)價(jià)、人臉檢測與行人檢測等的研究具有相當(dāng)?shù)碾y度,相應(yīng)的研究具有重要的學(xué) 術(shù)意義。
[0004] 對(duì)視頻中行人圖片的易識(shí)別度評(píng)價(jià)是一種復(fù)雜的心理活動(dòng),有許多因素影響到對(duì) 圖片易識(shí)別度的判斷。同一張圖片在不同的人看來,可能有著不同的易識(shí)別度。建立一種有 效的篩選模型系,利用客觀的質(zhì)量評(píng)價(jià)指標(biāo)近似模擬人類的主觀感受,可以指導(dǎo)不同應(yīng)用 領(lǐng)域?qū)崿F(xiàn)對(duì)行人目標(biāo)易識(shí)別幀的篩選,極大地優(yōu)化后續(xù)的特征提取以及目標(biāo)識(shí)別過程。

【發(fā)明內(nèi)容】

[0005] 本發(fā)明的目的在于提取視頻中行人目標(biāo)的易識(shí)別幀,指導(dǎo)目標(biāo)特征提取與目標(biāo)識(shí) 別對(duì)視頻中目標(biāo)圖片的合理選擇,提出一種提取視頻中行人目標(biāo)的易識(shí)別幀的方法。
[0006] 為了解決上述技術(shù)問題,本發(fā)明的技術(shù)方案是,
[0007] -種篩選視頻中單個(gè)行人最佳易識(shí)別幀的方法,包括步驟如下:
[0008] 步驟A,建立彩色背景模型并使用背景差法提取視頻中的前景目標(biāo)Ig:
[0009] 根據(jù)待處理視頻的首幀建立每一個(gè)位置X處像素點(diǎn)的R、G、B三通道背景模型M(x); 從第二幀視頻開始,利用背景模型M(x)檢測每幀視頻中的前景像素點(diǎn);獲取前景像素點(diǎn)的 二值圖Ib,使用輪廓檢測法尋找二值圖lb中的連通區(qū)域,提取前景目標(biāo)1 8;根據(jù)檢測到的前 景像素點(diǎn)更新背景模型M(x);其具體步驟如下:
[0010] 步驟A-1,根據(jù)待處理視頻首幀建立R、G、B的三通道背景模型,其中每個(gè)位置X處的 背景模型是由對(duì)該位置以及其8領(lǐng)域進(jìn)行N次隨機(jī)取樣得到的N個(gè)樣本值組成的集合;
[0011] 步驟A-2,從視頻第二幀開始,檢測每一幀中的前景像素點(diǎn),若當(dāng)前幀位置X處的像 素值在R、G、B某一個(gè)通道上與它的背景模型中的至少2個(gè)像素點(diǎn)的差值大于閾值Radius,則 該像素點(diǎn)為前景像素點(diǎn),否則為背景像素點(diǎn);
[0012]步驟A-3,將前景像素點(diǎn)位置的灰度值設(shè)置為0,而背景像素點(diǎn)位置的灰度值設(shè)置 為255,對(duì)由此形成的二值圖像Ib使用輪廓檢測法,檢測其中的連通區(qū)域,并且將面積S滿足 Min_AERA〈S〈Max_AERA和斜率SLOP符合SL0P_min〈SL0P〈SL0P_max的連通區(qū)域確定為前景目 標(biāo)I g;其中阻11_厶£1^、]\&?_厶£1^、511^_111111和511^_11^1都是預(yù)先設(shè)定的值;
[0013]步驟A-4,對(duì)于被判定為背景點(diǎn)的位置x處的像素,以1/N的概率去更新其背景模型 M(x)的N個(gè)樣本值中的一個(gè),同時(shí)也以1/N的概率去更新其8領(lǐng)域中的某個(gè)領(lǐng)域位置y處的背 景模型M(y)的N個(gè)樣本值中的一個(gè);
[0014]步驟B,獲取前景目標(biāo)"的模糊度:
[0015]對(duì)前景目標(biāo)18進(jìn)行灰度化處理獲取其灰度圖,使用sobel算子檢測該灰度圖的邊 緣像素,并對(duì)每個(gè)邊緣像素計(jì)算該邊緣像素的模糊度,最后計(jì)算所有邊緣像素的模糊度的 平均值,作為前景目標(biāo)Ig的模糊度Frame_ambiguity;
[0016] 步驟C,檢測人臉區(qū)域:
[0017] 利用Vi〇la-Jones人臉檢測模型,對(duì)前景目標(biāo)Ig進(jìn)行人臉檢測,獲取人臉區(qū)域;
[0018] 步驟D,計(jì)算人臉傾側(cè)角:
[0019]利用Viola-Jones人臉檢測模型,檢測前景目標(biāo)18中是否存在左右兩只眼睛和嘴 巴,并根據(jù)眼睛于嘴巴之間的相對(duì)位置關(guān)系,計(jì)算出人臉傾側(cè)角Angle_〇f_faCe;
[0020] 步驟D-1,眼睛與嘴巴位置檢測。在步驟C中已經(jīng)檢測到存在人臉的情況下,對(duì)人臉 區(qū)域再次利用Viola-Jones人臉檢測框架,檢測人臉區(qū)域內(nèi)的眼睛和嘴巴的位置。而對(duì)于步 驟C中沒有檢測到人臉的情況,則針對(duì)整個(gè)前景圖片,使用Viola-Jones人臉檢測框架檢測 眼睛和嘴巴。
[0021] 步驟D-2,傾側(cè)角計(jì)算。如果兩只眼睛和嘴巴的位置都檢測到的情況下,根據(jù)其位 置特征,判斷人臉傾側(cè)角度。具體的判斷方法為:假設(shè)左、右眼的中心點(diǎn)位置分別為£ 1與已1, 而嘴巴區(qū)域的中心點(diǎn)位置為M,則對(duì)于三角形EiErM,首先求出從M往:作垂線,得到的垂 足P。則人臉傾側(cè)角為:
[0023]如果左右眼睛及嘴巴三者中只有兩者或者只有其中一者被檢測到的話,則傾側(cè)角 直接判定為90度;對(duì)于三者都沒有檢測到的情況,傾側(cè)角判定為180度。
[0024]步驟E,行人檢測:
[0025] 使用Dalai提出的H0G+SVM行人檢測方法,對(duì)前景目標(biāo)Ig提取H0G特征,并使用SVM 分類方法,確定前景目標(biāo)Ig是否為行人;
[0026]步驟F,計(jì)算前景目標(biāo)Ig的易識(shí)別度:
[0027] 根據(jù)前景目標(biāo)18的模糊度、人臉大小、人臉傾側(cè)角以及行人檢測結(jié)果計(jì)算前景目 標(biāo)Ig的易識(shí)別度;并根據(jù)每一幀中前景目標(biāo)I g的易識(shí)別度,找出單個(gè)行人目標(biāo)在視頻中的最 佳易識(shí)別幀;所述前景目標(biāo)Ig的易識(shí)別度,其計(jì)算過程如下:
[0028] 步驟F-1,根據(jù)前景目標(biāo)Ig的模糊度,計(jì)算其前景清晰度得分clarity_score;根據(jù) 人臉面積,計(jì)算人臉大小得分face_score;根據(jù)人臉傾側(cè)角,計(jì)算人臉傾側(cè)角得分angle_ score;根據(jù)行人檢測,計(jì)算行人完整度得分body_score;具體的計(jì)算方法為:
[0029] 前景清晰度得分為:c lari ty_score = l_Frame_ambiguity/20;
[0030] 人臉大小得分為: f Face AREA/face standard, kl! '"MFcil'c A REAii'ixcc standard < 1
[0031] face score. 一 _ - \ 1 ,其它
[0032] 其中,#face_standard表示標(biāo)準(zhǔn)人臉的大小,為常數(shù);
[0033] 人臉傾側(cè)角得分為:angle_score = l_Angle_of_face/180; ,、郵-,、, 「1,如果檢測到行人
[0034] 行人芫整度得分為:body _st;ore =. ; 具匕
[0035 ]步驟F-2,計(jì)算前景目標(biāo)Ig的易識(shí)別度I den t i f i ab i 1 i ty并找出最佳易識(shí)別幀:
[0036] Ideniifiability~ riclarin'jiCQvc+CJcux\_scorc+d3angie_scote+d Aboiiy_$com S c|=i , A為,&和04均為權(quán)重參數(shù),且滿足A +1 +3, +4 = 1;最終,將視頻中易識(shí)別度最高的一 幀選為最佳易識(shí)別幀。
[0037] 有益效果:本發(fā)明公開了 一種篩選視頻中單個(gè)行人最佳易識(shí)別幀的方法。所述方 法首先進(jìn)行彩色背景建模并使用背景差法來提取視頻中的前景目標(biāo),然后對(duì)前景目標(biāo)進(jìn)行 模糊度檢測、行人檢測、人臉檢測以及眼睛和嘴巴位置檢測。接著計(jì)算每一幀視頻中前景目 標(biāo)的易識(shí)度。最后根據(jù)該行人在整個(gè)視頻中每一幀里的易識(shí)別度篩選出該行人在整個(gè)視頻 中的最佳易識(shí)別幀。本發(fā)明利用視頻中目標(biāo)的易識(shí)別度和行人識(shí)別效率之間的關(guān)系,可以 應(yīng)用于視頻監(jiān)控中的行人目標(biāo)識(shí)別等相關(guān)領(lǐng)域,指導(dǎo)不同應(yīng)用領(lǐng)域?qū)Σ杉降男腥四繕?biāo)視 頻段進(jìn)行關(guān)鍵幀的提取,從而提升后續(xù)目標(biāo)識(shí)別的效率。
【附圖說明】
[0038]圖1:本發(fā)明中對(duì)視頻中的每一幀進(jìn)行處理的流程圖。
【具體實(shí)施方式】
[0039]下面結(jié)合附圖,進(jìn)一步具體說明本發(fā)明的一種篩選視頻中行人目標(biāo)的最佳易識(shí)別 幀的方法。
[0040] 本發(fā)明方法的整體流程如圖1所示。一種篩選視頻中行人目標(biāo)的最佳易識(shí)別幀的 方法,其詳細(xì)步驟如下:
[0041] 步驟A,建立色彩背景模型并使用背景差法提取方法進(jìn)行前景目標(biāo)Ig:
[0042]步驟A-1,利用待處理視頻的首幀進(jìn)行背景模型。對(duì)于每個(gè)位置X的像素點(diǎn),對(duì)其R、 G、B三通道分別用一組N個(gè)背景樣本值進(jìn)行建模,N通常設(shè)置為20。即:
[0043] X位置處的背景模型M(X) = {Mr(X),Mg(X),Mb(X) },而
[0044] Mr(X) = {Vir,V2r, . . . ,ViR, . . .Vnr}
[0045] Mg(X) = {Vig,V2g, . . . ,ViG, . . .Vng}
[0046] Mb(X) = {Vib,V2b, . . . ,ViB, . . .Vnb}
[0047] 其中,ViR, Vic,ViB分別表示從位置X及X的8領(lǐng)域共9個(gè)位置隨機(jī)采樣到的N個(gè)像素點(diǎn) 中第i個(gè)像素點(diǎn)的R、G、B通道的像素值;
[0048]步驟A-2,前景像素點(diǎn)的檢測。對(duì)于視頻幀中每一個(gè)位置X的像素值Vx= {VxR,VxC, VxB},將其分別與該位置的背景模型{Mr⑴,MC⑴,Mb(X)}中的N個(gè)像素點(diǎn)進(jìn)行比較。若在這N 個(gè)像素點(diǎn)中有超過2個(gè)像素點(diǎn)與位置X的像素值在R、G、B任何一個(gè)通道上的差值大于閾值 Radius,則判定該點(diǎn)為前景像素點(diǎn),否則,該點(diǎn)判定為背景像素點(diǎn)。這里Radius通常設(shè)置為 10。同時(shí),為了防止某個(gè)靜止區(qū)域被誤判為運(yùn)動(dòng)區(qū)域,如果某個(gè)像素點(diǎn)連續(xù)1〇〇幀被判定為 前景點(diǎn),則將其重新判定為背景點(diǎn);
[0049]步驟A-3,前景目標(biāo)確定。將前景像素點(diǎn)位置的灰度值設(shè)置為0,而背景像素點(diǎn)位置 的灰度值設(shè)置為255,對(duì)由此形成的二值圖像Ib,檢測其中的輪廓與連通區(qū)域。因?yàn)槲覀冎?要是為了檢測行人目標(biāo),所以對(duì)于能夠恰好框中該連通區(qū)域的矩形來說,若其面積與長寬 比能夠分別滿足:
[0050] Min_AERA〈S〈Max_AERA和SL0P_min〈SL0P〈SL0P_max [0051]則將該連通域確定為前景目標(biāo)Ig;
[0052] 其中Min_AERA和Max_AERA分別表示前景目標(biāo)的最小面積和最大面積,SL0P_min和 SL0P_max則分別表示前景目標(biāo)的最小寬高比和最小寬高比,這四個(gè)值都可以根據(jù)具體的監(jiān) 控場景進(jìn)行靈活設(shè)置;
[0053] 步驟A-4,背景模型的更新。若某位置的像素點(diǎn)是背景點(diǎn),則以1/N的概率,去更新 該位置的N個(gè)背景模型樣本值中的其中一個(gè),并且,也以1/N的概率,去更新該位置8領(lǐng)域中 某一位置y處的背景模型M(y)的N個(gè)樣本值中的一個(gè)。
[0054]步驟B,獲取前景目標(biāo)"的模糊度:
[0055]對(duì)步驟A中獲取的前景目標(biāo)Ig,首先將其進(jìn)行灰度化處理獲取灰度圖,然后使用 sobel算子檢測該灰度圖中的邊緣像素。對(duì)每個(gè)邊緣像素,統(tǒng)計(jì)其水平方向上左右各10個(gè)像 素中與它本身的像素值的差小于某一閾值Q的像素個(gè)數(shù),并以此作為該邊緣像素的模糊度。 最后統(tǒng)計(jì)所有邊緣像素的模糊度的平均值作為圖像的總體的模糊度Frame_ambiguity。 [0056] 步驟C,人臉檢測:
[0057]利用Viola-Jones人臉檢測模型,對(duì)前景目標(biāo)Ig進(jìn)行人臉檢測,獲取人臉區(qū)域。如 果檢測到人臉,則提取出人臉區(qū)域,并計(jì)算人臉區(qū)域面積,記為Face_AREA;如果沒檢測到人 臉,則Face_AREA = 0。
[0058]步驟D,人臉傾側(cè)角的判定:
[0059]步驟D-1,眼睛與嘴巴位置檢測。在步驟C中已經(jīng)檢測到存在人臉的情況下,對(duì)人臉 區(qū)域再次利用Viola-Jones人臉檢測框架,檢測人臉區(qū)域內(nèi)的眼睛和嘴巴的位置。而對(duì)于步 驟C中沒有檢測到人臉的情況,則針對(duì)整個(gè)前景圖片,使用Viola-Jones人臉檢測框架檢測 眼睛和嘴巴。
[0060]步驟D-2,傾側(cè)角計(jì)算。如果兩只眼睛和嘴巴的位置都檢測到的情況下,根據(jù)其位 置特征,判斷人臉傾側(cè)角度。具體的判斷方法為:假設(shè)左、右眼的中心點(diǎn)位置分別為£1與已1, 而嘴巴區(qū)域的中心點(diǎn)位置為M,則對(duì)于三角形EiErM,首先求出從M往:^作垂線,得到的垂 足P。則人臉傾側(cè)角為:
[0062]如果左右眼睛及嘴巴三者中只有兩者或者只有其中一者被檢測到的話,則傾側(cè)角 直接判定為90度;對(duì)于三者都沒有檢測到的情況,傾側(cè)角判定為180度。
[0063] 步驟E,行人檢測:
[0064] 使用Dalai的H0G+SVM行人檢測框架,對(duì)前景目標(biāo)Ig進(jìn)行行人檢測,確定前景目標(biāo) 是否是相對(duì)完整的行人。
[0065]步驟F,計(jì)算前景目標(biāo)Ig的易識(shí)別度:
[0066] 步驟F-1,分別根據(jù)前景目標(biāo)18的模糊度計(jì)算其清晰度得分;根據(jù)人臉面積計(jì)算人 臉大小得分;根據(jù)人臉傾側(cè)角計(jì)算人臉傾側(cè)角得分;根據(jù)行人檢測結(jié)果計(jì)算行人完整度得 分。具體的計(jì)算公式為:
[0067] 前景清晰度得分為:c lari ty_score = l_Frame_ambiguity/20;
[0068]人臉大小得分為: I Fat e ,4/?£.4/face standard, \\'Face AREAi\\cQ Standard <1 [0069] face _^corc~ l - - - -
[ 1 , else
[0070] 其中,#faCe_Standard表示標(biāo)準(zhǔn)人臉的大小,實(shí)際可設(shè)為一個(gè)常數(shù);
[0071 ]人臉角度得分為:angle_score = l_Angle_of_face/180; fl if檢測到行人
[0072] 全身完整度得分為:body_scon:= ^
[0, eise
[0073] 步驟F-2,計(jì)算出前景目標(biāo)Ig的易識(shí)別度1(161^1:^313;[1;^7并找出最佳易識(shí)別幀: Idcntifiability ~ (?t '^ciarity scorc+c. ^ face scorc+c. angle score+body score 其中, 屯和%為權(quán)重參數(shù),可根據(jù)實(shí)際應(yīng)用場景靈活分配,且需要滿足&+4+4+&=li 最終,將視頻中易識(shí)別度最的一幀選為最佳易識(shí)別幀D
[0074]需要補(bǔ)充說明的一點(diǎn)是,本發(fā)明作為一個(gè)篩選視頻中行人最佳易識(shí)別幀的方法, 可以用不同的人臉檢測算法以及行人檢測算法來替換本發(fā)明描述的實(shí)施方式的對(duì)應(yīng)項(xiàng)。
【主權(quán)項(xiàng)】
1. 一種篩選視頻中單個(gè)行人最佳易識(shí)別幀的方法,其特征在于,包括步驟如下: 步驟A,建立彩色背景模型并使用背景差法提取視頻中的前景目標(biāo)Ig: 根據(jù)待處理視頻的首幀建立R、G、B三通道背景模型M(x);從第二幀視頻開始,利用背景 模型M(X)檢測每幀視頻中的前景像素點(diǎn);獲取前景像素點(diǎn)的二值圖Ib,使用輪廓檢測法尋 找二值圖I b中的連通區(qū)域,提取前景目標(biāo)Ig;根據(jù)檢測到的前景像素點(diǎn)更新背景模型M(x); 其具體步驟如下: 步驟A-I,根據(jù)待處理視頻首幀建立R、G、B的三通道背景模型,其中每個(gè)位置X處的背景 模型是由對(duì)該位置以及其8領(lǐng)域進(jìn)行N次隨機(jī)取樣得到的N個(gè)樣本值組成的集合; 步驟A-2,從視頻第二幀開始,檢測每一幀中的前景像素點(diǎn),若當(dāng)前幀位置X處的像素值 在R、G、B某一個(gè)通道上與它的背景模型中的至少2個(gè)像素點(diǎn)的差值大于閾值Radius,則該像 素點(diǎn)為前景像素點(diǎn),否則為背景像素點(diǎn); 步驟A-3,將前景像素點(diǎn)位置的灰度值設(shè)置為0,而背景像素點(diǎn)位置的灰度值設(shè)置為 255,對(duì)由此形成的二值圖像Ib使用輪廓檢測法,檢測其中的連通區(qū)域,并且將面積S滿足 Min_AERA〈S〈Max_AERA和斜率SLOP符合SLOP_min〈SLOP〈SLOP_max的連通區(qū)域確定為前景區(qū) 域 Ig;其中Min_AERA、Max_AERA、SLOP_min和SLOP_max都是預(yù)先設(shè)定的值; 步驟A-4,對(duì)于被判定為背景點(diǎn)的像素,以1/N的概率去更新其背景模型M(X)的N個(gè)樣本 值中的一個(gè),同時(shí)也以1/N的概率去更新其8領(lǐng)域的某個(gè)位置y處的背景模型M(y)的N個(gè)樣本 值中的一個(gè); 步驟B,獲取前景目標(biāo)18的模糊度: 對(duì)前景目標(biāo)18進(jìn)行灰度化處理獲取其灰度圖,使用sobel算子檢測該灰度圖的邊緣像 素,并對(duì)每個(gè)邊緣像素計(jì)算該邊緣像素的模糊度,最后計(jì)算所有邊緣像素的模糊度的平均 值,作為前景目標(biāo)的模糊度Frame_ambiguity; 步驟C,檢測人臉區(qū)域: 利用Viola-Jones人臉檢測模型,對(duì)前景目標(biāo)Ig進(jìn)行人臉檢測,獲取人臉區(qū)域; 步驟D,計(jì)算人臉傾側(cè)角: 利用Viola-Jones人臉檢測模型,檢測前景目標(biāo)Ig中是否存在左右兩只眼睛和嘴巴,并 根據(jù)眼睛于嘴巴之間的相對(duì)位置關(guān)系,計(jì)算出人臉傾側(cè)角Angle_〇f_faCe; 步驟E,行人檢測: 使用Dalal提出的H0G+SVM行人檢測方法,對(duì)前景目標(biāo)Ig提取HOG特征,并使用SVM分類方 法,確定前景目標(biāo)Ig是否為行人; 步驟F,計(jì)算前景目標(biāo)Ig的易識(shí)別度: 根據(jù)前景目標(biāo)模糊度、人臉大小、人臉傾側(cè)角以及行人檢測結(jié)果計(jì)算前景目標(biāo)Ig的易識(shí) 別度;并根據(jù)每一幀的前景目標(biāo)的易識(shí)別度,找出單個(gè)行人目標(biāo)在視頻中的最佳易識(shí)別幀; 所述前景目標(biāo)Ig的易識(shí)別度,其計(jì)算過程如下: 步驟F-I,根據(jù)前景目標(biāo)Ig的模糊度,計(jì)算其前景清晰度得分clarity_score;根據(jù)人臉 面積,計(jì)算人臉大小得分face_score;根據(jù)人臉傾側(cè)角,計(jì)算人臉傾側(cè)角得分angle_score; 根據(jù)是否檢測到行人,計(jì)算行人完整度得分body_score;具體的計(jì)算方法為: 前景清晰度得分為:clarity_score = l_Frame_ambiguity/20; 人臉大小得分為:其中,#face_standard表示標(biāo)準(zhǔn)人臉的大小,為常數(shù); 人臉傾側(cè)角得分為:angle_score = l_Angle_of_f ace/180; 一 z , , , il,如果檢測到行人 行人芫整度得分為:b〇dy__se〇re = j ^ ; 步驟F-2,計(jì)算前景目標(biāo)Ig的易識(shí)別度Identif iability并篩選出最佳易識(shí)別幀: Identifiability - * ciarity _scom+B2 * face jicom+ S3 * fe _seore+04 *body_seore 其中,H33和色均為權(quán)重參數(shù),且滿足_+& +S3 +54 = I;.最終,將視頻中易識(shí)別度 最尚的一幀選為最佳易識(shí)別幀。2.據(jù)權(quán)利要求1所述的一種篩選視頻中單個(gè)行人目標(biāo)最佳易識(shí)別幀的方法,其特征在 于,步驟D中,所述人臉傾側(cè)角的計(jì)算方法,其過程如下: 步驟D-I,利用Viola-Jones人臉檢測模型,分別使用針對(duì)眼睛與非眼睛而訓(xùn)練的 Adaboost級(jí)聯(lián)分類器,以及針對(duì)嘴巴與非嘴巴而訓(xùn)練的Adaboost級(jí)聯(lián)分類器,檢測前景圖 片中左右兩只眼睛位置EjPE r以及嘴巴的位置M; 步驟D-2,根據(jù)D-I中的檢測結(jié)果及左右眼睛與嘴巴之間的相對(duì)位置關(guān)系計(jì)算人臉的傾 側(cè)角度,如果兩只眼睛和嘴巴都檢測到,對(duì)于三角形E1ErM,首先求出從M往:作垂線,得到 的垂足P;則人臉傾側(cè)角為,而如果左右眼睛及嘴巴三者中只有兩者或者只有其中一者被檢測到的話,則傾側(cè)角直 接判定為90度;對(duì)于三者都沒有檢測到的情況,傾側(cè)角判定為180度。
【文檔編號(hào)】G06K9/00GK105893963SQ201610197232
【公開日】2016年8月24日
【申請日】2016年3月31日
【發(fā)明人】李曉飛, 梁何
【申請人】南京郵電大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
佳木斯市| 乡宁县| 墨玉县| 万山特区| 如皋市| 公安县| 逊克县| 专栏| 永泰县| 涟源市| 博乐市| 屏山县| 英山县| 长武县| 涞水县| 会昌县| 玉环县| 浑源县| 乐东| 曲沃县| 辉南县| 苏尼特左旗| 宁晋县| 富民县| 雷州市| 交城县| 名山县| 咸阳市| 巫溪县| 淮阳县| 兰考县| 英山县| 苗栗县| 普格县| 达孜县| 麻江县| 牡丹江市| 平原县| 盐边县| 资中县| 靖西县|