欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于RGBD人臉檢測的機器人自動跟蹤方法和系統(tǒng)與流程

文檔序號:12717097閱讀:247來源:國知局
基于RGBD人臉檢測的機器人自動跟蹤方法和系統(tǒng)與流程

本發(fā)明涉及機器人控制技術(shù)領域,尤其涉及一種基于RGBD人臉檢測的機器人自動跟蹤方法和系統(tǒng)。



背景技術(shù):

隨著計算機科學和自動控制技術(shù)的發(fā)展,越來越多的智能機器人出現(xiàn)在生產(chǎn)生活中,視覺系統(tǒng)作為智能機器人系統(tǒng)中一個重要的子系統(tǒng),也越來越受到人們的重視。智能機器人視覺系統(tǒng)以人的智能行為能力為藍本,實現(xiàn)機器人對環(huán)境知覺組織、復雜場景適應、交互與協(xié)作、概念形成與整合、知識獲取與推理、自主認知與高級決策、類人智能行為等角度,展開機器人的智能性開發(fā)。人臉檢測跟隨時機器人智能化的一部分,主要用于快速準確的人臉檢測和跟蹤,使得人與機器的交流中得到更好的體驗。

國內(nèi)專利CN103093212A公開了一種基于人臉檢測和跟蹤截取人臉圖像的方法和裝置,該系統(tǒng)包括檢測模塊、跟蹤模塊、判斷模塊和截取模塊,采用級聯(lián)分類器對待檢測圖像進行人臉檢測;當檢測到人臉目標時,使用均值跟蹤算法對人臉目標進行人臉跟蹤;當人臉目標離開檢測區(qū)域時,在各個幀上根據(jù)目標的位置判斷同一幀內(nèi)的人臉檢測與人臉跟蹤是否對應同一個人臉目標,選出人臉檢測與人臉跟蹤對應同一個人臉目標的各個幀;在選出的各個幀中,計算同一幀內(nèi)人臉檢測的窗口與人臉跟蹤的窗口的重合度,將重合度最大的幀上人臉檢測得到的人臉圖像作為截取的人臉圖像;本發(fā)明的不足之處在于它是單一使用級聯(lián)分類器,分類器誤檢測會很高,不利于在復雜環(huán)境中使用,使用的2D攝像機,沒有圖像深度信息這樣當人臉前進和后退時只能粗劣的估算出大小,不能測量出前進后退的實際距離。

國內(nèi)專利CN101477616公開了一種人臉檢測與追蹤方法,通過計算機或具計算能力的微處理器執(zhí)行此人臉檢測與追蹤方法,以識別圖像畫面中的人臉及其所在位置,采用人臉檢測,在每幀畫面進行人臉追蹤,記錄人臉位置,在間隔數(shù)幀畫面后,在已發(fā)現(xiàn)的人臉所在位置的條件下,再次對圖像畫面進行一次人臉檢測,以便能快速地尋找到其它可能新加入的人臉,本發(fā)明由于其采用的是間數(shù)幀后重新檢測的方法,當檢測目標運動過快的時候就會丟失跟蹤的目標。

因此,現(xiàn)有技術(shù)需要改進。



技術(shù)實現(xiàn)要素:

本發(fā)明公開了一種基于RGBD人臉檢測的機器人自動跟蹤方法和系統(tǒng),用以提高移動機器人自動返回充電的效率和自動返回充電成功率。

一方面,本發(fā)明實施例提供的一種基于RGBD人臉檢測的機器人自動跟蹤方法,包括:

獲取人體樣本圖像數(shù)據(jù),通過人體樣本圖像檢測分類器的技術(shù)指標;

使級聯(lián)用分類器進行人體上半身檢測,并使用深度圖像數(shù)據(jù)進行數(shù)值分析,對檢測人體圖像進行確認;

使用級聯(lián)分類器在對人體上半身進行檢測的圖像中,使用融入圖像深度信息方法進行人臉檢測,直至檢測到人臉,并對檢測的人臉圖像進行確認,所述級聯(lián)分類器是指將多個強分類器連接在一起進行操作,所述強分類器是由多個弱分類器加權(quán)組成;

檢測到人臉區(qū)域后,使用控制模塊,在深度圖像提取對應的區(qū)域做距離運算,得到人與機器人之間的精確距離。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤方法的另一個實施例中,所述獲取人體樣本圖像數(shù)據(jù),通過人體樣本圖像檢測分類器的技術(shù)指標包括:

準備訓練數(shù)據(jù),制作人體圖像訓練樣本,所述人體圖像訓練樣本包括:負樣本和正樣本,所述負樣本是指不包括物體的圖像;所述正樣本是待檢測的物體圖像且不能包含任何負樣本;

使用完成訓練樣本的圖像測試分類器,并跟據(jù)測試結(jié)果分析分類器的技術(shù)指標,所述技術(shù)指標包據(jù):上半身圖像的檢出成功率、誤檢率及人臉檢測的成功率、誤檢率;

調(diào)整分類器的技術(shù)參數(shù),分類器調(diào)整的參數(shù)包括:訓練時所用的正樣本數(shù)目、每級分類器訓練時所用的負樣本數(shù)目、分類器的級數(shù)、haar特征類型、分類器的每一級最小檢測率。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤方法的另一個實施例中,所述使用分類器進行人體上半身檢測,并使用深度圖像數(shù)據(jù)進行數(shù)值分析,對檢測人體圖像進行確認包括:

先對RGB圖像進行灰度轉(zhuǎn)換,把彩色圖像變成0到255階的灰度圖像;

使用直方圖均衡法增強灰度圖的亮度;

選定圖像檢測區(qū)域,對選定區(qū)域進行積分處理,采用積分方法在計算矩形特征時不必每次重新統(tǒng)計矩形內(nèi)像素灰度值的和,只需計算矩形幾個相應點的積分,即計算出矩形特征值,且計算時間不會隨著矩形大小變化而發(fā)生改變;

整體掃描一次圖像檢測區(qū)域得到檢測因子系數(shù);

使用第一級檢測結(jié)果乘以檢測因子系數(shù)得到一個弱分類器結(jié)果,弱分類器級聯(lián)得到強分類器檢測結(jié)果;

對原始圖像進行縮放一半,用固定尺寸的哈爾窗口掃描待檢測圖像,所述固定尺寸的哈爾窗口為基礎窗口;

計算不同尺寸窗口內(nèi)的均值和方差,遍歷待檢測圖像,當滿足設定的條件時,認為此窗口為人體上半身圖像;

計算候選區(qū)域內(nèi)的Haar-like特征,把這些特征傳遞到級聯(lián)adaboost分類器中進一步判斷;

若存在三個窗口能同時檢測出人體上半身圖像,則認定級聯(lián)分類器輸出結(jié)果為真值,輸出上半身坐標,若不存在,則認定級聯(lián)分類器輸出結(jié)果為非真值;

對上半身區(qū)域深度圖內(nèi)所有像素值都進行求取距離運算

distance(x,y)=Pix(x,y)/1000;

對測量出的距離數(shù)據(jù)進行一致性分析,如果存在一致性,則確認在RGB圖像中檢測到的目標,在深度圖像中存在,否則,在深度圖像中不存在。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤方法的另一個實施例中,所述使用分類器在對人體上半身進行檢測的圖像中,使用融入圖像深度信息方法進行人臉檢測,直至檢測到人臉,并對檢測的人臉圖像進行確認包括:

預先加載好人臉檢測分類器數(shù)據(jù),設定好掃描窗口大小,所述掃描窗口大小不限定,跟據(jù)實際項目中的需求來具體確定;

按照設定的尺度縮放的窗口對圖像進行掃描,直到檢測到人臉。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤方法的另一個實施例中,所述在深度圖像提取對應的區(qū)域做距離運算包括:

求取深度圖中人臉區(qū)域內(nèi)每一個像素點距離

faceDis(x,y)=image(x,y)/1000;

對算出所有像素點的距離求和取均值最終得到人與機器人的實際距離。

本發(fā)明實施例還提供的一種基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng),包括:RGBD攝像頭、圖像算法處理平臺、機器人運動控制單元;

所述RGBD攝像頭用于采集人體的RGB圖像和深度圖像,用于對人體上半身和人臉圖像的識別;所述圖像算法處理平臺用于接收RGBD攝像頭采集的人體圖像,并通過算法處理,實現(xiàn)對人體的人臉識別,并計算出機器人距離人臉的距離;所述機器人運動控制單元通過圖像算法處理平臺得出人臉在縱向前進后退距離,控制機器人跟據(jù)距離變化信息跟隨人臉的移動而移動;

所述RGBD攝像頭包括RGB攝像頭和深度攝像頭,所述RGB攝像頭用于拍攝人體的RGB圖像,所述深度攝像頭用于拍攝人體的深度圖像,所述RGB攝像頭和所述深度攝像頭經(jīng)過攝像機標定后,深度攝像頭拍攝的圖像和RGB攝像頭拍攝的圖像重合;

所述RGBD攝像頭為intel深度處理攝像頭。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)的另一個實施例中,所述RGBD攝像頭還包括級聯(lián)分類器,所述級聯(lián)分類器用于檢測RGB攝像頭拍攝圖像中的人體上半身圖像,當圖像檢測到上半身時,對圖像上半身區(qū)域再一次使用級聯(lián)分類器進行人臉檢測。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)的另一個實施例中,所述級聯(lián)分類器包括多個強分類器,將多個強分類器連接在一起進行操作,所述強級聯(lián)分類器包括多個弱分類器,由多個弱分類器加權(quán)組成。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)的另一個實施例中,所述圖像算法處理平臺采用haar算法和adboost算法加入目標深度信息分析方法進行圖像算法處理,包括:

先對RGB圖像進行灰度轉(zhuǎn)換,把彩色圖像變成0到255階的灰度圖像;

使用直方圖均衡法增強灰度圖的亮度;

選定圖像檢測區(qū)域,對選定區(qū)域進行積分處理,采用積分方法在計算矩形特征時不必每次重新統(tǒng)計矩形內(nèi)像素灰度值的和,只需計算矩形幾個相應點的積分,即計算出矩形特征值,且計算時間不會隨著矩形大小變化而發(fā)生改變;

整體掃描一次圖像檢測區(qū)域得到檢測因子系數(shù);

使用第一級檢測結(jié)果乘以檢測因子系數(shù)得到一個弱分類器結(jié)果,弱分類器級聯(lián)得到強分類器檢測結(jié)果;

對原始圖像進行縮放一半,用固定尺寸的哈爾窗口掃描待檢測圖像,所述固定尺寸的哈爾窗口為基礎窗口;

計算不同尺寸窗口內(nèi)的均值和方差,遍歷待檢測圖像,當滿足設定的條件時,認為此窗口為人體上半身圖像;

計算候選區(qū)域內(nèi)的Haar-like特征,把這些特征傳遞到級聯(lián)adaboost分類器中進一步判斷;

若存在三個窗口能同時檢測出人體上半身圖像,則認定級聯(lián)分類器輸出結(jié)果為真值,輸出上半身坐標,若不存在,則認定級聯(lián)分類器輸出結(jié)果為非真值;

對上半身區(qū)域深度圖內(nèi)所有像素值都進行求取距離運算

distance(x,y)=Pix(x,y)/1000;

對測量出的距離數(shù)據(jù)進行一致性分析,如果存在一致性,則確認在RGB圖像中檢測到的目標,在深度圖像中存在,否則,在深度圖像中不存在。

在基于本發(fā)明上述基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)的另一個實施例中,所述機器人運動控制單元用于在深度圖像提取對應的區(qū)域做距離運算,所述距離運算包括:

求取深度圖中人臉區(qū)域內(nèi)每一個像素點距離

faceDis(x,y)=image(x,y)/1000;

對算出所有像素點的距離求和取均值最終得到人與機器人的實際距離;

根據(jù)計算的人與機器人的實際具體控制機器人行為。

與現(xiàn)有技術(shù)相比,本發(fā)明包括以下優(yōu)點:

本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法和系統(tǒng),通過RGBD攝像頭的RGB攝像頭先采集RGB圖像,用級聯(lián)分類器對人體上半身進行圖像檢測,使用圖像算法處理平臺檢測出上半身圖像后,再對圖像上半身區(qū)域再一次使用級聯(lián)分類器進行人臉檢測,檢測到人臉后,根據(jù)輸出的坐標信息在深度攝像頭形成的圖像中,確定人臉的深度信息的區(qū)域,提取人臉深度信息,進行距離運算,得出人臉在縱向前進后退距離,機器人運動控制單元控制機器人跟據(jù)距離變化信息準確的跟隨人臉的移動而移動,本發(fā)明解決人臉跟蹤準確率及人臉縱向精準測距問題,使機器人跟隨人臉移動的準確率更高、類人功能更強。

附圖說明

為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所使用的附圖做一簡單地介紹。

圖1是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)的一個實施例的結(jié)構(gòu)示意圖。

圖2是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的一個實施例的流程圖。

圖3是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的另一個實施例的流程圖。

圖4是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的又一個實施例的流程圖。

圖5是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的又一個實施例的流程圖。

圖6是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的又一個實施例的流程圖。

圖中:1RGBD攝像頭、11RGB攝像頭、12深度攝像頭、13級聯(lián)分類器、2圖像算法處理平臺、3機器人運動控制單元。

具體實施方式

為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。

圖1是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)的一個實施例的結(jié)構(gòu)示意圖,如圖1所示,所述基于RGBD人臉檢測的機器人自動跟蹤系統(tǒng)包括:

RGBD攝像頭1、圖像算法處理平臺2、機器人運動控制單元3;

所述RGBD攝像頭1用于采集人體的RGB圖像和深度圖像,用于對人體上半身和人臉圖像的識別;所述圖像算法處理平臺2用于接收RGBD攝像頭1采集的人體圖像,并通過算法處理,實現(xiàn)對人體的人臉識別,并計算出機器人距離人臉的距離;所述機器人運動控制單元3通過圖像算法處理平臺2得出人臉在縱向前進后退距離,控制機器人跟據(jù)距離變化信息跟隨人臉的移動而移動。

所述RGBD攝像頭1包括RGB攝像頭11和深度攝像頭12;

所述RGB攝像頭11用于拍攝人體的RGB圖像;

所述深度攝像頭12用于拍攝人體的深度圖像;

所述RGB攝像頭11和所述深度攝像頭12經(jīng)過攝像機標定后,深度攝像頭12拍攝的圖像和RGB攝像頭拍攝的圖像重合。

所述RGBD攝像頭1還包括級聯(lián)分類器13,所述級聯(lián)分類器13用于檢測RGB攝像頭11拍攝圖像中的人體上半身圖像,當圖像檢測到上半身時,對圖像上半身區(qū)域再一次使用級聯(lián)分類器13進行人臉檢測。

所述RGBD攝像頭1為intel深度處理攝像頭。

所述級聯(lián)分類器13包括多個強分類器,將多個強分類器連接在一起進行操作,所述強級聯(lián)分類器包括多個弱分類器,由多個弱分類器加權(quán)組成。

所述圖像算法處理平臺2采用haar算法和adboost算法加入目標深度信息分析方法進行圖像算法處理,包括:

先對RGB圖像進行灰度轉(zhuǎn)換,把彩色圖像變成0到255階的灰度圖像;

使用直方圖均衡法增強灰度圖的亮度;

選定圖像檢測區(qū)域,對選定區(qū)域進行積分處理,采用積分方法在計算矩形特征時不必每次重新統(tǒng)計矩形內(nèi)像素灰度值的和,只需計算矩形幾個相應點的積分,即計算出矩形特征值,且計算時間不會隨著矩形大小變化而發(fā)生改變;

整體掃描一次圖像檢測區(qū)域得到檢測因子系數(shù);

使用第一級檢測結(jié)果乘以檢測因子系數(shù)得到一個弱分類器結(jié)果,弱分類器級聯(lián)得到強分類器檢測結(jié)果;

對原始圖像進行縮放一半,用固定尺寸的哈爾窗口掃描待檢測圖像,所述固定尺寸的哈爾窗口為基礎窗口;

計算不同尺寸窗口內(nèi)的均值和方差,遍歷待檢測圖像,當滿足設定的條件時,認為此窗口為人體上半身圖像;

計算候選區(qū)域內(nèi)的Haar-like特征,把這些特征傳遞到級聯(lián)adaboost分類器中進一步判斷;

若存在三個窗口能同時檢測出人體上半身圖像,則認定級聯(lián)分類器13輸出結(jié)果為真值,輸出上半身坐標,若不存在,則認定級聯(lián)分類器13輸出結(jié)果為非真值;

對上半身區(qū)域深度圖內(nèi)所有像素值都進行求取距離運算

distance(x,y)=Pix(x,y)/1000;

對測量出的距離數(shù)據(jù)進行一致性分析,如果存在一致性,則確認在RGB圖像中檢測到的目標,在深度圖像中存在,否則,在深度圖像中不存在。

所述機器人運動控制單元3用于在深度圖像提取對應的區(qū)域做距離運算,所述距離運算包括:

求取深度圖中人臉區(qū)域內(nèi)每一個像素點距離

faceDis(x,y)=image(x,y)/1000;

對算出所有像素點的距離求和取均值最終得到人與機器人的實際距離;

根據(jù)計算的人與機器人的實際具體控制機器人行為。

圖2是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的一個實施例的流程圖,如圖2所示,所述基于RGBD人臉檢測的機器人自動跟蹤方法包括:

10,獲取人體樣本圖像數(shù)據(jù),通過人體樣本圖像檢測分類器的技術(shù)指標;所述人體樣本圖像數(shù)據(jù)有RGBD攝像機1拍攝,所述分類器的技術(shù)指標包據(jù)上半身的檢出成功率、誤檢率及人臉檢測的成功率、誤檢率;

20,使用級聯(lián)分類器13進行人體上半身檢測,并使用深度圖像數(shù)據(jù)進行數(shù)值分析,對檢測人體圖像進行確認,所述級聯(lián)分類器13是指將多個強分類器連接在一起進行操作,所述強分類器是由多個弱分類器加權(quán)組成;

30,使用級聯(lián)分類器13在對人體上半身進行檢測的圖像中,使用融入圖像深度信息方法進行人臉檢測,直至檢測到人臉,并對檢測的人臉圖像進行確認;

40,檢測到人臉區(qū)域后,使用控制模塊,在深度圖像提取對應的區(qū)域做距離運算,得到人與機器人之間的精確距離。

所述使用分類器進行人體上半身檢測,并使用深度圖像數(shù)據(jù)進行數(shù)值分析,對檢測人體圖像進行確認使用的方法為級聯(lián)分類方法,所述級聯(lián)分類方法是指將多個強分類器連接在一起進行操作,所述強分類器是由多個弱分類器加權(quán)組成。

例如人體上半身圖像檢測使用10個弱分類器級聯(lián)在一起,構(gòu)成一個級聯(lián)強分類器,因為每一個強分類器對負樣本的判別準確度非常高,所以一旦發(fā)現(xiàn)檢測到的目標位負樣本,就不在繼續(xù)調(diào)用下面的強分類器,減少了檢測時間;因為一幅圖像中待檢測的區(qū)域很多都是負樣本,這樣由級聯(lián)分類器1在分類器的初期就拋棄了很多負樣本的復雜檢測,所以級聯(lián)分類器的速度非???;只有正樣本才會送到下一個強分類器進行再次檢驗,這樣就保證了最后輸出的正樣本的偽正的可能性非常低;級聯(lián)結(jié)構(gòu)分類器由多個弱分類器組成,每一級都比前一級復雜;每個分類器讓所有的正例通過,同時濾除大部分負例,這樣每一級的待檢測正例就比前一級少,排除了大量的非檢測目標,大大提高檢測速度。

圖3是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的另一個實施例的流程圖,如圖3所示,所述獲取人體樣本圖像數(shù)據(jù),通過人體樣本圖像檢測分類器的技術(shù)指標包括:

11,準備訓練數(shù)據(jù),制作人體圖像訓練樣本,所述人體圖像訓練樣本包括:負樣本和正樣本,所述負樣本是指不包括物體的圖像;所述正樣本是待檢測的物體圖像且不能包含任何負樣本;負樣本選取要更加多樣化并要與正樣本不能相關聯(lián),最好從日常生活中取材比較好;

12,使用完成訓練樣本的圖像測試分類器,并跟據(jù)測試結(jié)果分析分類器的技術(shù)指標,所述技術(shù)指標包據(jù):上半身圖像的檢出成功率、誤檢率及人臉檢測的成功率、誤檢率;

13,調(diào)整分類器的技術(shù)參數(shù),分類器調(diào)整的參數(shù)包括:訓練時所用的正樣本數(shù)目、每級分類器訓練時所用的負樣本數(shù)目、分類器的級數(shù)、haar特征類型、分類器的每一級最小檢測率。

所述準備訓練數(shù)據(jù),制作人體圖像訓練樣本包括:

使用RGBD攝像機1獲取訓練樣本的圖像,所述訓練樣本區(qū)分為正樣本和負樣本,所述負樣本是指不包括物體的圖像;所述正樣本是待檢測的物體圖像且不能包含任何負樣本;負樣本選取要更加多樣化并要與正樣本不能相關聯(lián),最好從日常生活中取材比較好;

計算樣本圖像的積分圖,構(gòu)建特征模型;

計算特征模型的特征值,得到特征集;

確定域值,由特征集生成對應弱分類器,得到弱分類器集合;

使用adaboost算法訓練強分類器;

再一次加入部分負樣本集,計算積分樣本圖像的積分圖;

完成級聯(lián)分類器對人體樣本的采集。

圖4是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的又一個實施例的流程圖,如圖4所示,所述使用分類器進行人體上半身檢測,并使用深度圖像數(shù)據(jù)進行數(shù)值分析,對檢測人體圖像進行確認包括:

201,先對RGB圖像進行灰度轉(zhuǎn)換,把彩色圖像變成0到255階的灰度圖像;

202,使用直方圖均衡法增強灰度圖的亮度;

203,選定圖像檢測區(qū)域,對選定區(qū)域進行積分處理,采用積分方法在計算矩形特征時不必每次重新統(tǒng)計矩形內(nèi)像素灰度值的和,只需計算矩形幾個相應點的積分,即計算出矩形特征值,且計算時間不會隨著矩形大小變化而發(fā)生改變;

204,整體掃描一次圖像檢測區(qū)域得到檢測因子系數(shù);

205,使用第一級檢測結(jié)果乘以檢測因子系數(shù)得到一個弱分類器結(jié)果,弱分類器級聯(lián)得到強分類器檢測結(jié)果;設定40*80窗口,整體掃描一次圖像得到檢測因子系數(shù),第一級檢測結(jié)果乘以檢測因子系數(shù)得到一個弱分類器結(jié)果,弱分類器級聯(lián)得到最后檢測結(jié)果。

206,對原始圖像進行縮放一半,用固定尺寸的哈爾窗口掃描待檢測圖像,所述固定尺寸的哈爾窗口為基礎窗口;

207,計算不同尺寸窗口內(nèi)的均值和方差,遍歷待檢測圖像,當滿足設定的條件時,認為此窗口為人體上半身圖像;

208,計算候選區(qū)域內(nèi)的Haar-like特征,把這些特征傳遞到級聯(lián)adaboost分類器中進一步判斷;

209,若存在三個窗口能同時檢測出人體上半身圖像,則認定級聯(lián)分類器輸出結(jié)果為真值,輸出上半身坐標,若不存在,則認定級聯(lián)分類器輸出結(jié)果為非真值;

210,對上半身區(qū)域深度圖內(nèi)所有像素值都進行求取距離運算

distance(x,y)=Pix(x,y)/1000;

211,對測量出的距離數(shù)據(jù)進行一致性分析,如果存在一致性,則確認在RGB圖像中檢測到的目標,在深度圖像中存在,否則,在深度圖像中不存在。

本方法是在haar算法和adboost算法的基礎上加入目標深度信息分析。Haar算法的特征本質(zhì)是統(tǒng)計原理,用統(tǒng)計方法來分類存在著先天不足的,也就是統(tǒng)計原理存在的模糊特性,加入目標深度信息可以有效的彌補統(tǒng)計原理的不足,大大的提高了目標檢測的正確率有效的降低了誤檢測率。

圖5是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的又一個實施例的流程圖,如圖5所示,所述使用分類器在對人體上半身進行檢測的圖像中,使用融入圖像深度信息方法進行人臉檢測,直至檢測到人臉,并對檢測的人臉圖像進行確認包括:

31,預先加載好人臉檢測分類器數(shù)據(jù),設定好掃描窗口大小,所述掃描窗口大小不限定,跟據(jù)實際項目中的需求來具體確定;

32,按照設定的尺度縮放的窗口對圖像進行掃描,直到檢測到人臉。

圖6是本發(fā)明的基于RGBD人臉檢測的機器人自動跟蹤方法的又一個實施例的流程圖,如圖6所示,所述在深度圖像提取對應的區(qū)域做距離運算包括:

41,求取深度圖中人臉區(qū)域內(nèi)每一個像素點距離

faceDis(x,y)=image(x,y)/1000;

42,對算出所有像素點的距離求和取均值最終得到人與機器人的實際距離。

以上對本發(fā)明所提供的一種基于RGBD人臉檢測的機器人自動跟蹤方法和系統(tǒng)進行了詳細介紹,本文中應用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想;同時,對于本領域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在具體實施方式及應用范圍上均會有改變之處,綜上所述,本說明書內(nèi)容不應理解為對本發(fā)明的限制。

最后應說明的是:以上所述僅為本發(fā)明的優(yōu)選實施例而已,并不用于限制本發(fā)明,盡管參照前述實施例對本發(fā)明進行了詳細的說明,對于本領域的技術(shù)人員來說,其依然可以對前述各實施例所記載的技術(shù)方案進行修改,或者對其中部分技術(shù)特征進行等同替換,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應包含在本發(fā)明的保護范圍之內(nèi)。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
白沙| 兴国县| 吉首市| 莆田市| 桂平市| 鹤庆县| 平度市| 拜城县| 北川| 河池市| 彭山县| 兴海县| 鄂尔多斯市| 文安县| 额尔古纳市| 大石桥市| 临沂市| 祁东县| 伊金霍洛旗| 随州市| 汾西县| 嘉禾县| 榆社县| 柳江县| 山西省| 诸城市| 花莲县| 舞钢市| 桑日县| 海林市| 金阳县| 棋牌| 农安县| 南投市| 潢川县| 巴彦县| 宁明县| 峡江县| 罗定市| 汕尾市| 西昌市|