專利名稱:基于網(wǎng)格收縮的對象跟蹤方法
技術(shù)領(lǐng)域:
本發(fā)明屬于計算機圖形圖像處理技術(shù)領(lǐng)域。
背景技術(shù):
目前對象跟蹤方法主要分為概率跟蹤方法和確定性跟蹤方法。概率跟蹤方法以粒子濾波為主要代表,如Nummiaro提出的一種自適應(yīng)顏色濾波 方法"An adaptive color-based particle filter,,,Isard 提出的條件概率密度傳播跟 Sl^fe"CONDENSATION-Conditional density propagation for visual tracking", \)JsR P. H. Li ^ ] ! "Visual contour tracking based on particle filters,,。 3 ^率跟蹤方法的主要問題是方法需要用大量的樣本數(shù)量才能很好地近似系統(tǒng)的后驗概率密 度,機器人面臨的環(huán)境越復(fù)雜,描述后驗概率分布所需要的樣本數(shù)量就越多,算法的復(fù)雜度 就越高,越不易實現(xiàn)。與概率跟蹤方法相比,確定性跟蹤方法計算簡單、易實現(xiàn),很適合于實時對象的 跟蹤?;诰灯?Mean Shift,簡稱MS)的跟蹤方法是確定性跟蹤方法的典型代表, 它是一種有效的基于密度梯度上升的非參數(shù)統(tǒng)計迭代方法。MS由Comaniciu等人在 “Real-time tracking of non-rigid objects using mean shift,,中首先將其應(yīng)用至Ij足艮蹤 令頁域,并在"The variable bandwidth mean shift and data-driven scale selection,, 中進一步提出了可變窗寬的MS算子(VBDF)。Comaniciu隨后在‘‘Kernel-based object tracking”中對MS跟蹤方法做了更進一步的改進,并總結(jié)了這種方法的實現(xiàn)框架。Yang在 "Efficient mean-shift tracking via a new similarity measure,,中米用另一個相似度 測量方法來實現(xiàn)基于MS的跟蹤,而Tu等人在“Online updating appearance generative mixture model for meanshift tracking”中利用期望最大化算法在線更新表觀柱狀圖,一 定程度提高了 MS跟蹤算法的精度和可靠性。Comaniciu 等人的 “Real-time tracking of non-rigid objects using mean shift”方法,使用目標與候選對象的相似度作為距離測量,通過迭代運算找到目標和候選 對象相似函數(shù)的最大值,實現(xiàn)目標跟蹤。但是,這種基于MS的方法是從假設(shè)的初始位置開 始(也有根據(jù)運動向量帶位置預(yù)測的MS,如“Kernel-based object tracking”),沿概率密 度梯度方向搜索最佳匹配區(qū)域,因此,該方法容易陷入局部最優(yōu),跟蹤快速移動對象時常常 失敗,且難以從失敗中恢復(fù)。
發(fā)明內(nèi)容
鑒于現(xiàn)有技術(shù)的缺點和不足,本發(fā)明的目的是設(shè)計一種基于網(wǎng)格收縮的對象跟蹤 方法,使之以目標與候選對象的相似度作為距離測量,通過迭代運算找到目標和候選對象 相似函數(shù)的最大值的過程中,具有既保證了全局搜索(即全局最優(yōu)),又能滿足實時應(yīng)用場 合中計算量小的要求,可以很好地實現(xiàn)對快速移動對象的跟蹤以及在跟蹤失敗后自動恢復(fù) 的優(yōu)點。
本發(fā)明的目的是通過如下的手段實現(xiàn)的?;诰W(wǎng)格收縮的對象跟蹤方法,在已獲取的圖像中對選定目標進行跟蹤處理,包 括如下流程(1)目標選取通過運動目標檢測方法自動提取或人機交互方法手動指定,從選定的圖像中選取要跟 蹤的目標對象,計算目標對象的表觀統(tǒng)計信息。(2)圖像輸入在實時處理情況下,提取通過攝像頭采集并保存在存儲區(qū)的視頻圖像,作為要進行跟 蹤的輸入圖像;在離線處理情況,將已采集的視頻文件分解為多個幀組成的圖像序列,按照 時間順序,逐個提取幀圖像作為輸入圖像;將跟蹤區(qū)域設(shè)置為整個圖像;如果輸入圖像為 空,則整個流程中止。(3)計算網(wǎng)格參數(shù)根據(jù)目標對象尺寸計算網(wǎng)格各參數(shù),計算公式如下(其中,“/”表示“整除”)橫向劃分的節(jié)點數(shù)=(圖像寬度/目標對象寬度)+ 1 ;縱向劃分的節(jié)點數(shù)=(圖像高度/目標對象高度)+ 1 ;單元格的寬度=圖像寬度/ (橫向劃分的節(jié)點數(shù)一 1 );單元格的高度=圖像高度/ (縱向劃分的節(jié)點數(shù)一 1);總的節(jié)點數(shù)=橫向劃分的節(jié)點數(shù)X縱向劃分的節(jié)點數(shù);橫向、縱向劃分的節(jié)點數(shù)和總的節(jié)點數(shù),在一個跟蹤過程中,即在下一圖像輸入之前保 持不變。(4)跟蹤區(qū)域網(wǎng)格化計算單元格的寬度和高度,計算公式如下單元格的寬度=(跟蹤區(qū)域的寬度/ (橫向劃分的節(jié)點數(shù)一 1 ); 單元格的高度=(跟蹤區(qū)域的高度/ (縱向劃分的節(jié)點數(shù)一 1); 根據(jù)計算得到的單元格尺寸,將跟蹤區(qū)域劃分為由相同大小的單元格組成的網(wǎng)格;網(wǎng) 格節(jié)點作為目標對象的候選位置;網(wǎng)格節(jié)點的索引編號從0開始,按照從上到下,從左倒右 的順序依次遞增。(5)計算節(jié)點與目標的距離計算每個節(jié)點的表觀統(tǒng)計信息,計算節(jié)點與目標的距離D,該距離定義為 D = I-兩個表觀統(tǒng)計信息矢量間夾角的余弦值。(6)節(jié)點排序按照節(jié)點與目標距離從小到大的順序,將節(jié)點重新排序;如果頭節(jié)點與目標的距離滿 足預(yù)設(shè)條件,則該節(jié)點為目標在當前圖像的位置,跟蹤完成,跳轉(zhuǎn)到(2)輸入下一幀圖像進 行跟蹤;否則,繼續(xù); (7)網(wǎng)格收縮提取節(jié)點序列中的前四個節(jié)點,按照其索引從小到大排序,并依次記為Pl,P2,P3,P4, 距離最小的這4個節(jié)點組成的矩形區(qū)域為要進行下一次網(wǎng)格化的目標搜索區(qū)域跳轉(zhuǎn)到 (4)。經(jīng)過一定次數(shù)的迭代之后,找到與目標距離最小的那個節(jié)點,即目標在當前圖像的位置,從而實現(xiàn)對目標對象的跟蹤。本發(fā)明的方法,與MS 跟蹤法,即 “Real-time tracking of non-rigid objects using mean shift”中的方法相同,均使用目標與候選對象的相似度作為距離測量,通過迭 代運算找到目標和候選對象相似函數(shù)的最大值,實現(xiàn)目標跟蹤。但是,后者是從假設(shè)的初始 位置開始(也有根據(jù)運動向量帶位置預(yù)測的MS,如“Kernel-based object tracking”),沿 概率密度梯度方向搜索最佳匹配區(qū)域,容易陷入局部最優(yōu),跟蹤快速移動對象時常常失敗, 且難以從失敗中恢復(fù)。而本發(fā)明方法則是基于全局搜索,并逐步縮小搜索范圍,實現(xiàn)目標跟 蹤,因而可以克服以上MS方法的不足。需要說明的是,由于本發(fā)明方法只在每一次圖像搜 索開始時,進行全局范圍內(nèi)的有限次距離計算,因此,本發(fā)明方法既保證了全局搜索(即全 局最優(yōu)),又能滿足實時應(yīng)用場合中計算量小的要求。
圖1為圖像網(wǎng)格化處理圖。圖2為新的跟蹤區(qū)域設(shè)置圖。圖3為圖2除外的其余四種節(jié)點分布情況圖。圖4為基于網(wǎng)格收縮的對象跟蹤方法流程圖。
具體實施例方式下面結(jié)合附圖和對本發(fā)明作進一步說明?;诒景l(fā)明方法可實現(xiàn)很多不同的應(yīng)用,圖1的畫面是一種簡單的示意,有價值 的應(yīng)用是在需要在大量的動態(tài)或非動態(tài)圖像資料中對目標物的搜尋,例如,可用于流體表 面測速(如,泥石流表面測速),道路車輛跟蹤及測速,空中飛行物跟蹤及測速,“天網(wǎng)”視頻 中目標物的搜尋,行人跟蹤及行為分析等。不失一般性,所述方法包括如下步驟(1)目標選取從選定的圖像中選取要跟蹤的目標對象,計算目標對象的表觀統(tǒng)計信息(如顏色、紋 理、輪廓,或者它們的組合)。目標選取過程可以通過運動目標檢測方法自動提取,也可以通 過人機交互方法手動指定。(2)圖像輸入在實時處理情況下,提取通過攝像頭采集并保存在存儲區(qū)的視頻圖像,作為要進行跟 蹤的輸入圖像;在離線處理情況,將已采集的視頻文件分解為多個幀組成的圖像序列,按照 時間順序,逐個提取幀圖像作為輸入圖像。將跟蹤區(qū)域設(shè)置為整個圖像。如果輸入圖像為 空,則整個流程中止。(3)計算網(wǎng)格參數(shù)根據(jù)目標對象尺寸計算網(wǎng)格各參數(shù),計算公式如下(其中,“/”表示“整除”)橫向劃分的節(jié)點數(shù)=(圖像寬度/目標對象寬度)+ 1 ;縱向劃分的節(jié)點數(shù)=(圖像高度/目標對象高度)+ 1 ;單元格的寬度=圖像寬度/ (橫向劃分的節(jié)點數(shù)一 1 );單元格的高度=圖像高度/ (縱向劃分的節(jié)點數(shù)一 1);總的節(jié)點數(shù)=橫向劃分的節(jié)點數(shù)X縱向劃分的節(jié)點數(shù);因此,目標尺寸越大,單元格越大,節(jié)點數(shù)越少;目標尺寸越小,單元格越小,節(jié)點數(shù)越^^ ο需要說明的是,橫向、縱向劃分的節(jié)點數(shù)和總的節(jié)點數(shù),在一個跟蹤過程中,即在 下一圖像輸入之前保持不變。而單元格的寬度和高度則由于跟蹤區(qū)域的縮小快速減小,步 驟(4)將體現(xiàn)這一過程。(4)跟蹤區(qū)域網(wǎng)格化計算單元格的寬度和高度,計算公式如下單元格的寬度=(跟蹤區(qū)域的寬度/ (橫向劃分的節(jié)點數(shù)一 1 ); 單元格的高度=(跟蹤區(qū)域的高度/ (縱向劃分的節(jié)點數(shù)一 1); 根據(jù)計算得到的單元格尺寸,將跟蹤區(qū)域劃分為由相同大小的單元格組成的網(wǎng)格。網(wǎng) 格化結(jié)果如圖1所示。網(wǎng)格節(jié)點作為目標對象的候選位置。網(wǎng)格節(jié)點的索引編號從0開始, 按照從上到下,從左倒右的順序依次遞增。(5)計算節(jié)點與目標的距離計算每個節(jié)點的表觀統(tǒng)計信息,計算節(jié)點與目標的距離D,該距離定義為 D = I-兩個表觀統(tǒng)計信息矢量間夾角的余弦值 (6)節(jié)點排序按照節(jié)點與目標距離從小到大的順序,將節(jié)點重新排序。如果頭節(jié)點與目標的距離滿 足設(shè)定條件,則該節(jié)點為目標在當前圖像的位置,跟蹤完成,跳轉(zhuǎn)到(2)。否則,繼續(xù)。(7)網(wǎng)格收縮(設(shè)置新的跟蹤區(qū)域)提取節(jié)點序列中的前四個節(jié)點,按照其索引從小到大排序,并依次記為Pl,P2,P3,P4, 它們在圖像區(qū)域的對應(yīng)位置如圖2所示。距離最小的這4個節(jié)點組成的矩形區(qū)域為要進行 下一次網(wǎng)格化的目標搜索區(qū)域。其余四種節(jié)點分布情況如圖3所示,同樣,這些節(jié)點組成了 新的跟蹤區(qū)域。新的跟蹤區(qū)域設(shè)置完成后,跳轉(zhuǎn)到(4)。本發(fā)明方法的技術(shù)流程圖如圖4所示。經(jīng)過以上(3)- (6)的處理后,網(wǎng)格將收縮 到一個更小的區(qū)域(一個單元格內(nèi)),并作為下一次跟蹤的搜索區(qū)域,因此,經(jīng)過一定次數(shù)的 迭代之后,可以找到與目標距離最小的那個節(jié)點,即目標在當前圖像的位置,從而實現(xiàn)對目 標對象的跟蹤。顯然,所述預(yù)設(shè)條件D = 1 -兩個表觀統(tǒng)計信息矢量間夾角的余弦值< ,Θ 之值由具體跟蹤對象的表觀統(tǒng)計信息設(shè)定。本發(fā)明方法可通過任何計算機程序設(shè)計語言(如C語言)編程實現(xiàn),基于本方法的 跟蹤軟件可在任何PC或者嵌入式系統(tǒng)中實現(xiàn)實時視頻對象跟蹤應(yīng)用。
權(quán)利要求
1.基于網(wǎng)格收縮的對象跟蹤方法,在已獲取的圖像中對選定目標進行跟蹤處理,包括 如下流程(1)目標選取通過運動目標檢測方法自動提取或人機交互方法手動指定,從選定的圖像中選取要跟 蹤的目標對象,計算目標對象的表觀統(tǒng)計信息;(2)圖像輸入在實時處理情況下,提取通過攝像頭采集并保存在存儲區(qū)的視頻圖像,作為要進行跟 蹤的輸入圖像;在離線處理情況,將已采集的視頻文件分解為多個幀組成的圖像序列,按照 時間順序,逐個提取幀圖像作為輸入圖像;將跟蹤區(qū)域設(shè)置為整個圖像;如果輸入圖像為 空,則整個流程中止;(3)計算網(wǎng)格參數(shù)根據(jù)目標對象尺寸計算網(wǎng)格各參數(shù),其中,“/”表示“整除”橫向劃分的節(jié)點數(shù)=(圖像寬度/目標對象寬度)+ 1 ;縱向劃分的節(jié)點數(shù)=(圖像高度/目標對象高度)+ 1 ;單元格的寬度=圖像寬度/ (橫向劃分的節(jié)點數(shù)一 1 );單元格的高度=圖像高度/ (縱向劃分的節(jié)點數(shù)一 1);總的節(jié)點數(shù)=橫向劃分的節(jié)點數(shù)X縱向劃分的節(jié)點數(shù);橫向、縱向劃分的節(jié)點數(shù)和總的節(jié)點數(shù),在一個跟蹤過程中,即在下一圖像輸入之前保 持不變;(4)跟蹤區(qū)域網(wǎng)格化計算單元格的寬度和高度,計算公式如下單元格的寬度=(跟蹤區(qū)域的寬度/ (橫向劃分的節(jié)點數(shù)一 1 );單元格的高度=(跟蹤區(qū)域的高度/ (縱向劃分的節(jié)點數(shù)一 1);根據(jù)計算得到的單元格尺寸,將跟蹤區(qū)域劃分為由相同大小的單元格組成的網(wǎng)格;網(wǎng) 格節(jié)點作為目標對象的候選位置;網(wǎng)格節(jié)點的索引編號從0開始,按照從上到下,從左倒右 的順序依次遞增;(5)計算節(jié)點與目標的距離計算每個節(jié)點的表觀統(tǒng)計信息,計算節(jié)點與目標的距離D,該距離定義為D = I-兩個表觀統(tǒng)計信息矢量間夾角的余弦值;(6)節(jié)點排序按照節(jié)點與目標距離從小到大的順序,將節(jié)點重新排序;如果頭節(jié)點與目標的距離滿 足預(yù)設(shè)條件,則該節(jié)點為目標在當前圖像的位置,跟蹤完成,跳轉(zhuǎn)到(2)輸入下一幀圖像進 行跟蹤;否則,繼續(xù);(7)網(wǎng)格收縮提取節(jié)點序列中的前四個節(jié)點,按照其索引從小到大排序,并依次記為Pl,P2,P3,P4, 距離最小的這4個節(jié)點組成的矩形區(qū)域為要進行下一次網(wǎng)格化的目標搜索區(qū)域跳轉(zhuǎn)到 (4);經(jīng)過一定次數(shù)的迭代之后,找到與目標距離最小的那個節(jié)點,即目標在當前圖像的位 置,從而實現(xiàn)對目標對象的跟蹤。
2.根據(jù)權(quán)利要求1所述之基于網(wǎng)格收縮的對象跟蹤方法,其特征在于,所述目標對象 的表觀統(tǒng)計信息為顏色、紋理、輪廓,或者其組合。
3.根據(jù)權(quán)利要求1所述之基于網(wǎng)格收縮的對象跟蹤方法,其特征在于,所述預(yù)設(shè)條件 D = I-兩個表觀統(tǒng)計信息矢量間夾角的余弦值< Θ,Θ之值由具體跟蹤對象的表觀統(tǒng) 計信息設(shè)定。
全文摘要
本發(fā)明公開了基于網(wǎng)格收縮的對象跟蹤方法,在已獲取的圖像中對選定目標進行跟蹤處理,通過目標選取、圖像輸入、計算網(wǎng)格參數(shù)跟蹤區(qū)域網(wǎng)格化、計算節(jié)點與目標的距離、節(jié)點排序、網(wǎng)格收縮等步驟,經(jīng)過一定次數(shù)的迭代之后,找到與目標距離最小的那個節(jié)點,即目標在當前圖像的位置,從而實現(xiàn)對目標對象的跟蹤。本發(fā)明方法既保證了全局搜索,又能滿足實時應(yīng)用場合中計算量小的要求,可以很好地實現(xiàn)對快速移動對象的跟蹤以及在跟蹤失敗后自動恢復(fù)。
文檔編號G06T7/20GK102054278SQ201110000750
公開日2011年5月11日 申請日期2011年1月5日 優(yōu)先權(quán)日2011年1月5日
發(fā)明者余南陽, 權(quán)偉, 陳錦雄 申請人:西南交通大學