1.一種抖動(dòng)視頻中目標(biāo)跟蹤的方法,其特征是,步驟如下:利用局部區(qū)域塊搜索匹配算法,計(jì)算出目標(biāo)物體在當(dāng)前幀與上一幀的位置坐標(biāo)偏差,然后將該偏差補(bǔ)償至跟蹤算法的檢測(cè)區(qū)域,使得跟蹤算法可以正確跟蹤當(dāng)前目標(biāo)。
2.如權(quán)利要求1所述的抖動(dòng)視頻中目標(biāo)跟蹤的方法,其特征是,具體步驟進(jìn)一步細(xì)化為:
(1)對(duì)于視頻第一幀,由用戶選擇出需要跟蹤的目標(biāo)物體,得到目標(biāo)物體的坐標(biāo)范圍(x0,y0,w,h),該坐標(biāo)分別表示目標(biāo)物體所在的外接矩形的左上角橫坐標(biāo)x0與縱坐標(biāo)y0,外接矩形沿著x軸方向的寬度w與沿著y軸方向的高度h;
(2)對(duì)于視頻第二幀,首先進(jìn)行塊搜索匹配,如果目標(biāo)物體比較小的話,在第一幀中選定目標(biāo)物體區(qū)域作為匹配塊Blocki,其中下標(biāo)i表示幀序號(hào),第一幀i=0,第二幀i=2,以此類推,如果目標(biāo)物體比較大的話,則選擇目標(biāo)物體的一部分區(qū)域作為匹配塊Blocki;設(shè)匹配塊的長(zhǎng)寬為M和N,由于視頻幀序列之間存在相對(duì)運(yùn)動(dòng),導(dǎo)致隨后一系列視頻中的塊Blocki+1與前一幀的塊Blocki的位置發(fā)生偏移,假設(shè)x,y方向上最大偏移量分別為dx與dy,則在視頻當(dāng)前幀中圍繞Blocki選定一個(gè)(M+2dx)*(N+2dy)搜索區(qū)域,根據(jù)最小絕對(duì)誤差準(zhǔn)則,公式如下:
其中,MAD即為Minimum Absolute Difference,最小絕對(duì)誤差,fk(s,t)和fk-1(s+i,t+j)分別表示當(dāng)前幀和參考幀的灰度值,匹配塊大小為M×N,s,t分別表示匹配塊內(nèi)的x和y方向坐標(biāo),i,j分別表示當(dāng)前幀可能的匹配塊與參考幀匹配塊在x,y方向坐標(biāo)差值。利用該準(zhǔn)則在搜索區(qū)域中進(jìn)行最小匹配搜索,得到最佳匹配塊Block,然后計(jì)算Block與Blocki的坐標(biāo)差(offsetX,offsetY),得到偏差之后,跟蹤算法在上一幀的檢測(cè)區(qū)域加上該偏差得到新的檢測(cè)區(qū)域,即將原來的檢測(cè)區(qū)域在x方向和y方向分別平移offsetX和offsetY距離得到新的檢測(cè)區(qū)域,然后跟蹤算法在此區(qū)域上做計(jì)算得到精確的目標(biāo)位置,接下來將該位置更新為用于下一幀塊搜索匹配的Blocki+1;
(3)在接下的每一幀中,重復(fù)第二步的,即每次計(jì)算當(dāng)前幀與上一幀的偏差,然后將該偏差補(bǔ)償至跟蹤算法上一幀的檢測(cè)區(qū)域得到當(dāng)前幀的檢測(cè)區(qū)域,接著跟蹤算法在此區(qū)域上做計(jì)算得到精確的目標(biāo)位置,同時(shí)更新塊Blocki+1,至此實(shí)現(xiàn)抖動(dòng)視頻中目標(biāo)跟蹤的功能。