專利名稱:一種反饋式對象偵測方法
技術(shù)領(lǐng)域:
本發(fā)明涉及影像處理,尤其涉及一種預(yù)測前景物體的位置,以進行對象切 割的對象偵測方法。
背景技術(shù):
在影像處理系統(tǒng)中,若影像處理系統(tǒng)能針對對象而非每個像素來作處理, 則影像處理系統(tǒng)可以獲得更多畫面內(nèi)容的信息,并且可進一步處理畫面中所發(fā)
生的事件。利用畫面中對象的特性,例如新出現(xiàn)、移動、顏色等等,現(xiàn)有技 術(shù)中的對象偵測算法可將前景物件偵測出來,并且切割影^象為前景與背景物體。 對象偵測算法可應(yīng)用于許多方面,例如智能型安全監(jiān)控系統(tǒng)、計算機視覺應(yīng) 用、人機溝通接口、影像壓縮等等。
對于智能型安全監(jiān)控系統(tǒng)而言,對象偵測算法改善了傳統(tǒng)安全監(jiān)控系統(tǒng)的缺 點,可節(jié)省監(jiān)看人力并提升回報特殊事件準(zhǔn)確度。在智能型安全監(jiān)控系統(tǒng)中, 若對象偵測算法能準(zhǔn)確地將物體偵測出來,則對象偵測算法可大幅增進監(jiān)控效 率,并且更準(zhǔn)確的發(fā)出警報。在應(yīng)用方面,若對象偵測算法能準(zhǔn)確地偵測對象, 則對象偵測算法不僅能偵測出簡單的事件,如闖入者偵測等,還能針對特殊 事件進行偵測,例如遺留物體(機場背包炸彈)、偷竊物品(美術(shù)館保全)、 尾隨的可疑人物等等。
請參照圖1,其繪示的是現(xiàn)有技術(shù)中對象偵測算法的功能模塊結(jié)構(gòu)圖。其中, 對象切割才莫塊將輸入影l(fā)象中的前景物體切割出來。對象擷耳Mt塊將切割出來的 物體依其特征建立對象信息。通過追蹤每張畫面物體的動向,對象追蹤模塊可 得知物體速度等等數(shù)據(jù)。請參照圖2,其繪示的是現(xiàn)有技術(shù)中對象切割方法的示意圖。
現(xiàn)有技術(shù)中的對象切割方式主要有以下幾種
1、 畫面差異算法(Frame Difference):此方法利用本畫面之每一像素與前 一張畫面的每一像素相減,找出移動的物體。此一方法的優(yōu)點在于運算筒單, 缺點在于若欲偵測的前景物體沒有運動,則無法切割出來。
2、 區(qū)域結(jié)合算法(Region Merge):此方法利用相鄰像素的相似性作結(jié)合, 經(jīng)由一定次數(shù)的重復(fù)運算,找出具有一致性特征的物體。此一方法之缺點為只 能找出具有均勻特征之物體,且需要一定次數(shù)的重復(fù)運算。優(yōu)點在于由于釆取 相鄰像素作結(jié)合,因此不需維持背景模型。
3、 背景相減算法(Background Subtraction):此方法利用歷史畫面建立背 景模型,經(jīng)由每一像素與背景模型相比對,找出與背景不相同的物體。此一方 法的優(yōu)點為可靠度較高,對于動態(tài)背景等情況有較佳的抵抗力。缺點為需要維 持背景模型。
然而,現(xiàn)有技術(shù)中的對象切割算法皆單純地以像素為出發(fā)點作偵測,并未 從"對象,,的角度來作處理。因此,現(xiàn)有技術(shù)中的對象切割算法,極容易產(chǎn)生 錯誤警報(False alarm),如將光影變化,畫面噪聲誤認(rèn)為前景物體,而使得判 斷失誤的情形增加。
當(dāng)現(xiàn)有對象切割算法執(zhí)行對象切割時,通常會設(shè)定一個臨界值(threshold) 來作為前景與背景的分別。但是,該對象切割算法設(shè)定臨界值時,將會遇到兩 難的問題。最常見的缺點是,若臨界值設(shè)定太寬,則許多物體產(chǎn)生的噪聲、反 光、微弱的光影變化將被視為前景。若臨界值設(shè)定太窄,則某些與背景相似的 前景物體,將不會被切割出來。相關(guān)專利案請參考US6999620, US6""" US6075875?,F(xiàn)有技術(shù)中的對象切割算法在準(zhǔn)確率尚未能達到令人滿意的程度,因而在
應(yīng)用上,更產(chǎn)生許多的限制,例如
1、 當(dāng)物體與背景顏色特征相當(dāng)接近時,現(xiàn)有對象切割算法不易準(zhǔn)確地切割。
2、 現(xiàn)有對象切割算法容易發(fā)生物體因切割不慎而斷開(如身體某部分與 背景顏色相似),進而使單一物體被判斷成兩個物體的現(xiàn)象。
3、 當(dāng)畫面有光線反射與影子變化時,現(xiàn)有對象切割算法不易準(zhǔn)確地切割, 而容易將光影變化當(dāng)成新的前景物件而切割出來,使得錯誤警報次數(shù)增加。
4、 以物體學(xué)習(xí)速率的變化而言,當(dāng)物體學(xué)習(xí)速率快時,若物體不移動很快 就被學(xué)進背景。當(dāng)物體學(xué)習(xí)速率慢時,若背景產(chǎn)生變化,則背景模型無法實時 的更新。這些效果都會造成對象切割算法的失敗。
綜合上述,現(xiàn)有對象切割算法不僅存在許多限制,而且該對象切割算法具 有許多嚴(yán)重的缺點,使得影像處理過程產(chǎn)生許多瑕瘋。這些缺點大部分是因為 現(xiàn)有對象切割算法均以像素為出發(fā)點而造成的,因此,現(xiàn)有對象切割算法亟待 改善。
發(fā)明內(nèi)容
針對上述問題,本發(fā)明提供了一種反饋式對象偵測方法。由于本發(fā)明是以 對象為主體來進行對象切割的技術(shù),所以本發(fā)明改善了傳統(tǒng)以像素為基礎(chǔ)的對 象切割方法。本發(fā)明經(jīng)由對象投影技術(shù)預(yù)測前景物體的位置,以進行對象切割。 本發(fā)明解決了現(xiàn)有技術(shù)對象切割時所產(chǎn)生的瑕疵,提高了對象切割的準(zhǔn)確度。
為達成上述目的,本發(fā)明提出一種反饋式對象偵測方法,適用于影像處理 系統(tǒng)。其中,在t時間(即第t張畫面)時,第二影像數(shù)據(jù)(第t-l, t-2,…,t-n 張畫面)產(chǎn)生的時間在第一影像數(shù)據(jù)(第t張畫面)之前。本方法包括下列步驟 本方法執(zhí)行對象切割程序,輸入前述第一影像數(shù)據(jù),根據(jù)前述第一影像數(shù)據(jù)與對象投影程序所算出的目標(biāo)位置,以切割出前景物體,并且輸出切割數(shù)據(jù)(二元 式影像光罩)。然后,本方法執(zhí)行對象擷取程序,輸入前述切割數(shù)據(jù),根據(jù)前述 前景物體與前述切割資料,萃取出每一個前景物體所對應(yīng)的第一特征數(shù)據(jù)。接 下來,本方法執(zhí)行對象追蹤程序,輸入前述第一特征數(shù)據(jù),分析前述第一影像 數(shù)據(jù)中對應(yīng)的第 一特征數(shù)據(jù)與前述第二影像數(shù)據(jù)中對應(yīng)的第 一特征數(shù)據(jù),以得 到第一影像數(shù)據(jù)中每個物體的第二特征數(shù)據(jù)。其后,本方法執(zhí)行對象投影程序, 輸入前述第二特征數(shù)據(jù),分析前述第二特征數(shù)據(jù)與前述第二影像數(shù)據(jù)中的第二 特征數(shù)據(jù),以預(yù)測前述前景物體在第三影像數(shù)據(jù)中(第t + l張畫面)對應(yīng)的目標(biāo) 位置,然后,將前述目標(biāo)位置輸出至前述對象切割程序,以切割出第三影像數(shù) 據(jù)中(第t + l張畫面)的前景物體。
在本發(fā)明中,第一影像數(shù)據(jù)是指本張畫面,即第t張畫面。第二影像數(shù)據(jù)
是指歷史畫面,即第t-l, t-2,…,t-n張畫面。第三影像數(shù)據(jù)是指下一張畫 面,即第t+l張畫面。第一特征數(shù)據(jù)是指對象擷取程序后所獲得的物體信息。 第二特征數(shù)據(jù)是指對象追蹤程序后所獲得的特征信息。第 一位置是指對象在第 一影像數(shù)據(jù)中的位置,第二位置是指對象在第二影像中的位置,第三位置是指 對象在第三影像中的位置。第 一機率是指對象切割中利用對象投影程序產(chǎn)生的 目標(biāo)位置所得知的每個位置為前景的機率。第二機率是指經(jīng)由與多重高斯混合 背景模型相比,所得到的機率。第三機率是指目標(biāo)像素與鄰近像素相比較所得 的機率。綜合第一、第二、及第三機率可得到該位置出現(xiàn)前景的前景機率。
依照本發(fā)明的較佳實施例所述,上述的對象切割程序包括下列步驟本方 法讀取第 一影像數(shù)據(jù)中的其中 一個像素作為目標(biāo)像素。然后,根據(jù)前述目標(biāo)像 素與對應(yīng)的前述對象投影程序產(chǎn)生的目標(biāo)位置,以決定前述目標(biāo)像素為前景像 素的機率,將該機率作為第一機率。其后,本方法比較前述目標(biāo)像素與多重高斯混合背景模型的相似度,以決定前述目標(biāo)像素為前景像素的機率,將該機率 作為第二機率。接下來,本方法比較前述目標(biāo)像素與目標(biāo)像素的對應(yīng)鄰近像素 的相似度,以決定前述目標(biāo)像素為前景像素的機率,將該機率作為第三機率。 最后,根據(jù)前述第一機率、前述第二機率與前述第三機率,決定前述目標(biāo)像素 是否為前景像素。
依照本發(fā)明的較佳實施例所述,上述的前述對象切割程序包括下列步驟 利用前述多重高斯混合背景模型,本方法得到時域差異參數(shù)。然后,根據(jù)前述 目標(biāo)像素的鄰近像素,本方法以得到空間差異參數(shù)。接著,若前述時域差異參 數(shù)與前述空間差異參數(shù)之和大于一個臨界值,則本方法判斷前述目標(biāo)像素為前 景像素。若前述時域差異參數(shù)與前述空間差異參數(shù)之和小于一個臨界值,則本 方法判斷前述目標(biāo)像素不為前景像素。
依照本發(fā)明的較佳實施例所述,若前述目標(biāo)位置投影至對應(yīng)的位置,則提 高對應(yīng)位置出現(xiàn)前述前景像素的機率或降低該位置判別是否為前景的臨界值。
依照本發(fā)明的較佳實施例所述,上述對象投影程序包括下列步驟根據(jù)第 二特征數(shù)據(jù)與第二影像數(shù)據(jù),該對象投影程序可得知第一影像數(shù)據(jù)(第t張畫面, 即本張畫面)中所有目標(biāo)對象的目標(biāo)位置(第一位置)。然后,才艮據(jù)前述第一影 像數(shù)據(jù)的第一位置及第二影像數(shù)據(jù)的第二位置,對象投影程序決定第t+l張畫 面時的第三影傳_數(shù)據(jù)中,前述目標(biāo)對象的第三位置(即t+l張畫面時該目標(biāo)對 象的位置)。對象投影程序計算目標(biāo)位置的方式如下根據(jù)前述第二影像數(shù)據(jù), 本方法得知前述目標(biāo)對象的第二位置(即t-1, t-2,…,t-n張畫面的該目標(biāo) 對象的位置)。其后,根據(jù)前述第一位置與前述第二位置,本方法估計該目標(biāo)對 象對應(yīng)的運動方向與運動速度。接下來,本方法記錄歷史運動方向與歷史運動 速度。然后,本方法預(yù)測第t+l張畫面對應(yīng)的運動方向與對應(yīng)的運動速度。最
9一張影像(第三影像數(shù)據(jù))中的目標(biāo)位置(即 第三位置)。
綜合上述,本發(fā)明提出一種反饋式對象偵測方法。由于對象追蹤功能可以 求得物體的速度,所以本發(fā)明利用對象追蹤功能的結(jié)果,利用對象投影程序以 預(yù)測下一張畫面的前景物體所在的位置,即可大幅^提升對象切割的準(zhǔn)確度。本
發(fā)明至少具有下列有益效果
1、 為了達到更準(zhǔn)確的對象偵測能力,本發(fā)明采用整個對象偵測系統(tǒng)的凄t據(jù) 來聰明地調(diào)整臨界值,使得正確率大幅提升。
2、 本發(fā)明以投影的原理來預(yù)測對象的位置,這種方法在對象切割的技術(shù)中, 不僅具備新穎性,更具有進步性。對象投影的目的在于,本發(fā)明利用第二影像 數(shù)據(jù)(第t-l, t-2,…,t-n張畫面),以預(yù)測第三影像數(shù)據(jù)(第t+l張畫面)的物 體所可能出現(xiàn)的位置。然后,本方法將這個可能出現(xiàn)的位置反饋至對象切割模 塊,以當(dāng)作對象切割的輔助,例如本發(fā)明提高對象投影區(qū)域出現(xiàn)物體的機率, 并且降低沒有投影到的區(qū)域出現(xiàn)前景物體的機率。從而,本發(fā)明提高對象切割 的正確率,并且達到降低錯誤警報的效果。
3、 對象投影對對象切割的幫助在于,對象投影可補回物體不慎切割斷開的 部分,本發(fā)明克服習(xí)知技術(shù)的缺點,避免一個物體因斷開而被誤認(rèn)為兩個物體。
4、 對象投影對對象切割的幫助在于,對象投影增加偵測物體輪廓的準(zhǔn)確性。 本發(fā)明可增加物體在相似背景中,成功割出的機率。
5、 對象投影對對象切割的幫助在于,對象投影可依投影結(jié)果調(diào)整臨界值, 有效地降低使用單一固定臨界值造成的不良影響。例如降低投影區(qū)域的臨界 值,提高非投影區(qū)域的臨界值。
6、 對象投影對對象切割的幫助在于,對象投影增加前景物體可在畫面中停留靜止的時間,而使物體不會被快速學(xué)入背景而不被偵測出來。
7、對象投影對對象切割的幫助在于,對象投影克服習(xí)知對象偵測算法以像 素為單位來作切割的缺點,對象投影利用整個物體的特征數(shù)據(jù),來增加對象切 割的正確度。
由上述可知,對象^:影計算出的每個位置可能出現(xiàn)前景物體的機率,調(diào)整 對象切割算法的切割能力(例如臨界值),以提升整體對象偵測系統(tǒng)的準(zhǔn)確度。
為讓本發(fā)明的目的、特征、和優(yōu)點能更明顯易懂,下文特舉較佳實施例, 并配合所附圖式,作詳細(xì)說明如下
圖1為現(xiàn)有技術(shù)中對象偵測算法的功能模塊結(jié)構(gòu)圖; 圖2為現(xiàn)有技術(shù)中對象切割方法的示意圖3為依照本發(fā)明一較佳實施例的反饋式對象偵測方法的功能模塊結(jié)
構(gòu)圖4為依照本發(fā)明一較佳實施例的對象切割程序的流程圖5為依照本發(fā)明一較佳實施例的決定目標(biāo)像素為前景像素的機率的
流程圖6為依照本發(fā)明一較佳實施例的對象投影程序的流程圖; 圖7為依照本發(fā)明一較佳實施例的對象切割的示意圖。
圖中主要組件符號說明如下
302:對象切割模塊
304:對象擷取才莫塊
306:對象追蹤4莫塊
308:對象投影模塊S402-S430:流程圖的步驟 S602-S626:流程圖的步驟 700:第一影像數(shù)據(jù) 702:目標(biāo)像素
704, 706, 708:多重高斯混合背景模型
具體實施例方式
為了更清楚地說明本發(fā)明實施例的技術(shù)方案,下面將結(jié)合附圖對本發(fā)明的 實施例進行詳細(xì)的介紹,下面的描述僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域 普通技術(shù)人員來講,在不付出創(chuàng)造性勞動性的前提下,還可以根據(jù)這些實施例 獲得本發(fā)明的其它的實施方式。
請參照圖3,其繪示的是依照本發(fā)明一較佳實施例的反饋式對象偵測方法的 功能模塊結(jié)構(gòu)圖。本方法適用于影像處理,其中,至少一筆第二影像數(shù)據(jù)(第t-l, t-2,…,t-n張畫面)產(chǎn)生的時間在一筆第一影像數(shù)據(jù)(第t張畫面)之前。本功 能模塊結(jié)構(gòu)圖包括對象切割模塊302、對象擷取模塊304、對象追蹤模塊306與 對象投影模塊308。本方法將第一影像數(shù)據(jù)(第t張畫面)與第二影像數(shù)據(jù)(第t-l, t-2,…,t-n張畫面)產(chǎn)生的對應(yīng)目標(biāo)位置輸入對象切割模塊302。接下來,本 方法執(zhí)行對象切割程序,使對象切割模塊302輸出對應(yīng)的二元式影像光罩至對 象擷取模塊304。然后,本方法執(zhí)行對象擷取程序,使對象擷取模塊304輸出對 應(yīng)的第一特征數(shù)據(jù)至對象追蹤模塊306。其后,本方法執(zhí)行對象追蹤程序,使對 象追蹤模塊306輸出對應(yīng)的第二特征數(shù)據(jù)至對象投影模塊308。接著,本方法執(zhí) 行對象投影程序,使對象投影模塊308輸出第一影像數(shù)據(jù)的對應(yīng)目標(biāo)位置至對 象切割模塊302,以協(xié)助第三影像數(shù)據(jù)(第t+l張畫面)的影像數(shù)據(jù)切割對象。
本方法包括下列步驟本方法執(zhí)行對象切割程序,輸入前述第一影像數(shù)據(jù)與目標(biāo)位置。根據(jù)前述第 一影像數(shù)據(jù)與前述目標(biāo)位置,以切割出畫面中所有的 前景物體與該前景物體對應(yīng)的切割資料。然后,本方法執(zhí)行對象擷取程序,輸 入前述切割數(shù)據(jù),此切割數(shù)據(jù)即二元式影像光罩。根據(jù)前述前景物體與前述切 割資料,獲取每一個前景物體對應(yīng)的第一特征數(shù)據(jù)。其后,本方法執(zhí)行對象追 蹤程序,輸入前述第一特征數(shù)據(jù),并分析前述第一影^f象lt據(jù)中對應(yīng)的第一特征 數(shù)據(jù)與前述第二影像數(shù)據(jù)中對應(yīng)的前述第一特征數(shù)據(jù),通過比較得知對應(yīng)關(guān)系,
以得到第一影像數(shù)據(jù)中每個對象的第二特征數(shù)據(jù)。接著,本方法執(zhí)行對象投影 程序,輸入前述第二特征數(shù)據(jù),分析前述第二特征數(shù)據(jù)與前述第二影像數(shù)據(jù)對 應(yīng)的第二特征數(shù)據(jù),以預(yù)測前述前景物體對應(yīng)的前述目標(biāo)位置(第三位置)。然
后,本方法將前述目標(biāo)位置輸出至前述對象切割程序,以進行前述第三影像數(shù) 據(jù)的對象切割。
請參照圖4,其繪示的是依照本發(fā)明一較佳實施例的對象切割程序的流程 圖。前述對象切割程序包括下列步驟開始進行對象切割S402,本方法讀取第 一影像數(shù)據(jù)(第t張畫面)中的其中一個像素作為目標(biāo)像素S404。接下來,本方 法輸入第二影像數(shù)據(jù)(第t-l, t-2,…,t-n張畫面),以及在第t-l張畫面時 決定對應(yīng)的目標(biāo)位置S406。然后,本方法讀取此目標(biāo)位置S408。 4^著,才艮據(jù)前 述目標(biāo)像素與對應(yīng)之前述目標(biāo)位置,以決定前述目標(biāo)位置出現(xiàn)前景像素的機率, 成為第一機率S410。此外,根據(jù)高斯混合背景模型,取得對應(yīng)的時域切割資料 S412。接下來,本方法讀取前述時域切割數(shù)據(jù)S414。接著,本方法比較前述目 標(biāo)像素與高斯混合背景模型的相似度,以決定前述目標(biāo)像素為前景像素的機率, 成為第二機率S416。另外,本方法讀取第一影像數(shù)據(jù)S418。然后,根據(jù)前述目 標(biāo)像素與目標(biāo)像素的對應(yīng)鄰近像素,取得空間數(shù)據(jù)S420。其后,本方法比較前 述目標(biāo)像素與目標(biāo)像素的對應(yīng)鄰近像素的相似度,以決定前述目標(biāo)像素為前景像素的機率,成為第三機率S422。接著,根據(jù)第一機率、第二機率與第三機率, 決定前述目標(biāo)像素是否為前景像素S424。接下來,本方法輸出前述目標(biāo)像素至 二元式影像光罩S426。然后,本方法判斷整張畫面的像素是否皆切割完成S428。 若整張畫面的像素未切割完成,則本方法再次執(zhí)行步驟S404。若整張畫面的像 素切割完成,則本方法結(jié)束對象切割程序S430。
請參照圖5,其繪示的是依照本發(fā)明一較佳實施例的決定目標(biāo)像素為前景像 素的機率的流程圖。本方法形成前景像素機率包括下列步驟根據(jù)讀取該物體 的第一影像數(shù)據(jù)及對象投影信息目標(biāo)位置,可得知前述的第一機率。通過多重 高斯混合背景模型,本方法得到時域差異參數(shù)。根據(jù)此時域差異參數(shù),可得知 前述的第二機率。然后,根據(jù)目標(biāo)像素鄰近的像素,本方法得到空間差異參數(shù)。 根據(jù)此空間差異參數(shù),可得知前述的第三機率。根據(jù)前述第一機率,調(diào)整第二 機率及第三機率判斷的臨界值,并由與臨界值比較的結(jié)果,可求得前景像素機 率。由此前景像素機率可判定該像素是否為前景像素,完成該像素的對象切割。
請再次參照圖3,對象擷取程序可使用習(xí)知的連結(jié)組件巻標(biāo)算法(Connected
Component Labeling),以分析連結(jié)組件的連接情況、位置與物體分布,以取得 第一特征數(shù)據(jù)。對象追蹤程序可使用對象配對算法,通過一對一的比較每張畫 面,尋找相似對象以進行追蹤,以取得第二特征數(shù)據(jù)。
請參照圖6,其繪示的是依照本發(fā)明一較佳實施例的對象投影程序的流程 圖。對象投影程序包括下列步驟開始進行物件投影S602,本方法讀取要進行 對象投影的目標(biāo)對象S604。此外,本方法取得第二影像數(shù)據(jù)的目標(biāo)對象的數(shù)據(jù) S606。然后,本方法讀取第二影像數(shù)據(jù)(第t-l, t-2,…,t-n張畫面)的目 標(biāo)對象的位置S608。此外,本方法取得第一影像數(shù)據(jù)(本張畫面t)的目標(biāo)對象 的數(shù)據(jù)S610。然后,根據(jù)第一影像數(shù)據(jù),決定第t張畫面時,目標(biāo)對象的第一位置,亦即,本方法讀耳又本張畫面(第t張畫面)的目標(biāo)對象的位置S6i2。然后, 根據(jù)前述第一位置與前述第二位置,估計運動方向與運動速度S614。然后,本 方法記錄歷史運動方向與歷史運動速度S616。并且,本方法預(yù)測第三影像數(shù)據(jù) (第t+l張畫面)的對應(yīng)的運動方向與對應(yīng)的運動速度S618。根據(jù)步驟S612與 步驟S618,本方法預(yù)測目標(biāo)對象在第三影像數(shù)據(jù)(第t+l張畫面)中的目標(biāo)位置 S620。其后,本方法輸出目標(biāo)對象在第t+l張畫面的影像中的目標(biāo)位置S622。 接著,本方法判斷第一影像數(shù)據(jù)中的所有目標(biāo)對象是否全部投影完成S624。若 第一影像數(shù)據(jù)中的所有目標(biāo)對象尚未投影完成,則本方法再次執(zhí)行步驟S604。 若第一影像數(shù)據(jù)中的所有目標(biāo)對象已投影完成,則本方法結(jié)束對象投影程序 S626。
值得說明的是,第一特征數(shù)據(jù)系為顏色分布、物體質(zhì)心或?qū)ο蟠笮〉葘ο?信息。第二特征數(shù)據(jù)系為移動數(shù)據(jù),根據(jù)分析對象移動狀況所取得的數(shù)據(jù),例 如對象速度、對象位置或運動方向等信息。此外,第二特征數(shù)據(jù)亦可為分類 數(shù)據(jù),前述分類數(shù)據(jù)指示對象的種類,例如人或車。再者,第二特征數(shù)據(jù)亦 可為場景位置數(shù)據(jù),前述場景位置數(shù)據(jù)指示對象所在場景,例如門口、上坡 或下坡。另外,第二特征數(shù)據(jù)亦可為互動數(shù)據(jù),通過分析各個連結(jié)組件間的互 動行為,可得到前述互動數(shù)據(jù),例如談話行為或身體接觸行為。再者,第二 特征數(shù)據(jù)亦可為場景深度數(shù)據(jù),前述場景深度數(shù)據(jù)指示對象所在的場景深度。 根據(jù)第二特征數(shù)據(jù),本方法可利用第二特征數(shù)據(jù)來預(yù)測目標(biāo)對象在下一張畫面 的目標(biāo)位置,然后,本方法回授下一張畫面的目標(biāo)位置至原有的對象切割程序, 即可得到第一機率。本方法配合其它第二機率與第三機率作更精確的預(yù)測,即 可更精確的完成對象切割的工作。
請參照圖7,其繪示的是依照本發(fā)明一較佳實施例的對象切割的示意圖。請配合參照圖5與圖6,第一影像數(shù)據(jù)700內(nèi)含目標(biāo)像素702,根據(jù)目標(biāo)像素702 鄰近像素,可以得到第三機率。再者,根據(jù)多重高斯混合背景模型704、多重高 斯混合背景模型706、多重高斯混合背景模型708等等N個模型,可得到第二機 率。另外,根據(jù)對象移動數(shù)據(jù),本方法可取得第一機率,其數(shù)學(xué)形式如下 Pos(Obj(k), t):物體k在t時間的位置
MV(Obj(k), t):物體k在t與t-1時間的移動向量(mot ion vector) MV (0b j (k), t) = Pos (0b j (k) , t) - Pos (Ob j (k), t-1) MP(0bj(k), t):牙多動予貞測函凄t(motion prediction) Low—pass —filter (X): 低通濾波函凄丈
MP(0bj(k), t) = Low-pass-filter (MV (0b j (k), t), MV(Obj(k), t-1), MV(0bj(k), t-2),…)
Proj —pos(0bj(k), t+1):根據(jù)前述資料,本方法預(yù)測(投影)物體t+1時間 出現(xiàn)的位置
Proj-pos (0bj (k), t+1) -Pos(Obj(k), t) +MP(0bj(k), t)
本方法在進行t+1張畫面的物體分割時,若該位置為對象^:影的目標(biāo)位置, 則提高該位置物體出現(xiàn)的機率,亦即,本方法降低判斷該位置為前景的臨界值。
本領(lǐng)域普通技術(shù)人員可以理解實現(xiàn)上述實施例中的全部或部分步驟,可以 通過程序指令相關(guān)硬件完成。所述實施例對應(yīng)的軟件可以存儲在一個計算機可 存儲讀取的介質(zhì)中。
以上所述,僅為本發(fā)明的具體實施方式
,但本發(fā)明的保護范圍并不局限于 此,任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),可輕易想到 變化或替換,都應(yīng)涵蓋在本發(fā)明的保護范圍之內(nèi)。因此,本發(fā)明的保護范圍應(yīng) 以權(quán)利要求的保護范圍為準(zhǔn)。
1權(quán)利要求
1.一種反饋式對象偵測方法,適用于影像處理,其特征在于,至少一第二影像數(shù)據(jù)產(chǎn)生的時間在一第一影像數(shù)據(jù)之前,此方法包括下列步驟執(zhí)行對象切割程序,輸入該第一影像數(shù)據(jù)與對象投影程序獲取的目標(biāo)位置,根據(jù)該第一影像數(shù)據(jù)與該目標(biāo)位置,以切割出畫面中所有前景物體,獲取對應(yīng)的切割數(shù)據(jù);執(zhí)行對象擷取程序,輸入該切割數(shù)據(jù),根據(jù)該前景物體與切割資料,獲取每一該前景物體對應(yīng)的第一特征數(shù)據(jù);執(zhí)行對象追蹤程序,輸入該第一特征數(shù)據(jù),分析該第一影像數(shù)據(jù)中對應(yīng)的該第一特征數(shù)據(jù)與該第二影像數(shù)據(jù)中對應(yīng)的該第一特征數(shù)據(jù),以得到至少一第二特征數(shù)據(jù);以及,執(zhí)行該對象投影程序,輸入該第二特征數(shù)據(jù),分析該第二特征數(shù)據(jù)與該第二影像數(shù)據(jù),以預(yù)測該前景物體對應(yīng)的該目標(biāo)位置,然后,將該目標(biāo)位置輸出至該對象切割程序,以輔助進行一第三影像數(shù)據(jù)的切割。
2. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該對象切割程 序包括下列步驟讀取該第一影像數(shù)據(jù)中的其中一個像素作為一目標(biāo)像素;根據(jù)該目標(biāo)像素與對應(yīng)的該目標(biāo)位置,以決定該目標(biāo)位置出現(xiàn)一前景像素 的機率,該機率為第一機率;比較該目標(biāo)像素與背景模型的相似度,以決定該目標(biāo)像素為該前景像素的 機率,該機率為第二機率;比較該目標(biāo)像素與該目標(biāo)像素的對應(yīng)鄰近像素的相似度,以決定該目標(biāo)像 素為該前景像素的機率,該機率為第三機率;以及,根據(jù)該第一機率、該第二機率與該第三機率,決定該目標(biāo)像素是否為該前景像素。
3. 如權(quán)利要求2所述的反饋式對象偵測方法,其特征在于,該背景模型為 多重高斯混合背景模型。
4. 如權(quán)利要求3所述的反饋式對象偵測方法,其特征在于,該對象切割程 序包括下列步驟利用該多重高斯混合背景模型,以得到時域差異參數(shù);根據(jù)該目標(biāo)像素的鄰近像素,以得到空間差異參數(shù);若該時域差異參數(shù)與該空間差異參數(shù)之和大于一臨界值,則判斷該目標(biāo)像 素為該前景像素;以及,若該時域差異參數(shù)與該空間差異參數(shù)之和小于該臨界值,則判斷該目標(biāo)像 素不為該前景像素。
5. 如權(quán)利要求2所述的反饋式對象偵測方法,其特征在于,若該目標(biāo)位置 投影至對應(yīng)的位置,則提高對應(yīng)位置出現(xiàn)該前景像素的機率。
6. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該切割數(shù)據(jù)為 二元式影像光罩。
7. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該第一特征數(shù) 據(jù)包括顏色分布、物體質(zhì)心與對象大小。
8. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該第二特征數(shù) 據(jù)為移動數(shù)據(jù),通過分析對象移動狀況獲取所述移動數(shù)據(jù)。
9. 如權(quán)利要求8所述的反饋式對象偵測方法,其特征在于,該移動數(shù)據(jù)包 括對象速度與對象位置、對象大小與運動方向中的至少一種。
10. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該第二特征數(shù) 據(jù)為分類數(shù)據(jù),該分類數(shù)據(jù)指示對象的種類。
11.如權(quán)利要求1G所述的反饋式對象偵測方法,其特征在于,該分類數(shù)據(jù) 包括一人與 一車中的至少 一種。
12.如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該第二特征數(shù)據(jù)為場景位置數(shù)據(jù),該場景位置數(shù)據(jù)指示對象所在場景。
13. 如權(quán)利要求12所述的反饋式對象偵測方法,其特征在于,該場景位置 數(shù)據(jù)包括一門口、 一上i皮與一下坡中的至少一種。
14. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該第二特征數(shù) 據(jù)為一互動數(shù)據(jù),通過分析至少一連結(jié)組件間的互動行為,以得到該互動數(shù)據(jù)。
15. 如權(quán)利要求14所述的反饋式對象偵測方法,其特征在于,該互動數(shù)據(jù) 為 一談話行為與 一身體接觸行為。
16. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該第二特征數(shù) 據(jù)為場景深度數(shù)據(jù),該場景深度數(shù)據(jù)指示對象的場景深度。
17. 如權(quán)利要求1所述的反饋式對象偵測方法,其特征在于,該對象投影程序包括下列步驟根據(jù)該第二特征數(shù)據(jù)與該第二影像數(shù)據(jù),決定至少一 目標(biāo)對象;根據(jù)該第一影像數(shù)據(jù),決定第t張畫面時,該目標(biāo)對象的第一位置; 根據(jù)該第二影傳H據(jù),決定第t-l, t-2,…,t-n張畫面時,該目標(biāo)對象 的第二位置;根據(jù)該第一位置與該第二位置,估計一運動方向與一運動速度; 記錄一歷史運動方向與 一歷史運動速度;預(yù)測該第三影像數(shù)據(jù),該第三影像數(shù)據(jù)為第t+l張畫面時對應(yīng)的該運動方 向與對應(yīng)之該運動速度;以及,預(yù)測該目標(biāo)對象在該第三影像數(shù)據(jù)中的該目標(biāo)位置。
全文摘要
本發(fā)明公開了一種反饋式對象偵測方法,涉及影像處理,此方法包括下列步驟執(zhí)行對象切割程序,根據(jù)第一影像數(shù)據(jù)與目標(biāo)位置,以決定前景物體與切割數(shù)據(jù),執(zhí)行對象擷取程序,使每一前景物體具有對應(yīng)的第一特征數(shù)據(jù),執(zhí)行對象追蹤程序,以得到至少一第二特征數(shù)據(jù),執(zhí)行對象投影程序,根據(jù)第二特征數(shù)據(jù)與第二影像數(shù)據(jù),以預(yù)測前景物體對應(yīng)的目標(biāo)位置,并且,將目標(biāo)位置輸出至對象切割程序,以進行第三影像數(shù)據(jù)的對象切割。本發(fā)明適用于影像處理。
文檔編號G06T7/00GK101615291SQ200810126130
公開日2009年12月30日 申請日期2008年6月27日 優(yōu)先權(quán)日2008年6月27日
發(fā)明者張智豪, 楊宗嵐 申請人:睿致科技股份有限公司