專利名稱::無重疊視域多攝像機人體目標跟蹤方法
技術(shù)領(lǐng)域:
:本發(fā)明涉及一種多攝像機視頻監(jiān)控領(lǐng)域中的目標跟蹤方法,具體是一種在多攝像機之間拓撲關(guān)系已知的情況下,在無重疊視域的多攝像機視頻中進行人體目標匹配與跟蹤的方法。屬于視頻監(jiān)控
技術(shù)領(lǐng)域:
。
背景技術(shù):
:隨著視頻監(jiān)控技術(shù)的快速發(fā)展,以及單攝像機有限的視域無法滿足廣域視頻監(jiān)控的要求,無重疊視域多攝像機目標跟蹤成為有效解決廣域視頻監(jiān)控問題的一種途徑。無重疊視域多攝像機目標跟蹤問題不同于單攝像機和重疊視域多攝像機跟蹤問題。單攝像機目標跟蹤的研究主要集中在背景建模、前景檢測、陰影去除、遮擋處理等關(guān)鍵問題上,這些關(guān)鍵問題也是多攝像機目標跟蹤的研究基礎(chǔ)。多攝像機目標跟蹤從視域角度上看可以分為重疊視域多攝像機目標跟蹤與無重疊視域多攝像機目標跟蹤。對于前者由于視域是重疊的,目標在離開前一個攝像機視域之前已經(jīng)出現(xiàn)在后一個攝像機的視域中,因此攝像機之間的目標跟蹤可以由一個攝像機傳遞給另一個。而對于后者由于攝像機之間存在一個盲區(qū),目標在這個盲區(qū)內(nèi)的運動無法獲知,因此造成時間和空間上的不連續(xù),這為問題的解決設(shè)置了巨大障礙,而且使得前者的許多研究方法無法有效地應(yīng)用到后者中。對于無重疊視域多攝像機目標跟蹤問題,由于問題本身的復(fù)雜性和困難性,目前仍處于研究的初級階段。經(jīng)對現(xiàn)有技術(shù)文獻的檢索發(fā)現(xiàn),無重疊視域多攝像機目標跟蹤問題的研究主要集中在不同攝像機中相同目標的匹配以及監(jiān)控攝像機之間拓撲關(guān)系的估計。目前已有的匹配方法主要為對目標建立外觀模型。Javed等人于2008年在《ComputerVisionandImageUnderstanding》(計算機視覺與圖像理解)發(fā)表的論文"Modelinginter-cameraspace-timeandappearancerelationshipsfortrackingacrossnon-overlappingviews"(針對非重疊視域跟蹤的多攝像機時空及外觀關(guān)系建模)運用顏色直方圖建立外觀模型。Teixeira等人于2008年在《PatternRecognitionLetters》)(模式識另U快報)發(fā)表的論文"Videoobjectmatchingacrossmultipleindependentviewsusinglocaldescriptorsandadaptivelearning"(基于局部特征描述器及適應(yīng)性學習的獨立多攝像機視頻目標匹配)運用一個由量化的局部特征描述器組成的直方圖建立外觀模型。然而,由于多攝像機視域中各攝像機之間多種因素變化的不確定性,這些特征均無法對于這些不確定因素同時具有魯棒性。Javed等人于2008年在《ComputerVisionandImageUnderstanding》(計算機視覺與圖像理解)發(fā)表的論文"Modelinginter-cameraspace-timeandappearancerelationshipsfortrackingacrossnon-overl即pingviews"(針對非重疊視域跟蹤的多攝像機時空及外觀關(guān)系建模)采用一個基于Parzen窗和高斯核的混合概率密度估計器來估計由時間間隔、進出觀測視域的位置和進出視域時的運動速度等量組成的概率密度函數(shù),整個估計過程通過學習訓練集數(shù)據(jù)的方法實現(xiàn)。然而,這種方法算法復(fù)雜,不易實現(xiàn),因此不適合實際的工程運用。
發(fā)明內(nèi)容本發(fā)明的目的在于針對現(xiàn)有技術(shù)的不足,提供一種無重疊視域多攝像機人體目標跟蹤方法,能在多攝像機之間的拓撲關(guān)系已知的前提下,實時準確的跟蹤單個行人目標。為實現(xiàn)上述目的,本發(fā)明首先建立多攝像機之間的拓撲關(guān)系矩陣,然后提取行人目標的前景圖像,接著通過人機交互界面在某個攝像機的視域范圍選定跟蹤目標,并使用混合高斯模型提取該目標的外觀特征,包括顏色直方圖特征和UV色度特征,在整個跟蹤過程中,采用樹的結(jié)構(gòu)對跟蹤任務(wù)進行管理,并采用貝葉斯模型估計全局相似度,根據(jù)全局相似度尋找最佳匹配目標。本發(fā)明方法通過以下具體步驟實現(xiàn)1、為每個攝像機設(shè)定編號1,2,……,N;為每個攝像機定義出入口編號1,2,……,m;從一個攝像機的某個出口至另一個攝像機的某個入口所用平均時間為f;引入一個時間窗參數(shù)W,使得所有行人從一個攝像機的某個出口至另一個攝像機的某個入口所用時間落在(t-w,t+w)區(qū)間內(nèi);根據(jù)己知多攝像機之間的拓撲關(guān)系,建立拓撲關(guān)系矩陣,11^12,21^22,2j,2W《J…('W,i=l,2,',N;j=l,2,',N;其中,^表示從攝像機Z'到攝像機_/之間的連接信息,^用以下結(jié)構(gòu)表示(攝像機號i,出口號),(攝像機號j,入口號),平均時間,時間窗}。2、將攝像機采集的視頻讀入計算機,對每幀圖像進行背景建模與背景實時更新,通過當前幀與背景幀相減的方法,得到每個行人目標的前景圖像。3、通過人機交互界面在某個攝像機的視域范圍選定跟蹤目標,根據(jù)與該跟蹤目標對應(yīng)的行人目標前景圖像,使用混合高斯模型提取跟蹤目標的外觀特征,包括顏色直方圖特征和uv色度特征。4、當跟蹤目標走出選定時所在攝像機視域范圍,則針對該攝像機建立節(jié)點作為跟蹤樹的根節(jié)點;然后根據(jù)拓撲關(guān)系矩陣得到與該攝像機相連的所有攝像機,并向這些攝像機發(fā)布跟蹤任務(wù),同時針對這些攝像機為根節(jié)點分別建立子節(jié)點;所述節(jié)點的結(jié)構(gòu)為節(jié)點={父節(jié)點,子節(jié)點,攝像機號,對應(yīng)跟蹤任務(wù),行人目標對象};其中行人目標對象包括行人目標的外觀特征以及該行人目標與選定跟蹤目標之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時間,出入口號,對應(yīng)節(jié)點}。5、當行人目標進入某個攝像機的視域范圍,則在該攝像機的跟蹤任務(wù)列表中尋找與之匹配的跟蹤任務(wù);若存在匹配的跟蹤任務(wù),則根據(jù)該行人目標的前景圖像,使用混合高斯模型提取該行人目標的顏色直方圖特征和UV色度特征;計算該行人目標與選定跟蹤目標之間的相似度,再利用貝葉斯模型估計全局相似度,將此全局相似度與該攝像機對應(yīng)節(jié)點中保存行人目標對象的全局相似度進行比較,保留較大者對應(yīng)的行人目標對象作為局部最佳匹配目標,再根據(jù)全局相似度在該攝像機所對應(yīng)的當前層節(jié)點中尋找全局最佳匹配節(jié)點,對于失去全局最佳匹配節(jié)點身份的節(jié)點,刪除其子節(jié)點。6、當與全局最佳匹配節(jié)點對應(yīng)的行人目標走出某個攝像機的視域范圍,則根據(jù)拓撲關(guān)系矩陣得到所有與該攝像機相連的攝像機,并向這些攝像機發(fā)布跟蹤任務(wù),同時針對這些攝像機為當前節(jié)點分別建立子節(jié)點。7、當某個跟蹤任務(wù)的監(jiān)控時間失效,在該跟蹤任務(wù)對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,若該跟蹤任務(wù)對應(yīng)節(jié)點不是全局最佳匹配節(jié)點,則刪除該跟蹤任務(wù)對應(yīng)節(jié)點及其子節(jié)點。8、若所有節(jié)點的跟蹤任務(wù)時間均失效,則完成無重疊視域多攝像機的目標本發(fā)明與現(xiàn)有技術(shù)相比的顯著效果在于融合兩種特征建立外觀模型以實現(xiàn)更加精確的匹配,并利用己知的拓撲關(guān)系來輔助目標匹配,具有精確度高,算法簡單,易于實現(xiàn)、實時性強等優(yōu)點,可以為多攝像機目標識別與跟蹤提供一種新的實時可靠的方法。圖1為本發(fā)明方法步驟方框示意圖。圖2為攝像機出入口號定義方式示意圖。圖3為攝像機拓撲結(jié)構(gòu)示意圖。圖4為跟蹤樹示意圖。具體實施例方式下面結(jié)合附圖和實施例對本發(fā)明的技術(shù)方案作詳細說明。本實施例在以本發(fā)明技術(shù)方案為前提下進行實施,給出了詳細的實施方式和過程,但本發(fā)明的保護范圍不限于下述的實施例。為了便于理解本發(fā)明提出的方法,在本實施例中選取非重疊視域攝像機數(shù)目為4,所選取的視頻中共有兩個行人分別為行人A與行人B先后經(jīng)過,行人A依次經(jīng)過攝像機l、2、4的視域,行人B依次經(jīng)過攝像機1、3、4的視域。圖1給出了本發(fā)明方法流程示意圖。如圖1所示,本實施例具體實施步驟如下1、建立多攝像機之間的拓撲關(guān)系矩陣在本實施例中選取非重疊視域攝像機數(shù)目為4,依次為每個攝像機設(shè)定編號1,2,3,4;然后,所有攝像機均按附圖2所示方式定義出入口編號1,2,3,4;根據(jù)攝像機的實際連接方式以及以上定義,可以畫出本實施例中4個攝像機的拓撲結(jié)構(gòu)如附圖3所示。定義從一個攝像機的某個出口至另一個攝像機的某個入口所用平均時間為6引入一個時間窗參數(shù)w,使得所有行人從一個攝像機的某個出口至另一個攝像機的某個入口所用時間落在(t-w,t+w)區(qū)間內(nèi)。t與w的取值根據(jù)一定數(shù)量的樣本統(tǒng)計得到。如圖3所示,本實施例中,行人A的行走路線中,1號攝像機的4號出口至2號攝像機的4號入口所用平均時間r為21s,時間窗參數(shù)w=5s;2號攝像機的2號出口至4號攝像機的4號入口所用平均時間f為44s,時間窗參數(shù)w^9s。行人B行走的路線中,l號攝像機的4號出口至3號攝像機的4號入口所用平均時間f為28s,時間窗參數(shù)w=7s;3號攝像機的2號出口至4號攝像機的4號入口所用平均時間/為35s,時間窗參數(shù)w=8s。根據(jù)已知的拓撲關(guān)系,建立多攝像機之間的拓撲關(guān)系矩陣<formula>formulaseeoriginaldocumentpage8</formula>其中,^表示從攝像機/到攝像機/之間的連接信息,包括出口號、入口號、平均時間以及時間窗參數(shù)。^用以下結(jié)構(gòu)表示(攝像機號i,出口號),(攝像機號j,入口號),平均時間,時間窗}。如果兩攝像機之間不存在連接,則出口號與入口號賦-1,平均時間與時間窗賦0。2、提取行人目標的前景圖像采用OpenCV(Intel開源計算機視覺庫)中的功能函數(shù)進行視頻讀取,把攝像機采集的視頻讀入計算機,然后采用TaoYang等人于2005年在CVPR(計算機視覺與模式識別會議)發(fā)表的論文"Real-timeMultipleObjectsTrackingw他OcclusionHandlinginDynamicScenes"(動態(tài)場景中的實時重疊多目標跟蹤)中的方法對每幀圖像進行背景建模與背景實時更新。通過當前幀與背景幀相減的方法,并結(jié)合高斯濾波與形態(tài)學處理,可以得到比較準確的每個行人目標的前景圖像。3、選定跟蹤目標,提取跟蹤目標的外觀特征當行人A首先出現(xiàn)在攝像機1的視域,通過人機交互界面選定它為跟蹤目標。使用Cai等人于2007年在ACCV(亞洲計算機視覺會議)發(fā)表的論文"Continuouslytrackingobjectsacrossmultiplewidelyseparatedcameras"(廣域非重疊多攝像機持續(xù)目標跟蹤)的方法提取基于前景分割的顏色直方圖特征。根據(jù)空間關(guān)系將目標劃分為三個部分,對于每部分使用高斯混合模型(GMM)來估計顏色分布,不同部分的權(quán)值由下式計算—來=&,)其中,",和^代表攝像機A和B中的檢測目標,代表&和^中的對應(yīng)部分相匹配的概率,戶(^=6,)代表攝像機A和B中的目標相匹配的概率。"f吏用Jeong禾口Jaynes于2008年在《MachineVisionandApplications》(機器視覺及應(yīng)用)發(fā)表的論文"Objectmatchingindisjointcamerasusingacolortransferapproach"(使用顏色轉(zhuǎn)換方法的非重疊攝像機目標匹配)提取UV色度空間模型。將目標劃分為三個部分,根據(jù)YUV顏色空間的UV通道建立色度平面。對于平面上的顏色分布建立二維高斯混合模型。權(quán)值計算同顏色直方圖。多攝像機之間的跟蹤任務(wù)管理采用樹的結(jié)構(gòu)進行,在本實施例中,整個管理過程依次通過以下幾步實現(xiàn)4、選定的跟蹤目標(行人A)走出攝像機1的視域范圍,則針對攝像機1建立節(jié)點作為跟蹤樹的根節(jié)點;然后搜索拓撲關(guān)系矩陣,得到所有與之相連的攝像機為攝像機2和攝像機3;根據(jù)平均時間t與時間窗W向攝像機2和攝像機3發(fā)布跟蹤任務(wù),同時針對攝像機2和攝像機3為根節(jié)點建立子節(jié)點;所述節(jié)點的結(jié)構(gòu)為節(jié)點={父節(jié)點,子節(jié)點,攝像機號,對應(yīng)跟蹤任務(wù),行人目標對象};其中行人目標對象包括行人目標的外觀特征以及該行人目標與選定跟蹤目標之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時間,出入口號,對應(yīng)節(jié)點};此時的跟蹤樹如附圖4(a)所示。圖中節(jié)點內(nèi)的標號代表對應(yīng)的攝像機號。5、行人A進入攝像機2的視域,則在攝像機2的跟蹤任務(wù)列表中根據(jù)待監(jiān)控的攝像機出入口號以及有效監(jiān)控時間尋找與之匹配的跟蹤任務(wù);結(jié)果為存在匹配的跟蹤任務(wù),則根據(jù)該行人目標的前景圖像,使用混合高斯模型提取該行人目標的顏色直方圖特征和UV色度特征;計算該行人目標與選定跟蹤目標之間的相似度,再利用貝葉斯模型估計全局相似度,將該行人目標對象作為局部最佳匹配目標保存在攝像機2對應(yīng)節(jié)點中;再根據(jù)全局相似度在攝像機1所對應(yīng)的當前層節(jié)點中尋找全局最佳匹配節(jié)點,結(jié)果為攝像機2對應(yīng)節(jié)點為最佳匹配節(jié)點。接著,行人B進入攝像機3的視域,則在攝像機3的監(jiān)控任務(wù)列表中根據(jù)待監(jiān)控的攝像機出入口號以及有效監(jiān)控時間尋找與之匹配的監(jiān)控任務(wù);結(jié)果為存在匹配的監(jiān)控任務(wù),則根據(jù)該行人目標的前景圖像,使用混合高斯模型提取該行人目標的顏色直方圖特征和UV色度特征;計算該行人目標與選定跟蹤目標之間的相似度,再利用貝葉斯模型估計全局相似度,將該行人目標對象作為局部最佳匹配目標保存在攝像機3對應(yīng)節(jié)點中;此時攝像機3所對應(yīng)的當前層中有兩個節(jié)點,比較它們的全局相似度,取相似度最大者為最佳匹配節(jié)點;結(jié)果上一步出現(xiàn)的行人(行人A)相似度更大,因此攝像機2對應(yīng)節(jié)點被判為當前的最佳匹配節(jié)點;由于未發(fā)生最佳匹配節(jié)點身份的轉(zhuǎn)移,所以不需進行刪除子節(jié)點操作。6、行人A走出攝像機2的視域,搜索拓撲關(guān)系矩陣,得到所有與攝像機2出口相連的攝像機為攝像機4;根據(jù)平均時間t與時間窗w向攝像機4發(fā)布跟蹤任務(wù),同時針對攝像機4為當前節(jié)點建立子節(jié)點;此時的跟蹤樹如附圖4(b)所示。7、攝像機2的跟蹤任務(wù)監(jiān)控時間失效,在攝像機2對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,結(jié)果攝像機2對應(yīng)節(jié)點為最佳匹配節(jié)點;因此不進行刪除節(jié)點操作。攝像機3的跟蹤任務(wù)監(jiān)控時間失效,在攝像機3對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,結(jié)果攝像機2對應(yīng)節(jié)點為最佳匹配節(jié)點;刪除攝像機3對應(yīng)節(jié)點及其子節(jié)點;此時的跟蹤樹如附圖4(c)所示。行人A走出攝像機2的視域范圍后,進入了攝像機4的視域,采用與步驟5相同的方法進行跟蹤任務(wù)管理。即在攝像機4的跟蹤任務(wù)列表中根據(jù)待監(jiān)控的攝像機出入口號以及有效監(jiān)控時間尋找與之匹配的跟蹤任務(wù);結(jié)果為存在匹配的跟蹤任務(wù),則根據(jù)該行人目標的前景圖像,使用混合高斯模型提取該行人目標的顏色直方圖特征和UV色度特征;計算該行人目標與選定跟蹤目標之間的相似度,再利用貝葉斯模型估計全局相似度,將該行人目標對象作為局部最佳匹配目標保存在攝像機2對應(yīng)節(jié)點中,再根據(jù)全局相似度在攝像機4所對應(yīng)的當前層節(jié)點中尋找全局最佳匹配節(jié)點,由于此時當前層只有一個節(jié)點,于是它被判為當前的最佳匹配目標。行人A走出攝像機4的視域,搜索拓撲關(guān)系矩陣,沒有與攝像機4出口相連的其它攝像機,不進行任何操作。攝像機4的跟蹤任務(wù)監(jiān)控時間失效,在攝像機4對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,由于當前層只有一個節(jié)點,結(jié)果攝像機4對應(yīng)節(jié)點為最佳匹配節(jié)點;因此不進行刪除節(jié)點操作。8、攝像機4的跟蹤任務(wù)監(jiān)控時間失效,即所有攝像機的跟蹤任務(wù)監(jiān)控時間失效,則完成無重疊視域多攝像機的目標跟蹤。于是,在整個跟蹤過程中,成功地跟蹤了行人A的運動軌跡。權(quán)利要求1、一種無重疊視域多攝像機人體目標跟蹤方法,其特征在于包括以下步驟1)為每個攝像機設(shè)定編號1,2,……,N;為每個攝像機定義出入口編號1,2,……,m;從一個攝像機的某個出口至另一個攝像機的某個入口所用平均時間為t;引入一個時間窗參數(shù)w,使得所有行人從一個攝像機的某個出口至另一個攝像機的某個入口所用時間落在(t-w,t+w)區(qū)間內(nèi);根據(jù)已知多攝像機之間的拓撲關(guān)系,建立拓撲關(guān)系矩陣<mathsid="math0001"num="0001"><math><![CDATA[<mrow><mi>T</mi><mo>=</mo><mfencedopen='['close=']'><mtable><mtr><mtd><msub><mi>t</mi><mn>11</mn></msub></mtd><mtd><msub><mi>t</mi><mn>12</mn></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>1</mn><mi>j</mi></mrow></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>1</mn><mi>N</mi></mrow></msub></mtd></mtr><mtr><mtd><msub><mi>t</mi><mn>21</mn></msub></mtd><mtd><msub><mi>t</mi><mn>22</mn></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>2</mn><mi>j</mi></mrow></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>2</mn><mi>N</mi></mrow></msub></mtd></mtr><mtr><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd></mtr><mtr><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd></mtr><mtr><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd></mtr><mtr><mtd><msub><mi>t</mi><mrow><mi>i</mi><mn>1</mn></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>i</mi><mn>2</mn></mrow></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mi>ij</mi></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mi>iN</mi></msub></mtd></mtr><mtr><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd></mtr><mtr><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd></mtr><mtr><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>·</mo></mtd></mtr><mtr><mtd><msub><mi>t</mi><mrow><mi>N</mi><mn>1</mn></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>N</mi><mn>2</mn></mrow></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mi>Nj</mi></msub></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><mo>·</mo></mtd><mtd><msub><mi>t</mi><mi>NN</mi></msub></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>]]></math>id="icf0001"file="A2009100549250002C1.tif"wi="45"he="39"top="83"left="46"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>i=1,2,……,N;j=1,2,……,N;其中,tij表示從攝像機i到攝像機j之間的連接信息,tij用以下結(jié)構(gòu)表示tij={(攝像機號i,出口號),(攝像機號j,入口號),平均時間,時間窗};2)將攝像機采集的視頻讀入計算機,對每幀圖像進行背景建模與背景實時更新,通過當前幀與背景幀相減的方法,得到每個行人目標的前景圖像;3)通過人機交互界面在某個攝像機的視域范圍選定跟蹤目標,根據(jù)與該跟蹤目標對應(yīng)的行人目標前景圖像,使用混合高斯模型提取跟蹤目標的外觀特征,包括顏色直方圖特征和UV色度特征;4)當跟蹤目標走出選定時所在攝像機視域范圍,則針對該攝像機建立節(jié)點作為跟蹤樹的根節(jié)點;然后根據(jù)拓撲關(guān)系矩陣得到與該攝像機相連的所有攝像機,并向這些攝像機發(fā)布跟蹤任務(wù),同時針對這些攝像機為根節(jié)點分別建立子節(jié)點;所述節(jié)點的結(jié)構(gòu)為節(jié)點={父節(jié)點,子節(jié)點,攝像機號,對應(yīng)跟蹤任務(wù),行人目標對象};其中行人目標對象包括行人目標的外觀特征以及該行人目標與選定跟蹤目標之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時間,出入口號,對應(yīng)節(jié)點};5)當行人目標進入某個攝像機的視域范圍,則在該攝像機的跟蹤任務(wù)列表中尋找與之匹配的跟蹤任務(wù);若存在匹配的跟蹤任務(wù),則根據(jù)該行人目標的前景圖像,使用混合高斯模型提取該行人目標的顏色直方圖特征和UV色度特征;計算該行人目標與選定跟蹤目標之間的相似度,再利用貝葉斯模型估計全局相似度,將此全局相似度與該攝像機對應(yīng)節(jié)點中保存行人目標對象的全局相似度進行比較,保留較大者對應(yīng)的行人目標對象作為局部最佳匹配目標,再根據(jù)全局相似度在該攝像機所對應(yīng)的當前層節(jié)點中尋找全局最佳匹配節(jié)點;對于失去全局最佳匹配節(jié)點身份的節(jié)點,刪除其子節(jié)點;6)當與全局最佳匹配節(jié)點對應(yīng)的行人目標走出某個攝像機的視域范圍,則根據(jù)拓撲關(guān)系矩陣得到所有與該攝像機相連的攝像機,并向這些攝像機發(fā)布跟蹤任務(wù),同時針對這些攝像機為當前節(jié)點分別建立子節(jié)點;7)當某個跟蹤任務(wù)的監(jiān)控時間失效,在該跟蹤任務(wù)對應(yīng)節(jié)點的所有兄弟節(jié)點中尋找全局最佳匹配節(jié)點,若該跟蹤任務(wù)對應(yīng)節(jié)點不是全局最佳匹配節(jié)點,則刪除該跟蹤任務(wù)對應(yīng)節(jié)點及其子節(jié)點;8)若所有節(jié)點的跟蹤任務(wù)時間均失效,則完成無重疊視域多攝像機的目標跟蹤。全文摘要本發(fā)明涉及一種無重疊視域多攝像機人體目標跟蹤方法,具體是一種在多攝像機之間拓撲關(guān)系已知的情況下,在無重疊視域的多攝像機視頻中進行目標匹配與跟蹤的方法,首先建立多攝像機之間的拓撲關(guān)系矩陣,然后提取行人目標的前景圖像,接著通過人機交互界面在某個攝像機的視域范圍選定跟蹤目標,并使用混合高斯模型提取該目標的外觀特征,包括顏色直方圖特征和UV色度特征,在整個跟蹤過程中,采用樹的結(jié)構(gòu)對跟蹤任務(wù)進行管理,并采用貝葉斯模型估計全局相似度,根據(jù)全局相似度尋找最佳匹配目標。本發(fā)明具有精確度高、算法簡單、易于實現(xiàn)、實時性強等優(yōu)點,可以為多攝像機目標識別與跟蹤提供一種新的實時可靠的方法。文檔編號H04N7/18GK101616309SQ20091005492公開日2009年12月30日申請日期2009年7月16日優(yōu)先權(quán)日2009年7月16日發(fā)明者劉允才,呂曉威,雄李,菲翁申請人:上海交通大學