欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于MeanShift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法

文檔序號(hào):6611818閱讀:179來(lái)源:國(guó)知局
專利名稱:基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法
技術(shù)領(lǐng)域
本發(fā)明涉及的是基于視頻圖像技術(shù)領(lǐng)域的自適應(yīng)人體關(guān)節(jié)目標(biāo)跟蹤的方法。
背景技術(shù)
人體多關(guān)節(jié)特征跟蹤是當(dāng)前計(jì)算機(jī)視覺(jué)研究領(lǐng)域中最具有挑戰(zhàn)性的研究方向,在當(dāng)前一些重要的應(yīng)用領(lǐng)域如醫(yī)療診斷、體育運(yùn)動(dòng)分析和智能監(jiān)控等方面都有著廣泛的需求。針對(duì)跟蹤對(duì)象和應(yīng)用場(chǎng)景的不同,國(guó)內(nèi)外學(xué)者提出了不同的跟蹤算法。均值偏移(Mean Shift,MS)算法是利用顏色分布對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)與跟蹤的常用方法,它采用密度梯度爬升來(lái)找到概率分布峰值的非參數(shù)方法。
傳統(tǒng)的均值偏移算法當(dāng)視頻場(chǎng)景中目標(biāo)的運(yùn)動(dòng)速度較快、目標(biāo)區(qū)域在相鄰兩幀間出現(xiàn)重疊區(qū)域的情況時(shí),搜索到的目標(biāo)往往收斂于背景與目標(biāo)顏色分布比較相似的物體,而不是視頻場(chǎng)景中真正的運(yùn)動(dòng)目標(biāo)(Nguyen,H.T.,Wowing,M,andBoomgaard R.v.d..Occlusion Robust Adaptive Template Tracking.Proceedings of theIEEE International Conference on Computer Vision,2001,v.1,678~683P),從而出現(xiàn)了跟蹤不準(zhǔn)確的現(xiàn)象。
除此之外,該算法收斂速度不快。對(duì)此,在2005年Duke大學(xué)的Mark Fashing和Carlo Tomasi證明了在采用均布核的情況下,均值偏移步長(zhǎng)就是牛頓法步長(zhǎng),并認(rèn)為均值偏移方法是一種邊界優(yōu)化方法(Mark Fashing,Carlo Tomasi.MeanShift Is a Bound Optimization,IEEE Transactions on Pattern Analysis and MachineIntelligence,2005,27(3)471~474P)。如果要對(duì)其進(jìn)行改進(jìn),則需要收縮邊界,其難度在于找到合適的邊界將耗費(fèi)較多的計(jì)算資源,但他們并未給出具體的加快均值偏移收斂速度的方法和途徑。人工魚(yú)群智能優(yōu)化算法(李曉磊,邵之江等.一種基于動(dòng)物自治體的尋優(yōu)模式魚(yú)群算法[J].系統(tǒng)工程理論與實(shí)踐,2002,22(11)32-38)被應(yīng)用于魯棒PID控制器參數(shù)的優(yōu)化中,得到了令人滿意的結(jié)果。但到目前為止,還沒(méi)有人將該算法應(yīng)用于人體運(yùn)動(dòng)跟蹤。

發(fā)明內(nèi)容
本發(fā)明的目的在于提供一種可有效地解決目標(biāo)運(yùn)動(dòng)速度和幅度均較大和/或目標(biāo)區(qū)域在相鄰兩幀間出現(xiàn)重疊區(qū)域的運(yùn)動(dòng)目標(biāo)的跟蹤問(wèn)題,并且具有更快的收斂速度的基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法。
本發(fā)明的目的是這樣實(shí)現(xiàn)的 首先基于目標(biāo)模型的顏色分布特征,根據(jù)前一幀圖像的信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,然后根據(jù)目標(biāo)模型的顏色分布特征運(yùn)用Mean Shift迭代算法在其優(yōu)化位置的領(lǐng)域內(nèi)進(jìn)行目標(biāo)搜索,其中與目標(biāo)模型顏色分布最相似的候選目標(biāo)即為被跟蹤目標(biāo)。
本發(fā)明的方法步驟為 1、選取核函數(shù)K(x) 選取Epanechnikov核作為核函數(shù)K(x); 2、目標(biāo)顏色分布模型 采用顏色直方圖作為人體多關(guān)節(jié)特征目標(biāo)的顏色分布模型; 3、人工魚(yú)群智能優(yōu)化算法 根據(jù)前一幀視頻圖像的數(shù)據(jù)集信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置; 4、食物濃度 根據(jù)人體多關(guān)節(jié)特征目標(biāo)作為人工魚(yú)個(gè)體模型的特殊性,所采用的食物濃度評(píng)價(jià)函數(shù)為 式中,Xi,

分別表示魚(yú)群中第i條人工魚(yú)當(dāng)前所處位置和魚(yú)群中所有人工魚(yú)當(dāng)前所處位置的均值,N表示魚(yú)群的大?。? (1)覓食行為人工魚(yú)當(dāng)前狀態(tài)Xi在其感知范圍(di,j=‖Xi-Dj‖≤Visual)內(nèi)隨機(jī)選擇一個(gè)目標(biāo)狀態(tài)Xj,如果該狀態(tài)的食物濃度Yj優(yōu)于當(dāng)前狀態(tài)Xi的食物濃度Yi,則按Xinextm=Xim+Random(AF_Step)(Xjm-Xim)/di,j Yi<Yj,向該狀態(tài)Xj方向前進(jìn)一步;反之,Xi在其感知范圍內(nèi)重新隨機(jī)選擇狀態(tài)Xj,判斷是否滿足前進(jìn)條件;反復(fù)嘗試try_number次后,如仍不滿足前進(jìn)條件的話,則按Xinextm=Xim+Random(AF_Step)Yi≥Yj,隨機(jī)移動(dòng)一步;其中,m=1,2;Xjm、Xim和Xinextm分別表示狀態(tài)向量Xj,Yi以及人工魚(yú)下一步狀態(tài)向量Xinextm的m個(gè)分量。Random(AF_Step)表示
間的隨機(jī)數(shù); (2)聚群行為人工魚(yú)對(duì)當(dāng)前狀態(tài)Xi搜索其感知范圍di,j內(nèi)的伙伴數(shù)目nf,如果(nf/N)<δ,這表明伙伴中心有較多的食物且不太擁擠,則按下式計(jì)算伙伴中心位置Xc 式中,Xcm表示中心位置狀態(tài)向量Xc的第m個(gè)元素;Xjm表示第j(j=1,2,...,nf)個(gè)伙伴的第m個(gè)分量;計(jì)算該中心位置的食物濃度Yc,如果Yi<Yc,則表明伙伴中心位置安全度較高并且不太擁擠,按下式向伙伴的中心位置方向前進(jìn)一步;否則執(zhí)行覓食行為 Xinextm=Xim+Random(AF_Step)(Xcm-Xim)/di,c; (3)追尾行為探索人工魚(yú)當(dāng)前狀態(tài)Xi的感知范圍內(nèi)狀態(tài)最優(yōu)的鄰居X(jué)max,如果Yi<Ymax,并且Xamx領(lǐng)域內(nèi)伙伴的數(shù)目nf,滿足(nf/N)<δ,這表明Xmax的附近有較多的食物且不太擁擠,則按下式向Xmax的位置方向前進(jìn)一步;否則執(zhí)行覓食行為 Xinextm=Xim+Random(AF_Step)(Xmaxm-Xim)/di,max 式中,Xmaxm表示狀態(tài)向量Xmax的第m個(gè)分量; (4)每條人工魚(yú)個(gè)體在尋優(yōu)過(guò)程中,每次行動(dòng)完畢都要檢驗(yàn)自身狀態(tài)與公告板的狀態(tài),如果自身狀態(tài)優(yōu)于公告板狀態(tài),就將公告板的狀態(tài)替換為自身狀態(tài),這樣的話,公告板就記錄下歷史最優(yōu)的狀態(tài),即人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的最優(yōu)值; 5、候選目標(biāo)顏色分布模型 人體多關(guān)節(jié)特征的候選目標(biāo)采用與目標(biāo)模型一樣的Epanechnikov核函數(shù)K(x)為候選跟蹤目標(biāo)區(qū)域的像素分配權(quán)值,并用表示中心點(diǎn)在y處的候選目標(biāo)區(qū)域的顏色分布,則 其中,參數(shù)是描述跟蹤目標(biāo)區(qū)域的大小;規(guī)范化常數(shù)
6、Bhattacharyya距離 引入Bhattacharyya距離d來(lái)度量?jī)烧咧g的相似度, 其中,Xd是采用人工魚(yú)群算法得到被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,ρ是人體多關(guān)節(jié)特征目標(biāo)模型的顏色直方圖

和候選目標(biāo)的顏色直方圖

之間的Bhattacharyya系數(shù), 這樣,Bhattacharyya系數(shù)越大,距離就越小,目標(biāo)和候選目標(biāo)也就越相似; 7、Mean Shift跟蹤 利用顏色直方圖作為人體多關(guān)節(jié)目標(biāo)特征,通過(guò)Mean Shift迭代運(yùn)算,對(duì)經(jīng)過(guò)人工魚(yú)群智能優(yōu)化而得到當(dāng)前幀的最優(yōu)位置Xd區(qū)域進(jìn)行搜索與目標(biāo)模型顏色直方圖最相似的候選目標(biāo),最相似的候選目標(biāo)即為被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的位置。
所述的人工魚(yú)群智能優(yōu)化算法的具體實(shí)施步驟如下 步驟l初始化魚(yú)群,采用初始化時(shí)設(shè)定的人工魚(yú)當(dāng)前狀態(tài)、個(gè)體極值、魚(yú)群最優(yōu)位置和相關(guān)魚(yú)群參數(shù); 步驟2利用式計(jì)算人工魚(yú)當(dāng)前狀態(tài)的食物濃度; 步驟3首先對(duì)魚(yú)群中每條人工魚(yú)分別計(jì)算覓食行為、聚群行為和追尾行為等三種行為的個(gè)體極值; 步驟4對(duì)每條人工魚(yú)三種行為的個(gè)體極值進(jìn)行比較,并執(zhí)行相應(yīng)的最優(yōu)極值的行為; 步驟5如果連續(xù)五次魚(yú)群最優(yōu)位置沒(méi)有進(jìn)行更新,則停止迭代計(jì)算;否則繼續(xù)選擇新的行為并轉(zhuǎn)向步驟3。
針對(duì)人體多關(guān)節(jié)特征目標(biāo)運(yùn)動(dòng)速度較快和/或多關(guān)節(jié)特征目標(biāo)在相鄰兩幀間出現(xiàn)重疊區(qū)域的跟蹤問(wèn)題,本發(fā)明提出了基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法。在該發(fā)明中,對(duì)傳統(tǒng)Mean Shift進(jìn)行了改進(jìn),引入人工魚(yú)群智能優(yōu)化候選目標(biāo)區(qū)域,從而避免了僅采用傳統(tǒng)Mean Shift易陷入局部極值的缺點(diǎn),實(shí)現(xiàn)了對(duì)人體多關(guān)節(jié)特征目標(biāo)在運(yùn)動(dòng)速度較快和/或多關(guān)節(jié)特征目標(biāo)在相鄰兩幀間出現(xiàn)重疊區(qū)域的較好跟蹤,提高了跟蹤人體多關(guān)節(jié)特征目標(biāo)的準(zhǔn)確性;并且由于采用人工魚(yú)群智能優(yōu)化候選目標(biāo)區(qū)域,減少了Mean Shift算法進(jìn)行跟蹤計(jì)算時(shí)的迭代次數(shù),因而相應(yīng)地也減少了大約10%~15%的計(jì)算時(shí)間。


圖1為Mean Shift示意圖; 圖2為基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法的總體框圖。
具體實(shí)施例方式 下面結(jié)合附圖舉例對(duì)本發(fā)明做更詳細(xì)地描述 本發(fā)明是通過(guò)以下技術(shù)方案來(lái)實(shí)現(xiàn)的本發(fā)明首先基于目標(biāo)模型的顏色分布特征,根據(jù)前一幀圖像的信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,然后根據(jù)目標(biāo)模型的顏色分布特征運(yùn)用MeanShift迭代算法在其優(yōu)化位置的領(lǐng)域內(nèi)進(jìn)行目標(biāo)搜索,其中與目標(biāo)模型顏色分布最相似的候選目標(biāo)即為被跟蹤目標(biāo)。
以下對(duì)本發(fā)明方法做進(jìn)一步的說(shuō)明,具體內(nèi)容如下 1、選取Epanechnikov核作為核函數(shù)K(x) 不同的核函數(shù)將會(huì)導(dǎo)致Mean Shift算法具有不同的收斂速度。因而,核函數(shù)的選取對(duì)Mean Shift算法是很重要的。本發(fā)明中選取Epanechnikov核作為核函數(shù)K(x),可使均值偏移變?yōu)榫哂卸A收斂速度的牛頓方法。因此,從理論角度和實(shí)際跟蹤結(jié)果均可獲得比均布核更快的收斂速度。
2、目標(biāo)顏色分布模型 本發(fā)明采用顏色直方圖作為人體多關(guān)節(jié)特征目標(biāo)的顏色分布模型。設(shè)顏色空間被離散化成m個(gè)子區(qū)域,統(tǒng)計(jì)視頻圖像中每個(gè)像素的顏色向量落在相應(yīng)子區(qū)域中的頻數(shù),從而得到由m個(gè)條柱組成的顏色直方圖。由獲得跟蹤目標(biāo)模型的直方圖,其中

是跟蹤目標(biāo)模型的第u個(gè)直方圖。因而,在本發(fā)明中,基于核函數(shù)K(x)的目標(biāo)模型

可由下式確定 其中,b(xi*)表示點(diǎn)xi*的顏色分配給顏色直方圖中的相應(yīng)條柱;R1是在跟蹤目標(biāo)區(qū)域內(nèi)的歸一化坐標(biāo);δ是狄拉克函數(shù);C是規(guī)范化常數(shù),即使得點(diǎn)相對(duì)于矩形區(qū)域中心點(diǎn)的歸一化坐標(biāo)的計(jì)算為 3、人工魚(yú)群智能優(yōu)化算法 人工魚(yú)群智能優(yōu)化算法(Artiricial Fish School Optimization,AFSO)是一種基于模擬魚(yú)群行為的智能優(yōu)化算法,它采用了自下而上的設(shè)計(jì)方法,對(duì)尋優(yōu)空間的形式和性質(zhì)并沒(méi)有特殊要求。本發(fā)明將人體多關(guān)節(jié)特征目標(biāo)的位置構(gòu)造為人工魚(yú)的個(gè)體模型,然后人工魚(yú)個(gè)體在尋優(yōu)的過(guò)程中自適應(yīng)地選擇合適的行為,最終的人體多關(guān)節(jié)特征目標(biāo)的全局最優(yōu)結(jié)果通過(guò)魚(yú)群中每個(gè)個(gè)體的局部尋優(yōu)而得到。因而,本發(fā)明根據(jù)前一幀視頻圖像的數(shù)據(jù)集信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置。
4、食物濃度 食物濃度是衡量人工魚(yú)當(dāng)前所處位置優(yōu)劣的標(biāo)志,其作用類似于粒子群優(yōu)化算法中的適應(yīng)度。在本發(fā)明中,食物濃度是衡量人體多關(guān)節(jié)特征目標(biāo)當(dāng)前所處位置優(yōu)劣的標(biāo)志。本發(fā)明根據(jù)人體多關(guān)節(jié)特征目標(biāo)作為人工魚(yú)個(gè)體模型的特殊性,所采用的食物濃度評(píng)價(jià)函數(shù)為 式中,Xi,

分別表示魚(yú)群中第i條人工魚(yú)當(dāng)前所處位置和魚(yú)群中所有人工魚(yú)當(dāng)前所處位置的均值,N表示魚(yú)群的大小。
(1)覓食行為在本發(fā)明中的覓食行為就是人體多關(guān)節(jié)特征目標(biāo)根據(jù)食物濃度像魚(yú)那樣循著食物多的方向進(jìn)行游動(dòng)的一種行為。人工魚(yú)當(dāng)前狀態(tài)Xi在其感知范圍(di,j=‖Xi-Xj‖≤Visual)內(nèi)隨機(jī)選擇一個(gè)目標(biāo)狀態(tài)Xj,如果該狀態(tài)的食物濃度Yj優(yōu)于當(dāng)前狀態(tài)Xi的食物濃度Yi,則按Xinextm=Xim+Random(AF_Step)(Xjm-Xim)/di,j Yi<Yj,向該狀態(tài)Xj方向前進(jìn)一步;反之,Xi在其感知范圍內(nèi)重新隨機(jī)選擇狀態(tài)Xj,判斷是否滿足前進(jìn)條件。反復(fù)嘗試try_number次后,如仍不滿足前進(jìn)條件的話,則按Xinextm=Xim+Random(AF_Step)Yi≥Yj,隨機(jī)移動(dòng)一步。其中,m=1,2;Xjm、Xim和Xinextm分別表示狀態(tài)向量Xj,Xi以及人工魚(yú)下一步狀態(tài)向量Xinextm的m個(gè)分量。Random(AF_Step)表示
間的隨機(jī)數(shù)。以下各式中的符號(hào)含義與此相同。
(2)聚群行為在本發(fā)明中的聚群行為指的是依據(jù)人體多關(guān)節(jié)特征目標(biāo)所形成的多條人工魚(yú)個(gè)體,在游動(dòng)過(guò)程中盡量向周圍臨近伙伴們的中心移動(dòng),以避免過(guò)分擁擠。人工魚(yú)對(duì)當(dāng)前狀態(tài)Xi搜索其感知范圍di,j內(nèi)的伙伴數(shù)目nf,如果(nf/N)<δ,這表明伙伴中心有較多的食物且不太擁擠,則按下式計(jì)算伙伴中心位置Xc。
式中,Xcm表示中心位置狀態(tài)向量Xc的第m個(gè)元素;Xjm表示第j(j=1,2,...,nf)個(gè)伙伴的第m個(gè)分量。計(jì)算該中心位置的食物濃度Yc,如果Yi<Yc,則表明伙伴中心位置安全度較高并且不太擁擠,按下式向伙伴的中心位置方向前進(jìn)一步;否則執(zhí)行覓食行為。
Xinextm=Xim+Random(AF_Step)(Xcm-Xim)/di,c (3)追尾行為在本發(fā)明中的追尾行為指的是依據(jù)人體多關(guān)節(jié)特征目標(biāo)而形成的多條人工魚(yú)個(gè)體向臨近的最活躍者追逐的行為。探索人工魚(yú)當(dāng)前狀態(tài)Xi的感知范圍內(nèi)狀態(tài)最優(yōu)的鄰居X(jué)max,如果Yi<Ymax,并且Xmax領(lǐng)域內(nèi)伙伴的數(shù)目nf,滿足(nf/N)<δ,這表明Xmax的附近有較多的食物且不太擁擠,則按下式向Xmax的位置方向前進(jìn)一步;否則執(zhí)行覓食行為。
Xinextm=Xim+Random(AF_Step)(Xmaxm-Xim)/di,max 式中,Xmaxm表示狀態(tài)向量Xmax的第m個(gè)分量。
(4)公告板是用來(lái)記錄最優(yōu)人工魚(yú)個(gè)體的狀態(tài)。每條人工魚(yú)個(gè)體在尋優(yōu)過(guò)程中,每次行動(dòng)完畢都要檢驗(yàn)自身狀態(tài)與公告板的狀態(tài),如果自身狀態(tài)優(yōu)于公告板狀態(tài),就將公告板的狀態(tài)替換為自身狀態(tài),這樣的話,公告板就記錄下歷史最優(yōu)的狀態(tài),即人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的最優(yōu)值。
通過(guò)對(duì)人工魚(yú)的行為描述我們可以看出,每條人工魚(yú)探索它當(dāng)前所處的環(huán)境狀況,從而選擇一個(gè)合適的行為,使得向最優(yōu)方向前進(jìn)最快。最終,人工魚(yú)集結(jié)在幾個(gè)局部極值的周圍,且值較優(yōu)的極值區(qū)域周圍一般能集結(jié)較多條人工魚(yú)。
人工魚(yú)群智能優(yōu)化算法的具體實(shí)施步驟如下。
步驟1初始化魚(yú)群。采用本發(fā)明初始化時(shí)設(shè)定的人工魚(yú)當(dāng)前狀態(tài)、個(gè)體極值、魚(yú)群最優(yōu)位置和相關(guān)魚(yú)群參數(shù); 步驟2利用式計(jì)算人工魚(yú)當(dāng)前狀態(tài)的食物濃度; 步驟3首先對(duì)魚(yú)群中每條人工魚(yú)分別計(jì)算覓食行為、聚群行為和追尾行為等三種行為的個(gè)體極值; 步驟4對(duì)每條人工魚(yú)三種行為的個(gè)體極值進(jìn)行比較,并執(zhí)行相應(yīng)的最優(yōu)極值的行為; 步驟5如果連續(xù)五次魚(yú)群最優(yōu)位置沒(méi)有進(jìn)行更新;則停止迭代計(jì)算;否則繼續(xù)選擇新的行為并轉(zhuǎn)向步驟3。
5、候選目標(biāo)顏色分布模型 在本發(fā)明中人體多關(guān)節(jié)特征的候選目標(biāo)采用與目標(biāo)模型一樣的Epanechnikov核函數(shù)K(x)為候選跟蹤目標(biāo)區(qū)域的像素分配權(quán)值,并用表示中心點(diǎn)在y處的候選目標(biāo)區(qū)域的顏色分布,則 其中,參數(shù)是描述跟蹤目標(biāo)區(qū)域的大??;規(guī)范化常數(shù)滿足 6、Bhattacharyya距離 為了比較相鄰幀人體多關(guān)節(jié)特征目標(biāo)顏色分布的相似程度,本發(fā)明引入Bhattacharyya距離d來(lái)度量?jī)烧咧g的相似度。
其中,Xd是采用人工魚(yú)群算法得到被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,ρ是人體多關(guān)節(jié)特征目標(biāo)模型的顏色直方圖

和候選目標(biāo)的顏色直方圖

之間的Bhattacharyya系數(shù)。
這樣,Bhattacharyya系數(shù)越大,距離就越小,目標(biāo)和候選目標(biāo)也就越相似。
7、Mean Shift跟蹤 本發(fā)明利用顏色直方圖作為人體多關(guān)節(jié)目標(biāo)特征,通過(guò)Mean Shift迭代運(yùn)算,對(duì)經(jīng)過(guò)人工魚(yú)群智能優(yōu)化而得到當(dāng)前幀的最優(yōu)位置Xd區(qū)域進(jìn)行搜索與目標(biāo)模型顏色直方圖最相似的候選目標(biāo)。最相似的候選目標(biāo)即為被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的位置。
權(quán)利要求
1.一種基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法,其特征是首先基于目標(biāo)模型的顏色分布特征,根據(jù)前一幀圖像的信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,然后根據(jù)目標(biāo)模型的顏色分布特征運(yùn)用Mean Shift迭代算法在其優(yōu)化位置的領(lǐng)域內(nèi)進(jìn)行候選目標(biāo)搜索,其中與目標(biāo)模型顏色分布最相似的候選目標(biāo)即為被跟蹤目標(biāo)。
2.根據(jù)權(quán)利要求1所述的基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法,其特征是
選取核函數(shù)K(x)
選取Epanechnikov核作為核函數(shù)K(x);
目標(biāo)顏色分布模型
采用顏色直方圖作為人體多關(guān)節(jié)特征目標(biāo)的顏色分布模型;
人工魚(yú)群智能優(yōu)化算法
根據(jù)前一幀視頻圖像的數(shù)據(jù)集信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置;
食物濃度
根據(jù)人體多關(guān)節(jié)特征目標(biāo)作為人工魚(yú)個(gè)體模型的特殊性,所采用的食物濃度評(píng)價(jià)函數(shù)為
式中,Xi,
分別表示魚(yú)群中第i條人工魚(yú)當(dāng)前所處位置和魚(yú)群中所有人工魚(yú)當(dāng)前所處位置的均值,N表示魚(yú)群的大??;
(1)覓食行為人工魚(yú)當(dāng)前狀態(tài)Xi在其感知范圍(di,j=‖Xi-Xj‖≤Visual)內(nèi)隨機(jī)選擇一個(gè)目標(biāo)狀態(tài)Xj,如果該狀態(tài)的食物濃度Yj優(yōu)于當(dāng)前狀態(tài)Xi的食物濃度Yi,則按Xinextm=Xim+Random(AF_Step)(Xjm-Xim)/di,j Yi<Yj,向該狀態(tài)Xj方向前進(jìn)一步;反之,Xi在其感知范圍內(nèi)重新隨機(jī)選擇狀態(tài)Xj,判斷是否滿足前進(jìn)條件;反復(fù)嘗試try_number次后,如仍不滿足前進(jìn)條件的話,則按Xinextm=Xim+Random(AF_Step)Yi≥Yj,隨機(jī)移動(dòng)一步;其中,m=1,2;Xjm、Xim和Xinextm分別表示狀態(tài)向量Xj,Xi以及人工魚(yú)下一步狀態(tài)向量Xinextm的m個(gè)分量。Random(AF_Step)表示
間的隨機(jī)數(shù);
(2)聚群行為人工魚(yú)對(duì)當(dāng)前狀態(tài)Xi搜索其感知范圍di,j內(nèi)的伙伴數(shù)目nf,如果(nf/N)<δ,這表明伙伴中心有較多的食物且不太擁擠,則按下式計(jì)算伙伴中心位置Xc
式中,Xcm表示中心位置狀態(tài)向量Xc的第m個(gè)元素;Xjm表示第j(j=1,2,...,nf)個(gè)伙伴的第m個(gè)分量;計(jì)算該中心位置的食物濃度Yc,如果Yi<Yc,則表明伙伴中心位置安全度較高并且不太擁擠,按下式向伙伴的中心位置方向前進(jìn)一步;否則執(zhí)行覓食行為
Xinextm=Xim+Random(AF_Step)(Xcm-Xim)/di,c;
(3)追尾行為探索人工魚(yú)當(dāng)前狀態(tài)Xi的感知范圍內(nèi)狀態(tài)最優(yōu)的鄰居X(jué)max,如果Yi<Ymax,并且Xmax領(lǐng)域內(nèi)伙伴的數(shù)目nf,滿足(nf/N)<δ,這表明Xmax的附近有較多的食物且不太擁擠,則按下式向Xmax的位置方向前進(jìn)一步;否則執(zhí)行覓食行為
Xinextm=Xim+Random(AF_Step)(Xmaxm-Xim)/di,max
式中,Xmaxm表示狀態(tài)向量Xmax的第m個(gè)分量;
(4)每條人工魚(yú)個(gè)體在尋優(yōu)過(guò)程中,每次行動(dòng)完畢都要檢驗(yàn)自身狀態(tài)與公告板的狀態(tài),如果自身狀態(tài)優(yōu)于公告板狀態(tài),就將公告板的狀態(tài)替換為自身狀態(tài),這樣的話,公告板就記錄下歷史最優(yōu)的狀態(tài),即人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的最優(yōu)值;
候選目標(biāo)顏色分布模型
人體多關(guān)節(jié)特征的候選目標(biāo)采用與目標(biāo)模型一樣的Epanechnikov核函數(shù)K(x)為候選跟蹤目標(biāo)區(qū)域的像素分配權(quán)值,并用表示中心點(diǎn)在y處的候選目標(biāo)區(qū)域的顏色分布,則
其中,參數(shù)是描述跟蹤目標(biāo)區(qū)域的大??;規(guī)范化常數(shù)
Bhattacharyya距離
引入Bhattacharyya距離d來(lái)度量?jī)烧咧g的相似度,
其中,Xd是采用人工魚(yú)群算法得到被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,ρ是人體多關(guān)節(jié)特征目標(biāo)模型的顏色直方圖
和候選目標(biāo)的顏色直方圖
之間的Bhattacharyya系數(shù),
這樣,Bhattacharyya系數(shù)越大,距離就越小,目標(biāo)和候選目標(biāo)也就越相似;
Mean Shift跟蹤
利用顏色直方圖作為人體多關(guān)節(jié)目標(biāo)特征,通過(guò)Mean Shift迭代運(yùn)算,對(duì)經(jīng)過(guò)人工魚(yú)群智能優(yōu)化而得到當(dāng)前幀的最優(yōu)位置Xd區(qū)域進(jìn)行搜索與目標(biāo)模型顏色直方圖最相似的候選目標(biāo),最相似的候選目標(biāo)即為被跟蹤的人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的位置。
3.根據(jù)權(quán)利要求2所述的基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法,其跟蹤特征是目標(biāo)顏色分布模型,所述采用的對(duì)當(dāng)前幀目標(biāo)的優(yōu)化位置的人工魚(yú)群智能優(yōu)化算法的具體實(shí)施步驟如下
步驟1初始化魚(yú)群,采用初始化時(shí)設(shè)定的人工魚(yú)當(dāng)前狀態(tài)、個(gè)體極值、魚(yú)群最優(yōu)位置和相關(guān)魚(yú)群參數(shù);
步驟2利用式計(jì)算人工魚(yú)當(dāng)前狀態(tài)的食物濃度;
步驟3首先對(duì)魚(yú)群中每條人工魚(yú)分別計(jì)算覓食行為、聚群行為和追尾行為等三種行為的個(gè)體極值;
步驟4對(duì)每條人工魚(yú)三種行為的個(gè)體極值進(jìn)行比較,并執(zhí)行相應(yīng)的最優(yōu)極值的行為;
步驟5如果連續(xù)五次魚(yú)群最優(yōu)位置沒(méi)有進(jìn)行更新,則停止迭代計(jì)算;否則繼續(xù)選擇新的行為并轉(zhuǎn)向步驟3。
全文摘要
本發(fā)明提供的是一種基于Mean Shift和人工魚(yú)群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法。首先基于目標(biāo)模型的顏色分布特征,根據(jù)前一幀圖像的信息利用人工魚(yú)群智能優(yōu)化算法得到被跟蹤人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,然后根據(jù)目標(biāo)模型的顏色分布特征運(yùn)用Mean Shift迭代算法在其優(yōu)化位置的領(lǐng)域內(nèi)進(jìn)行目標(biāo)搜索,其中與目標(biāo)模型顏色分布最相似的候選目標(biāo)即為被跟蹤目標(biāo)。本發(fā)明對(duì)傳統(tǒng)Mean Shift進(jìn)行了改進(jìn),引入人工魚(yú)群智能優(yōu)化候選目標(biāo)區(qū)域,實(shí)現(xiàn)了對(duì)人體多關(guān)節(jié)特征目標(biāo)的準(zhǔn)確跟蹤。
文檔編號(hào)G06T7/00GK101162525SQ20071014469
公開(kāi)日2008年4月16日 申請(qǐng)日期2007年11月29日 優(yōu)先權(quán)日2007年11月29日
發(fā)明者金 李, 虹 于, 望 叢, 洪 梁, 廣 唐, 郭卓維, 徐俊紅, 周璐璐 申請(qǐng)人:哈爾濱工程大學(xué)
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
图木舒克市| 乌鲁木齐县| 通化市| 临漳县| 桦川县| 闽清县| 紫金县| 辽宁省| 施甸县| 忻州市| 郎溪县| 天津市| 进贤县| 石棉县| 玉树县| 巫山县| 蒙山县| 荣昌县| 文化| 宿松县| 海阳市| 都兰县| 齐齐哈尔市| 信阳市| 龙门县| 宁国市| 安阳市| 连南| 祁门县| 津市市| 化州市| 娱乐| 吐鲁番市| 花垣县| 漠河县| 广饶县| 军事| 陇川县| 东光县| 岳普湖县| 荔波县|