欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種面部特征點跟蹤方法及系統(tǒng)與流程

文檔序號:11708065閱讀:260來源:國知局
一種面部特征點跟蹤方法及系統(tǒng)與流程

本發(fā)明涉及圖像處理技術領域,更具體地說,涉及一種面部特征點跟蹤方法及系統(tǒng)。



背景技術:

隨著計算機視覺領域的技術的發(fā)展,針對面部特征點定位的技術日趨完善,然而現(xiàn)有的優(yōu)秀的特征點定位算法多針對靜態(tài)圖片,在動態(tài)圖像如視頻文件中的應用較少。特征點指鼻尖、嘴角、眼角等特定的點。

現(xiàn)有技術中,動態(tài)圖像的特征點跟蹤技術主要采用重復計算跟蹤,即每一幀都對采集到的圖像面部檢測并定位特征點,這種方法的計算量大,較難做到實時跟蹤。

因此,如何減少面部特征點跟蹤技術的計算量,實現(xiàn)面部特征點的實時跟蹤成為了本領域技術人員亟需解決的問題。



技術實現(xiàn)要素:

有鑒于此,本發(fā)明的目的在于提供一種面部特征點跟蹤方法,通過前一時刻的第一特征點預測后一時刻的第二特征點,減少了面部特征點跟蹤技術的計算量,實現(xiàn)面部特征點的實時跟蹤。

為實現(xiàn)上述目的,本發(fā)明提供如下技術方案:

一種面部特征點跟蹤方法,所述方法包括以下步驟:

步驟a:初始化參數(shù);

步驟b:接收第一圖像;

步驟c:若所述第一圖像中包括面部圖像,基于所述面部圖像生成第一面部圖像;

步驟d:基于所述第一面部圖像生成第一特征點;

步驟e:基于所述第一特征點生成第一預測信息;

步驟f:接收第二圖像;

步驟g:基于所述第二圖像及所述第一預測信息生成第三圖像;

步驟h:若所述第三圖像包括與所述面部圖像相對應的第二面部圖像,基于所述第二面部圖像生成第二特征點,以所述第二特征點作為所述第一特征點并執(zhí)行步驟e。

優(yōu)選地,所述基于所述第一面部圖像信息生成第一特征點包括:

基于所述第一面部圖像信息生成第一圖像位置信息;

基于所述第一圖像位置信息生成第一特征點。

優(yōu)選地,所述方法還包括:

若所述第三圖像不包括所述第二面部圖像,基于所述第一預測信息生成第二圖像位置信息;

基于所述第二圖像位置信息生成第四圖像;

以所述第四圖像作為所述第一圖像,執(zhí)行步驟c。

優(yōu)選地,所述初始化參數(shù)包括:

重新生成計時信息。

優(yōu)選地,所述方法還包括:

若所述計時信息滿足所述預設計時條件,對所述第三圖像及第三面部圖像進行交除并操作生成交除并值,所述第三面部圖像為所述第三圖像對應時刻下一時刻的面部圖像;

若所述交除并值小于預設閾值,以所述第三面部圖像作為所述第三圖像,執(zhí)行步驟a。

一種面部特征點跟蹤系統(tǒng),所述系統(tǒng)包括初始化模塊、接收模塊、面部檢測模塊、第一生成模塊、第二生成模塊、第三生成模塊及第四生成模塊,其中:

所述初始化模塊用于初始化參數(shù);

所述接收模塊用于接收第一圖像;

所述面部檢測模塊用于檢測所述第一圖像包括的面部圖像;

所述第一生成模塊用于基于所述面部圖像生成第一面部圖像;

所述第二生成模塊用于基于所述第一面部圖像生成第一特征點;

所述第三生成模塊基于所述第一特征點及平均臉信息生成所述第一預測信息;

所述接收模塊還用于接收第二圖像;

所述第四生成模塊用于基于所述第二圖像及所述第一預測信息生成第三圖像;

所述面部檢測模塊還用于檢測所述第三圖像包括的與所述面部圖像相對應的第二面部圖像;

所述第二生成模塊還用于基于所述第二面部圖像生成所述第二特征點。

優(yōu)選地,所述第二生成模塊包括第一生成單元及第二生成單元,其中:

所述第一生成單元用于基于所述第一面部圖像信息生成第一圖像位置信息;

所述第二生成單元用于基于所述第一圖像位置信息生成第一特征點。

優(yōu)選地,所述系統(tǒng)還包括第五生成模塊及第六生成模塊,其中:

所述第五生成模塊用于基于所述第一預測信息生成第二圖像位置信息;

所述第六生成模塊用于基于所述第二圖像位置信息生成第四圖像。

優(yōu)選地,所述初始化模塊包括計時單元,其中:

所述計時單元用于重新生成計時信息。

優(yōu)選地,所述系統(tǒng)還包括計算模塊及比較模塊,其中:

所述計算模塊用于對所述第三圖像及第三面部圖像進行交除并操作生成交除并值,所述第三面部圖像為所述第三圖像對應時刻下一時刻的面部圖像;

所述比較模塊用于比較所述交除并值與所述預設閾值的大小。

從上述技術方案可以看出,本發(fā)明提供了一種面部特征點跟蹤方法,包括以下步驟:步驟a:初始化參數(shù);步驟b:接收第一圖像;步驟c:若第一圖像中包括面部圖像,基于所述第一圖像生成第一面部圖像;步驟d:基于第一面部圖像生成第一特征點;步驟e:基于第一特征點生成第一預測信息;步驟f:接收第二圖像;步驟g:基于第二圖像及第一預測信息生成第三圖像;步驟h:若第三圖像包括與面部圖像相對應的第二面部圖像,基于第二面部圖像生成第二特征點,以第二特征點作為第一特征點并執(zhí)行步驟e。通過前一時刻的第一特征點預測后一時刻的第二特征點,減少了面部特征點跟蹤技術的計算量,降低了計算難度,實現(xiàn)了面部特征點的實時跟蹤。

附圖說明

為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術中的技術方案,下面將對實施例或現(xiàn)有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領域普通技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其它的附圖。

圖1為本發(fā)明公開的一種面部特征點跟蹤方法的實施例1的流程圖;

圖2為本發(fā)明公開的一種面部特征點跟蹤方法的實施例2的流程圖;

圖3為本發(fā)明公開的一種面部特征點跟蹤方法的實施例3的流程圖;

圖4為本發(fā)明公開的一種面部特征點跟蹤方法的實施例4的流程圖;

圖5為本發(fā)明公開的一種面部特征點跟蹤系統(tǒng)的實施例1的結(jié)構(gòu)示意圖;

圖6為本發(fā)明公開的一種面部特征點跟蹤系統(tǒng)的實施例2的結(jié)構(gòu)示意圖;

圖7為本發(fā)明公開的一種面部特征點跟蹤系統(tǒng)的實施例3的結(jié)構(gòu)示意圖;

圖8為本發(fā)明公開的一種面部特征點跟蹤系統(tǒng)的實施例4的結(jié)構(gòu)示意圖。

具體實施方式

下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領域普通技術人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其它實施例,都屬于本發(fā)明保護的范圍。

如圖1所示,為本發(fā)明公開的一種面部特征點跟蹤方法實施例1的流程圖,本方法包括以下步驟:

s101、初始化參數(shù);

開啟面部特征點跟蹤功能后,初始化各項參數(shù),例如將暫存的圖像清空。

s102、接收第一圖像;

第一圖像為當前時刻圖像采集裝置拍攝并發(fā)送的圖像。

s103、若第一圖像中包括面部圖像,基于第一圖像生成第一面部圖像;

對第一圖像進行面部檢測,判斷第一圖像中是否存在面部圖像,此處可利用現(xiàn)有技術,例如可使用haar人臉檢測技術進行檢測?;诘谝粓D像中的面部圖像生成第一面部圖像,即第一圖像中的被檢測出的面部區(qū)域的圖像。生成的第一面部圖像的數(shù)量與第一圖像中被檢測出的面部圖像的數(shù)量相等。

s104、基于第一面部圖像生成第一特征點;

第一特征點為第一面部圖像上一些特定的點,如鼻尖、嘴角、眼角等特定的點??捎傻谝幻娌繄D像生成第一特征點,需要注意的是,第一特征點并不特指某一個點,第一特征點可以為一系列的點。

s105、基于第一特征點生成第一預測信息;

基于第一特征點可生成第一預測信息,第一預測信息為第一面部圖像在下一時刻時所處的位置。此位置可用坐標形式表示,此位置是相對于圖像采集裝置所采集的圖像而言的。當前時刻與下一時刻的間隔為固定值,可取值為一幀。

s106、接收第二圖像;

接收圖像采集裝置發(fā)送的第二圖像,第二圖像即為采集第一圖像的時刻的下一時刻所采集的圖像。需要指出的是,本發(fā)明中的第一圖像與第二圖像并不單指某一時刻的圖像,使用第一及第二對圖像進行區(qū)分只是為區(qū)分圖像采集的時刻的不同。本說明書中,使用第一時刻表示采集第一圖像的時刻,第二時刻表示采集第二圖像的時刻,同理,第一時刻及第二時刻也不特指某一時刻,只是用于表示其先后關系。

s107、基于第二圖像及第一預測信息生成第三圖像;

第一預測信息為第二時刻時與第一面部圖像相對應的面部圖像在第二圖像中的預測位置,可基于第一預測信息及第二圖像生成第三圖像,第三圖像為基于第一預測信息中的預測位置在第二圖像中獲取的與第一面部圖像形狀及大小相同的圖像。

s108、若第三圖像包括與面部圖像相對應的第二面部圖像,基于第二面部圖像生成第二特征點,以第二特征點作為第一特征點并執(zhí)行步驟s105。

若第三圖像中包括與第一面部圖像中的面部圖像相同的面部圖像,即第二面部圖像,則說明預測成功,基于第一時刻時面部圖像的位置成功預測了第二時刻時相對應的面部圖像的位置,實現(xiàn)了跟蹤功能。此時基于第二面部圖像生成第二特征點,此時第二面部圖像與步驟s104中的第一面部圖像的作用是相同的。生成第二特征點的方法與生成第一特征點的方法也相同。返回執(zhí)行步驟s105,繼續(xù)基于上一時刻的面部圖像的位置預測下一時刻的面部圖像的位置。

綜上所述,本發(fā)明提供了一種面部特征點跟蹤方法,包括以下步驟:初始化參數(shù),接收第一圖像,若第一圖像中包括面部圖像,基于第一圖像生成第一面部圖像,基于第一面部圖像生成第一特征點,基于第一特征點生成第一預測信息,接收第二圖像,基于第二圖像及第一預測信息生成第三圖像,若第三圖像包括與面部圖像相對應的第二面部圖像,基于第二面部圖像生成第二特征點,以第二特征點作為第一特征點并重復執(zhí)行上述步驟以實現(xiàn)特征點的跟蹤。通過前一時刻的第一特征點預測后一時刻的第二特征點,減少了面部特征點跟蹤技術的計算量,降低了計算難度,實現(xiàn)了面部特征點的實時跟蹤。

如圖2所示,為本發(fā)明在上述實施例的基礎上公開的實施例2的流程圖。在上述實施例中,基于第一面部圖像信息生成第一預測信息的具體實施方式可以包括以下步驟:

s201、基于第一面部圖像信息生成第一圖像位置信息;

第一面部圖像信息為包括面部圖像的面部框,基于此面部框在第一圖像中的位置,可生成第一圖像位置信息,第一圖像位置信息可采用兩種方式表示。一種是以(left,right,top,bottom)來表示,其中l(wèi)eft表示矩形框左邊界,也即左上角和最下角角點的x軸坐標,right表示右邊界,也即右上角和右下角角點的x軸坐標,top表示矩形框上邊界,也即左上角和左下角的y軸坐標,bottom表示矩形框的下邊界,也即左下角和右下角的y軸坐標。另一種表示法以(x,y,width,height)來表示,其中,x表示矩形框左上角角點的x軸坐標,y表示矩形框左上角角點的y軸坐標,width表示矩形框的寬度,height表示矩形框的高度。上述兩種表示法均能夠通過四個值唯一確定畫面中的一個矩形框的位置及大小。此處以第一種方法為例,即第一圖像位置信息采用(left,right,top),的b形ott式o表m示。

s202、基于第一圖像位置信息生成第一特征點;

第一特征點為第一面部圖像上一些特定的點,如鼻尖、嘴角、眼角等特定的點。可對第一圖像位置信息進行回歸計算,并生成第一特征點。在算法中,特征點表示為歸一化坐標,也即:

xnorm=(x-left)/(right-left)

ynorm=(y-top)/(bottom-top)

其中,xnorm、ynorm表示歸一化坐標系下的坐標值。歸一化表示后,將所有訓練樣本的特征點進行加權平均,平均后可以得到一個平均形狀,即實際平均臉。再利用檢測框的坐標,可以將平均臉的坐標由歸一化坐標系映射到真實坐標系下,具體映射關系為:

x=xnorm*(right-left)+left

y=y(tǒng)norm*(bottom-top)+top

需要注意的是第一特征點并不指一個特征點,而是一系列的特征點,其數(shù)量可根據(jù)面部特征點跟蹤的精度需求及硬件設備的性能進行調(diào)整。例如采用68個特征點,即第一特征點包括68個坐標(x,y)。

值得一提的是,采用此種方法求出第一特征點后,可采用以下方法求第一預測信息:

求c使得下式最小:

min|b-a×c|2

其中b為第一特征點。

其中a為平均臉信息,平均臉信息為一個預先設計好的標準模型。

求得c后,使用c對第一圖像位置信息進行相似變換,即可求出第一預測信息。第一預測信息以(left,right,top,bottom)的形式表示。

如圖3所示,為本發(fā)明在上述實施例的基礎上公開的實施例3的流程圖。在上述實施例中,若第三圖像不包括第二面部圖像,即第二時刻的預測的面部圖像區(qū)域中并無面部圖像,本實施例包括以下步驟:

s301、基于第一預測信息生成第二圖像位置信息;

若第三圖像不包括第二面部圖像,即第二時刻的預測的面部圖像區(qū)域中并無面部圖像,說明預測與實際不符,跟蹤失敗,此時基于以(left,right,top,bottom)的形式表示的第一預測信息生成第二圖像位置信息,第二圖像位置信息采用(leftresize,rightresize,topresize,bottomresize)的形式表示。人臉框的寬度和高度分別為:

w=right-left

h=bottom-top

縮放比例設置為factor,則新的四元組為:

leftresize=left-factor×w

rightresize=right+factor×w

topresize=top-factor×h

bottomresize=bottom+factor×h。

第二圖像位置信息是將第一預測信息所表示的區(qū)域進行放大的區(qū)域。雖然預測錯誤,但短時間內(nèi)面部圖像不會出現(xiàn)長距離的移動,因此將第一預測信息所代表的區(qū)域擴大,可使此區(qū)域包括面部圖像。

s302、基于第二圖像位置信息生成第四圖像;

基于第二圖像位置信息生成第四圖像,第四圖像即第二圖像位置信息在第二圖像中所代表的區(qū)域。

s303、以第四圖像作為第一圖像,執(zhí)行步驟s103。

第四圖像為第二時刻采集的圖像的一部分,且第四圖像中包括面部圖像,可再次進行面部特征點跟蹤,以第四圖像作為上述實施例中的第一圖像,由步驟s103開始執(zhí)行,可對下一時刻的面部圖像的位置進行預測。

如圖4所示,為本發(fā)明在上述實施例的基礎上公開的實施例4的流程圖。在上述實施例中,初始化參數(shù)可包括:

s401、重新生成計時信息;

當初始化參數(shù)時,計時器由零開始計時。

為進一步優(yōu)化上述方案,上述實施例還可包括:

s402、若計時信息滿足預設計時條件,對第三圖像及第三面部圖像進行交除并操作生成交除并值,第三面部圖像為第三圖像對應時刻下一時刻的面部圖像;

第三面部圖像為第三圖像對應時刻下一時刻圖像采集裝置采集的圖像通過面部檢測后得到的面部圖像。預設計時條件為計時信息中的時間為預設時間的倍數(shù),例如預設時間為20幀,則計時信息中的時間為20幀的倍數(shù)時,例如20幀、40幀或60幀,計時信息均滿足預設計時條件。此時,對第三圖像及第三面部圖像進行交除并操作生成交除并值。即將第三圖像與第三面部圖像的交集除以第三圖像與第三面部圖像的并集。交除并值表示了第三圖像與第三面部圖像的相似度。

s403、若交除并值小于預設閾值,以第三面部圖像作為第三圖像,執(zhí)行步驟s101;

若交除并值小于預設閾值,則說明第三圖像中的面部圖像與第三面部圖像中的面部圖像不屬于同一個人,此時可能是由于跟蹤的人物已走出圖像采集范圍或有新的人走進圖像采集范圍,此時由步驟s101重新開始面部檢測過程。

如圖5所示,為本發(fā)明公開的一種面部特征點跟蹤系統(tǒng)實施例1的結(jié)構(gòu)示意圖,本系統(tǒng)包括初始化模塊101、接收模塊102、面部檢測模塊103、第一生成模塊104、第二生成模塊105、第三生成模塊106及第四生成模塊107,其中:

初始化模塊101用于初始化參數(shù);

開啟面部特征點跟蹤功能后,初始化各項參數(shù),例如將暫存的圖像清空。

接收模塊用于接收第一圖像102;

第一圖像為當前時刻圖像采集裝置拍攝并發(fā)送的圖像。

面部檢測模塊103用于檢測第一圖像包括的面部圖像,第一生成模塊104用于基于第一圖像生成第一面部圖像;

對第一圖像進行面部檢測,判斷第一圖像中是否存在面部圖像,此處可利用現(xiàn)有技術,例如可使用haar人臉檢測技術進行檢測。基于第一圖像中的面部圖像生成第一面部圖像,即第一圖像中的被檢測出的面部區(qū)域的圖像。生成的第一面部圖像的數(shù)量與第一圖像中被檢測出的面部圖像的數(shù)量相等。

第二生成模塊105用于基于第一面部圖像生成第一特征點;

第一特征點為第一面部圖像上一些特定的點,如鼻尖、嘴角、眼角等特定的點??捎傻谝幻娌繄D像生成第一特征點,需要注意的是,第一特征點并不特指某一個點,第一特征點可以為一系列的點。

第三生成模塊106基于第一特征點及平均臉信息生成第一預測信息;

基于第一特征點可生成第一預測信息,第一預測信息為第一面部圖像在下一時刻時所處的位置。此位置可用坐標形式表示,此位置是相對于圖像采集裝置所采集的圖像而言的。當前時刻與下一時刻的間隔為固定值,可取值為一幀。

接收模塊102還用于接收第二圖像;

接收圖像采集裝置發(fā)送的第二圖像,第二圖像即為采集第一圖像的時刻的下一時刻所采集的圖像。需要指出的是,本發(fā)明中的第一圖像與第二圖像并不單指某一時刻的圖像,使用第一及第二對圖像進行區(qū)分只是為區(qū)分圖像采集的時刻的不同。本說明書中,使用第一時刻表示采集第一圖像的時刻,第二時刻表示采集第二圖像的時刻,同理,第一時刻及第二時刻也不特指某一時刻,只是用于表示其先后關系。

第四生成模塊107用于基于第二圖像及第一預測信息生成第三圖像;

第一預測信息為第二時刻時與第一面部圖像相對應的面部圖像在第二圖像中的預測位置,可基于第一預測信息及第二圖像生成第三圖像,第三圖像為基于第一預測信息中的預測位置在第二圖像中獲取的與第一面部圖像形狀及大小相同的圖像。

面部檢測模塊103還用于檢測第三圖像包括的與面部圖像相對應的第二面部圖像,第二生成模塊105還用于基于第二面部圖像生成第二特征點。

若第三圖像中包括與第一面部圖像中的面部圖像相同的面部圖像,即第二面部圖像,則說明預測成功,基于第一時刻時面部圖像的位置成功預測了第二時刻時相對應的面部圖像的位置,實現(xiàn)了跟蹤功能。此時基于第二面部圖像生成第二特征點,此時第二面部圖像與上述中的第一面部圖像的作用是相同的。生成第二特征點的方法與生成第一特征點的方法也相同。返回執(zhí)行上述步驟,繼續(xù)基于上一時刻的面部圖像的位置預測下一時刻的面部圖像的位置。

綜上所述,本發(fā)明提供了一種面部特征點跟蹤系統(tǒng),本系統(tǒng)的工作原理為:初始化參數(shù),接收第一圖像,若第一圖像中包括面部圖像,基于第一圖像生成第一面部圖像,基于第一面部圖像生成第一特征點,基于第一特征點生成第一預測信息,接收第二圖像,基于第二圖像及第一預測信息生成第三圖像,若第三圖像包括與面部圖像相對應的第二面部圖像,基于第二面部圖像生成第二特征點,以第二特征點作為第一特征點并重復執(zhí)行上述步驟以實現(xiàn)特征點的跟蹤。通過前一時刻的第一特征點預測后一時刻的第二特征點,減少了面部特征點跟蹤技術的計算量,降低了計算難度,實現(xiàn)了面部特征點的實時跟蹤。

如圖6所示,為本發(fā)明在上述實施例的基礎上公開的實施例2的結(jié)構(gòu)示意圖。在上述實施例中,第二生成模塊201包括第一生成單元202及第二生成單元203,其中:

第一生成單元202用于基于第一面部圖像信息生成第一圖像位置信息;

第一面部圖像信息為包括面部圖像的面部框,基于此面部框在第一圖像中的位置,可生成第一圖像位置信息,第一圖像位置信息可采用兩種方式表示。一種是以(left,right,top,bottom)來表示,其中l(wèi)eft表示矩形框左邊界,也即左上角和最下角角點的x軸坐標,right表示右邊界,也即右上角和右下角角點的x軸坐標,top表示矩形框上邊界,也即左上角和左下角的y軸坐標,bottom表示矩形框的下邊界,也即左下角和右下角的y軸坐標。另一種表示法以(x,y,width,height)來表示,其中,x表示矩形框左上角角點的x軸坐標,y表示矩形框左上角角點的y軸坐標,width表示矩形框的寬度,height表示矩形框的高度。上述兩種表示法均能夠通過四個值唯一確定畫面中的一個矩形框的位置及大小。此處以第一種方法為例,即第一圖像位置信息采用(left,right,top,bottom)的形式表示。

第二生成單元203用于基于第一圖像位置信息生成第一特征點;

為減少計算量,可以面部圖像中的一些特征點為實現(xiàn)面部特征點跟蹤的依據(jù)??蓪Φ谝粓D像位置信息進行回歸計算,并生成第一特征點。在算法中,特征點表示為歸一化坐標,也即:

xnorm=(x-left)/(right-left)

ynorm=(y-top)/(bottom-top)

歸一化表示后,將所有訓練樣本的特征點進行加權平均,平均后可以得到一個平均形狀。再利用檢測框的坐標,可以將平均臉的坐標由歸一化坐標系映射到真實坐標系下,具體映射關系為:

x=xnorm*(right-left)+left

y=y(tǒng)norm*(bottom-top)+top

需要注意的是第一特征點并不指一個特征點,而是一系列的特征點,其數(shù)量可根據(jù)面部特征點跟蹤的精度需求及硬件設備的性能進行調(diào)整。例如采用68個特征點,即第一特征點包括68個坐標(x,y)。

值得一提的是,采用方法生成第一特征點后,第三生成模塊生成第一預測信息的工作原理可采用以下方法:

平均臉信息為一個預先設計好的標準模型。求c使得下式最?。?/p>

min|b-a×c|2

其中b為第一特征點。

其中a為平均臉信息,平均臉信息為一個預先設計好的標準模型。

求得c后,使用c對第一圖像位置信息進行相似變換,即可求出第一預測信息。第一預測信息也是以(left,right,top,bottom)的形式表示。

如圖7所示,為本發(fā)明在上述實施例的基礎上公開的實施例3的結(jié)構(gòu)示意圖。在上述實施例中,本系統(tǒng)還包括第五生成模塊301及第六生成模塊302,其中:

第五生成模塊301用于基于第一預測信息生成第二圖像位置信息;

若第三圖像不包括第二面部圖像,即第二時刻的預測的面部圖像區(qū)域中并無面部圖像,說明預測與實際不符,跟蹤失敗,此時基于以(left,right,top,bottom)的形式表示的第一預測信息生成第二圖像位置信息,第二圖像位置信息采用(leftresize,rightresize,topresize,bottomresize)的形式表示。人臉框的寬度和高度分別為:

w=right-left

h=bottom-top

縮放比例設置為factor,則新的四元組為:

leftresize=left-factor×w

rightresize=right+factor×w

topresize=top-factor×h

bottomresize=bottom+factor×h。

第二圖像位置信息是將第一預測信息所表示的區(qū)域進行放大的區(qū)域。雖然預測錯誤,但短時間內(nèi)面部圖像不會出現(xiàn)長距離的移動,因此將第一預測信息所代表的區(qū)域擴大,可使此區(qū)域包括面部圖像。

第六生成模塊302用于基于第二圖像位置信息生成第四圖像。

基于第二圖像位置信息生成第四圖像,第四圖像即第二圖像位置信息在第二圖像中所代表的區(qū)域。第四圖像為第二時刻采集的圖像的一部分,且第四圖像中包括面部圖像,可再次進行面部特征點跟蹤,以第四圖像作為上述實施例中的第一圖像,可對下一時刻的面部圖像的位置進行預測。

如圖8所示,為本發(fā)明在上述實施例的基礎上公開的實施例4的結(jié)構(gòu)示意圖。在上述實施例中,本系統(tǒng)還包括計算模塊403及比較模塊404,初始化模塊401包括計時單元402,其中:

計時單元402用于重新生成計時信息。

為進一步優(yōu)化上述方案,上述實施例還可包括:

計算模塊403用于對第三圖像及第三面部圖像進行交除并操作生成交除并值,第三面部圖像為第三圖像對應時刻下一時刻的面部圖像;

第三面部圖像為第三圖像對應時刻下一時刻圖像采集裝置采集的圖像通過面部檢測后得到的面部圖像。預設計時條件為計時信息中的時間為預設時間的倍數(shù),例如預設時間為20幀,則計時信息中的時間為20幀的倍數(shù)時,例如20幀、40幀或60幀,計時信息均滿足預設計時條件。此時,對第三圖像及第三面部圖像進行交除并操作生成交除并值。即將第三圖像與第三面部圖像的交集除以第三圖像與第三面部圖像的并集。交除并值表示了第三圖像與第三面部圖像的相似度。

比較模塊404用于比較交除并值與預設閾值的大小。

若交除并值小于預設閾值,則說明第三圖像中的面部圖像與第三面部圖像中的面部圖像不屬于同一個人,此時可能是由于跟蹤的人物已走出圖像采集范圍或有新的人走進圖像采集范圍,此時重新開始面部檢測過程。

本說明書中各個實施例采用遞進的方式描述,每個實施例重點說明的都是與其它實施例的不同之處,各個實施例之間相同相似部分互相參見即可。

對所公開的實施例的上述說明,使本領域?qū)I(yè)技術人員能夠?qū)崿F(xiàn)或使用本發(fā)明。對這些實施例的多種修改對本領域的專業(yè)技術人員來說將是顯而易見的,本文中所定義的一般原理可以在不脫離本發(fā)明的精神或范圍的情況下,在其它實施例中實現(xiàn)。因此,本發(fā)明將不會被限制于本文所示的這些實施例,而是要符合與本文所公開的原理和新穎特點相一致的最寬的范圍。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
金湖县| 沂南县| 永州市| 富顺县| 福清市| 浠水县| 安宁市| 荥经县| 沙坪坝区| 元江| 长白| 会东县| 无为县| 出国| 彰化县| 绥江县| 泰宁县| 牡丹江市| 天津市| 黄石市| 松潘县| 同仁县| 阿巴嘎旗| 凤翔县| 大化| 陕西省| 临高县| 进贤县| 潮安县| 顺昌县| 上饶市| 靖边县| 额济纳旗| 封开县| 临清市| 长乐市| 麻栗坡县| 凤山市| 光山县| 丰原市| 葫芦岛市|