欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

人臉面部關(guān)鍵表情識別方法

文檔序號:6373062閱讀:560來源:國知局
專利名稱:人臉面部關(guān)鍵表情識別方法
技術(shù)領(lǐng)域
本發(fā)明涉及動漫制作領(lǐng)域中演員面部關(guān)鍵表情捕捉的技術(shù),特別涉及一種簡單、聞效的人臉面部關(guān)鍵表情識別方法。
背景技術(shù)
在動漫制作領(lǐng)域,起初動漫角色形象都是由美工人員根據(jù)劇本要求手工逐幀繪制完成的。隨著計算機(jī)技術(shù)的迅猛發(fā)展,角色從形象到動作等都已經(jīng)通過專業(yè)軟件進(jìn)行實現(xiàn)。而伴隨著計算機(jī)視覺技術(shù)的發(fā)展,角色動作實現(xiàn)也由設(shè)計人員在專業(yè)軟件中設(shè)計關(guān)鍵幀骨骼動畫轉(zhuǎn)變?yōu)橥ㄟ^專業(yè)的動作捕捉系統(tǒng)實時捕捉演員動作來實現(xiàn),在這方面,好萊塢電影走在世界前列,如《魔戒》、《金剛》、《極地特快》等都是利用動作捕捉系統(tǒng)來實現(xiàn)的。尤其是 《極地特快》中,演員湯姆漢克斯一個人扮演了五個角色。相對來說,人物動作都是幅度比較大的活動,肢體的變化比較容易捕捉,所以,動作捕捉技術(shù)和設(shè)備近幾年已經(jīng)發(fā)展的相當(dāng)成熟。但是動作捕捉技術(shù)僅僅解決了角色肢體動作的捕捉問題,卻無法從演員的表演中獲得真實的人類表情。正是這一缺陷,創(chuàng)造真實的全CG (Computer Graphics,計算機(jī)圖形)人類角色一直是動漫制作領(lǐng)域公認(rèn)的一大難題。2009年上映的好萊塢電影《阿凡達(dá)》中納美人栩栩如生的面部表情,給觀眾帶來了巨大的震撼。它將人類面部表情的識別和制作帶到了一個新的高度。導(dǎo)演卡梅隆協(xié)同維塔工作室開發(fā)了一套全新的表情捕捉系統(tǒng)。該系統(tǒng)的核心是面部捕捉頭戴設(shè)備(FacialCapture Head Rig)。該設(shè)備是一款特制的安裝了微縮高清攝像頭的無邊帽子,表演時,在演員面部特定部位涂抹綠色的跟蹤點并與CG角色面部的相應(yīng)位置進(jìn)行了精密的綁定。演員表演過程中,攝像頭實時的記錄跟蹤點的位置變化信息,從而反應(yīng)到CG角色的相應(yīng)位置,體現(xiàn)出真實的表情變化。隨著《阿凡達(dá)》的空前成功,面部表情識別技術(shù)和設(shè)備近幾年也得到了快速發(fā)展,出現(xiàn)了多種采用不同的設(shè)備并取得了良好的應(yīng)用。目前面部表情識別技術(shù)和設(shè)備按照攝像頭的個數(shù)可以分為單攝像頭系統(tǒng)和多攝像頭系統(tǒng)。單攝像頭系統(tǒng)(如《阿凡達(dá)》所使用的)只使用一個攝像頭,通過固定在演員面前進(jìn)行視頻采集。單攝像頭系統(tǒng)結(jié)構(gòu)相對簡單,但獲得的特征點坐標(biāo)只可能是二維坐標(biāo);多攝像頭系統(tǒng)采用多個攝像頭從左前、正中、右前三個方向采集視頻,能夠獲得特征點的三維坐標(biāo)信息且精度比單攝像頭系統(tǒng)要高,但結(jié)構(gòu)復(fù)雜,要求空間大,對演員表演限制較多。面部表情識別系統(tǒng)按特征點的種類,可以分為主動發(fā)光式和被動發(fā)光式。主動發(fā)光式系統(tǒng)使用的特征點能夠主動發(fā)出白色或紅色等光線,而被動發(fā)光式系統(tǒng)則是在演員面部粘貼或涂抹綠色或藍(lán)色等圓點等。這兩種方式實際上的理論基礎(chǔ)是一樣的,都是確保特征點和人臉面部的色差盡可能的大,從而便于特征點的識別。目前的面部表情識別系統(tǒng)在實際使用時,還是有各種各樣的不便之處。多攝像頭系統(tǒng)顯然設(shè)備復(fù)雜、造價昂貴;單攝像頭系統(tǒng)雖然相對簡單,但在演員面前固定一個攝像頭還是不算方便。最主要的是,所有的系統(tǒng)都需要使用額外的特征點,不論是粘貼還是涂抹,每一次表演之前,都要進(jìn)行這一必要的準(zhǔn)備工作。這顯然十分不便。而且,這些系統(tǒng)更多的是應(yīng)用在電影制作中,演員都是專業(yè)演員,在獲得演員的表情后,由后期的制作人員再進(jìn)行
加工處理。而在動漫制作領(lǐng)域,不需要非常專業(yè)的演員,而且每一個動漫設(shè)計人員會設(shè)計不止一個的動漫角色。實際上,角色的表情都是由該角色的設(shè)計人員來實現(xiàn)的。通過檢索,在動漫制作領(lǐng)域中,還沒有專門提供給動漫設(shè)計人員進(jìn)行表情捕捉的軟件和設(shè)備。

發(fā)明內(nèi)容
本發(fā)明的目的在于提供一種人臉面部關(guān)鍵表情識別方法,解決了現(xiàn)有技術(shù)存在的上述問題。本發(fā)明不需要固定的頭戴設(shè)備,不需要額外的特征點,利用一個高清攝像頭采集動漫設(shè)計人員的面部視頻,通過計算機(jī)視覺技術(shù)就能夠?qū)崟r獲得其面部關(guān)鍵表情,由其將 表情信息和設(shè)計的角色進(jìn)行精密綁定,從而實現(xiàn)設(shè)計人員的表情實時捕捉并反映到CG角色中去。本發(fā)明能夠提供給動漫設(shè)計人員更大的自由度,能夠更好的體現(xiàn)設(shè)計人員所需要的效果。本發(fā)明的上述目的通過以下技術(shù)方案實現(xiàn)
人臉面部關(guān)鍵表情識別方法,采用一臺高清彩色攝像頭,置于動漫設(shè)計人員所使用的計算機(jī)屏幕上方,具體步驟如下
(1)調(diào)用攝像頭廠商提供的SDK獲得拍攝到的視頻;
(2)調(diào)用開源OpenCV庫的相關(guān)函數(shù)進(jìn)行人臉識別,得到人臉?biāo)诘木匦螀^(qū)域;
(3)在視頻圖像的每一幀中,截取該矩形區(qū)域的圖像作為后繼處理的原始圖像;
(4)根據(jù)人臉固有的特征,截取人臉?biāo)诰匦螀^(qū)域的上1/5至1/3部分作為眉毛所在的區(qū)域進(jìn)行處理得到眉毛的中心點;
(5)截取人臉?biāo)诘木匦螀^(qū)域自上方1/3處開始,矩形區(qū)域1/5大小的區(qū)域作為眼睛所在的區(qū)域進(jìn)行處理得到眼球的中心點;
(6)根據(jù)嘴巴在人臉?biāo)诘奈恢锰卣?,截取人臉?biāo)诘木匦螆D像的下1/3部分作為嘴巴的區(qū)域進(jìn)行處理得到嘴巴最左邊、最右邊和最下邊三個關(guān)鍵點的信息;
至此,得到兩個眉毛、兩只眼睛、嘴巴上的三個、共七個關(guān)鍵點的位置信息,通過和已制作好的CG角色面部對應(yīng)點相關(guān)聯(lián),能夠?qū)崟r得到CG角色的面部關(guān)鍵表情信息。所述的步驟(4)截取矩形圖像的上1/5至1/3部分作為眉毛所在的區(qū)域進(jìn)行處理得到眉毛的中心點是
(4. I)根據(jù)圖像的顏色空間,將圖像轉(zhuǎn)變?yōu)榛叶葓D像,并進(jìn)行直方圖優(yōu)化;
(4. 2)對灰度圖像采用Ostu最優(yōu)閾值變換方法,將圖像轉(zhuǎn)變?yōu)楹诎锥祱D像;
(4. 3)對二值圖像采用數(shù)學(xué)形態(tài)學(xué)的膨脹、腐蝕操作,去除圖像的噪點,獲得更清晰的分表I]效果;
(4.4)由于眉毛的特殊性質(zhì),對左右眉毛分別做橫向投影,統(tǒng)計5個像素區(qū)域內(nèi)黑色像素最多的區(qū)域,就是眉毛所在的區(qū)域,在該區(qū)域內(nèi)計算黑色像素的重心,即得到眉毛的中心點。
所述的步驟(5)截取人臉?biāo)诘木匦螀^(qū)域自上方1/3處開始,矩形區(qū)域1/5大小的區(qū)域作為眼睛所在的區(qū)域進(jìn)行處理得到眼球的中心點是
(5. I)同(4. I);
(5. 2)同(4. 2);
(5. 3)同(4. 3);
(5. 4)本發(fā)明是實現(xiàn)眼睛睜閉的判斷及眼球位置的定位;眼睛閉合時,眼睛區(qū)域大部分的顏色都是和膚色一致的;而睜開時,因為眼球是黑色的,和膚色差別很大;所以在二值化后,眼球能夠很明顯的區(qū)分開來;為此,分別對左右眼做縱向投影,統(tǒng)計每一列黑色像素的個數(shù),設(shè)定一個閾值,大于此閾值的列認(rèn)為是眼球所在的列,小于則認(rèn)為不是眼球所在區(qū) 域;如果所有的列都低于此閾值,則認(rèn)為該眼是閉合的,否則是睜開的;對睜開的眼睛,統(tǒng)計列的信息,長度大于設(shè)定值的列的集合,就是眼球所在的區(qū)域;計算該區(qū)域黑色像素的重心,即得到眼球的中心點。所述的步驟(6)根據(jù)嘴巴在人臉?biāo)诘奈恢锰卣鳎厝∪四標(biāo)诘木匦螆D像的下1/3部分作為嘴巴的區(qū)域進(jìn)行處理得到嘴巴最左邊、最右邊和最下邊三個關(guān)鍵點的信息是
(6. I)利用Open CV提供的膚色檢測函數(shù)將區(qū)域中膚色部分和非膚色部分分割開來;(6. 2)對分割結(jié)果進(jìn)行數(shù)學(xué)形態(tài)學(xué)的腐蝕、膨脹操作,去除圖像噪點,得到更好的分割結(jié)果;
(6. 3)利用Open CV提供的輪廓跟蹤函數(shù)得到嘴部輪廓的信息;由于有可能有噪聲的影響,得到的輪廓信息不止一個,這時,考慮到嘴巴在嘴部區(qū)域內(nèi)是面積最大的非膚色區(qū)域;所以,只保留面積最大的輪廓做為嘴巴可能的輪廓;遍歷輪廓,即可得到嘴巴最左邊、最右邊和最下邊二個關(guān)鍵點的信息。本發(fā)明的有益效果在于根據(jù)動漫制作領(lǐng)域的特點,能夠提供給動漫設(shè)計人員更大的自由度,實時獲得其面部表情并實時體現(xiàn)在其設(shè)計的CG角色當(dāng)中。設(shè)計人員可以根據(jù)CG角色的表情效果,即時對表情進(jìn)行修改完善,能夠更好的體現(xiàn)設(shè)計人員的內(nèi)心需求。簡單、高效,實用性強(qiáng)。


此處所說明的附圖用來提供對本發(fā)明的進(jìn)一步理解,構(gòu)成本申請的一部分,本發(fā)明的示意性實例及其說明用于解釋本發(fā)明,并不構(gòu)成對本發(fā)明的不當(dāng)限定。圖I為本發(fā)明的流程示意圖; 圖2至圖11為本發(fā)明的實際效果圖。
具體實施例方式下面結(jié)合附圖進(jìn)一步說明本發(fā)明的詳細(xì)內(nèi)容及其具體實施方式
。參見圖1,本發(fā)明的人臉面部關(guān)鍵表情識別方法,采用一臺高清彩色攝像頭,可以是外置的,也可以是機(jī)器本身自帶的,將攝像頭置于動漫設(shè)計人員所使用的計算機(jī)屏幕上方即可。這樣,動漫設(shè)計人員能夠通過軟件提供的窗口實時看到自己的表情動作,從而可以實時調(diào)整CG角色的效果。
本發(fā)明的具體步驟如下
(1)調(diào)用攝像頭廠商提供的SDK( Software Development Kit,,即軟件開發(fā)工具包)獲得拍攝到的視頻;
(2)調(diào)用開源Open CV庫(Open Source Computer Vision Library,跨平臺計算機(jī)視覺庫)的相關(guān)函數(shù)進(jìn)行人臉識別,得到人臉?biāo)诘木匦螀^(qū)域;
(3)在視頻圖像的每一幀中,截取該矩形區(qū)域的圖像作 為后繼處理的原始圖
像;
(4)根據(jù)人臉固有的特征,截取人臉?biāo)诰匦螀^(qū)域的上1/5至1/3部分作為眉毛所在的區(qū)域進(jìn)行如下處理
(4. I)根據(jù)圖像的顏色空間,將圖像轉(zhuǎn)變?yōu)榛叶葓D像,并進(jìn)行直方圖優(yōu)化;
(4. 2)對灰度圖像采用Ostu最優(yōu)閾值變換方法,將圖像轉(zhuǎn)變?yōu)楹诎锥祱D像;
(4. 3)對二值圖像采用數(shù)學(xué)形態(tài)學(xué)的膨脹、腐蝕操作,去除圖像的噪點,獲得更清晰的分表I]效果;
(4.4)由于眉毛的特殊性質(zhì),對左右眉毛分別做橫向投影,統(tǒng)計5個像素區(qū)域內(nèi)黑色像素最多的區(qū)域,就是眉毛所在的區(qū)域,在該區(qū)域內(nèi)計算黑色像素的重心,即得到眉毛的中心占.
(5)截取人臉?biāo)诘木匦螀^(qū)域自上方1/3處開始,矩形區(qū)域1/5大小的區(qū)域作為眼睛所在的區(qū)域進(jìn)行如下處理
(5. I)同(4. I);
(5. 2)同(4. 2);
(5. 3)同(4. 3);
(5. 4)本發(fā)明是實現(xiàn)眼睛睜閉的判斷及眼球位置的定位;眼睛閉合時,眼睛區(qū)域大部分的顏色都是和膚色一致的;而睜開時,因為眼球是黑色的,和膚色差別很大;所以在二值化后,眼球能夠很明顯的區(qū)分開來;為此,分別對左右眼做縱向投影,統(tǒng)計每一列黑色像素的個數(shù),設(shè)定一個閾值,大于此閾值的列認(rèn)為是眼球所在的列,小于則認(rèn)為不是眼球所在區(qū)域;如果所有的列都低于此閾值,則認(rèn)為該眼是閉合的,否則是睜開的;對睜開的眼睛,統(tǒng)計列的信息,長度大于設(shè)定值的列的集合,就是眼球所在的區(qū)域;計算該區(qū)域黑色像素的重心,即得到眼球的中心點;
(6)根據(jù)嘴巴在人臉?biāo)诘奈恢锰卣?,截取人臉?biāo)诘木匦螆D像的下1/3部分作為嘴巴的區(qū)域進(jìn)行如下處理
(6. I)利用OpenCV提供的膚色檢測函數(shù)將區(qū)域中膚色部分和非膚色部分分割開來;(6. 2)對分割結(jié)果進(jìn)行數(shù)學(xué)形態(tài)學(xué)的腐蝕、膨脹操作,去除圖像噪點,得到更好的分割結(jié)果;
(6. 3)利用OpenCV提供的輪廓跟蹤函數(shù)得到嘴部輪廓的信息;由于有可能有噪聲的影響,得到的輪廓信息不止一個,這時,考慮到嘴巴在嘴部區(qū)域內(nèi)是面積最大的非膚色區(qū)域;所以,只保留面積最大的輪廓做為嘴巴可能的輪廓;遍歷輪廓,即可得到最左邊、最右邊和最下邊三個關(guān)鍵點的信息;
至此,得到兩個眉毛、兩只眼睛、嘴巴上的三個、共七個關(guān)鍵點的位置信息,通過和已制作好的CG角色面部對應(yīng)點相關(guān)聯(lián),就可以實時得到CG角色的面部關(guān)鍵表情信息。
本實例采用的攝像頭為Logitech HD Webcam C270高清彩色攝像頭,能夠提供800*600大小的單幀圖像。采集到的圖像如圖2所示。調(diào)用Open CV提供的人臉識別函數(shù)后,得到的矩形區(qū)域如圖3所示,矩形用紅色方框表示。對于眉毛,取得眉毛所在區(qū)域圖像,進(jìn)行必要的預(yù)處理后,得到的圖像如圖4所示。以橫軸中心為界,將圖像分為左右兩個部分,利用步驟4的方法就能夠得到左右眉毛的重心坐標(biāo)。對于眼睛,同樣的預(yù)處理方式得到的睜眼和閉眼圖像分別如圖5、圖6所示。同樣以橫軸中心為界,將圖像分為左右兩個部分。利用步驟5的方法就可以分別區(qū)分左右眼是否閉合及眼球中心的坐標(biāo)。對于嘴巴所在的區(qū)域,利用Open CV提供的膚色識別函數(shù),通過步驟6中的預(yù)處理 后,得到的圖像如圖7、圖8所示。其中,圖7描述的是嘴巴閉合時的狀態(tài),圖8則描述的是嘴巴張開的狀態(tài),嘴巴內(nèi)部的黑色區(qū)域是舌頭的表現(xiàn)。至此,所有的關(guān)鍵點信息都已經(jīng)得到,本實例將眉毛、嘴巴等5個關(guān)鍵點,以藍(lán)色圓點的形式實時繪制到攝像頭拍攝到的圖像中去。對于眼睛,當(dāng)睜開時,則在眼球處繪制藍(lán)色圓點,否則不繪制。若干實例圖如圖9至圖11所示。在得到這些關(guān)鍵點的基礎(chǔ)上,就可以將這些點同CG角色面部的相應(yīng)位置綁定起來,從而實時得到動畫制作人員所需要的各種表情。以上所述僅為本發(fā)明的優(yōu)選實例而已,并不用于限制本發(fā)明,對于本領(lǐng)域的技術(shù)人員來說,本發(fā)明可以有各種更改和變化。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。
權(quán)利要求
1.一種人臉面部關(guān)鍵表情識別方法,采用一臺高清彩色攝像頭,置于動漫設(shè)計人員所使用的計算機(jī)屏幕上方,其特征在于具體步驟如下 調(diào)用攝像頭廠商提供的SDK獲得拍攝到的視頻; 調(diào)用開源Open CV庫的相關(guān)函數(shù)進(jìn)行人臉識別,得到人臉?biāo)诘木匦螀^(qū)域; 在視頻圖像的每一幀中,截取該矩形區(qū)域的圖像作為后繼處理的原始圖像; 根據(jù)人臉固有的特征,截取人臉?biāo)诰匦螀^(qū)域的上1/5至1/3部分作為眉毛所在的區(qū)域進(jìn)行處理得到眉毛的中心點; 截取人臉?biāo)诘木匦螀^(qū)域自上方1/3處開始,矩形區(qū)域1/5大小的區(qū)域作為眼睛所在的區(qū)域進(jìn)行處理得到眼球的中心點; 根據(jù)嘴巴在人臉?biāo)诘奈恢锰卣?,截取人臉?biāo)诘木匦螆D像的下1/3部分作為嘴巴的區(qū)域進(jìn)行處理得到嘴巴最左邊、最右邊和最下邊三個關(guān)鍵點的信息; 至此,得到兩個眉毛、兩只眼睛、嘴巴上的三個、共七個關(guān)鍵點的位置信息,通過和已制作好的CG角色面部對應(yīng)點相關(guān)聯(lián),能夠?qū)崟r得到CG角色的面部關(guān)鍵表情信息。
2.根據(jù)權(quán)利要求I所述的人臉面部關(guān)鍵表情識別方法,其特征在于所述的步驟(4)截取矩形圖像的上1/5至1/3部分作為眉毛所在的區(qū)域進(jìn)行處理得到眉毛的中心點是 (4. I)根據(jù)圖像的顏色空間,將圖像轉(zhuǎn)變?yōu)榛叶葓D像,并進(jìn)行直方圖優(yōu)化; (4. 2)對灰度圖像采用Ostu最優(yōu)閾值變換方法,將圖像轉(zhuǎn)變?yōu)楹诎锥祱D像; (4. 3)對二值圖像采用數(shù)學(xué)形態(tài)學(xué)的膨脹、腐蝕操作,去除圖像的噪點,獲得更清晰的分表I]效果; (4.4)由于眉毛的特殊性質(zhì),對左右眉毛分別做橫向投影,統(tǒng)計5個像素區(qū)域內(nèi)黑色像素最多的區(qū)域,就是眉毛所在的區(qū)域,在該區(qū)域內(nèi)計算黑色像素的重心,即得到眉毛的中心點。
3.根據(jù)權(quán)利要求I所述的人臉面部關(guān)鍵表情識別方法,其特征在于所述的步驟(5)截取人臉?biāo)诘木匦螀^(qū)域自上方1/3處開始,矩形區(qū)域1/5大小的區(qū)域作為眼睛所在的區(qū)域進(jìn)行處理得到眼球的中心點是(5. I)同(4. I);(5. 2)同(4. 2);(5. 3)同(4. 3); (5. 4)本發(fā)明是實現(xiàn)眼睛睜閉的判斷及眼球位置的定位;眼睛閉合時,眼睛區(qū)域大部分的顏色都是和膚色一致的;而睜開時,因為眼球是黑色的,和膚色差別很大;所以在二值化后,眼球能夠很明顯的區(qū)分開來;為此,分別對左右眼做縱向投影,統(tǒng)計每一列黑色像素的個數(shù),設(shè)定一個閾值,大于此閾值的列認(rèn)為是眼球所在的列,小于則認(rèn)為不是眼球所在區(qū)域;如果所有的列都低于此閾值,則認(rèn)為該眼是閉合的,否則是睜開的;對睜開的眼睛,統(tǒng)計列的信息,長度大于設(shè)定值的列的集合,就是眼球所在的區(qū)域;計算該區(qū)域黑色像素的重心,即得到眼球的中心點。
4.根據(jù)權(quán)利要求I所述的人臉面部關(guān)鍵表情識別方法,其特征在于所述的步驟(6)根據(jù)嘴巴在人臉?biāo)诘奈恢锰卣?,截取人臉?biāo)诘木匦螆D像的下1/3部分作為嘴巴的區(qū)域進(jìn)行處理得到嘴巴最左邊、最右邊和最下邊三個關(guān)鍵點的信息是 (6. I)利用Open CV提供的膚色檢測函數(shù)將區(qū)域中膚色部分和非膚色部分分割開來;(6. 2)對分割結(jié)果進(jìn)行數(shù)學(xué)形態(tài)學(xué)的腐蝕、膨脹操作,去除圖像噪點,得到更好的分割結(jié)果; (6.3)利用Open CV提供的輪廓跟蹤函數(shù)得到嘴部輪廓的信息;由于有可能有噪聲的影響,得到的輪廓信息不止一個,這時,考慮到嘴巴在嘴部區(qū)域內(nèi)是面積最大的非膚色區(qū)域;所以,只保留面積最大的輪廓做為嘴巴可能的輪廓;遍歷輪廓,即可得到嘴巴最左邊、 最右邊和最下邊二個關(guān)鍵點的信息。
全文摘要
本發(fā)明涉及一種人臉面部關(guān)鍵表情識別方法,屬于動漫制作領(lǐng)域。根據(jù)人臉固有的特征,截取人臉?biāo)诘木匦螀^(qū)域的上1/5至1/3部分作為眉毛所在的區(qū)域進(jìn)行處理得到眉毛的中心點;截取人臉?biāo)诰匦螀^(qū)域自上方1/3處開始,矩形區(qū)域1/5大小的區(qū)域作為眼睛所在的區(qū)域進(jìn)行處理得到眼球的中心點;根據(jù)嘴巴在人臉?biāo)诘奈恢锰卣?,截取人臉?biāo)诰匦螆D像的下1/3部分作為嘴巴的區(qū)域進(jìn)行處理得到嘴巴最左邊、最右邊和最下邊三個關(guān)鍵點的信息;通過和已制作好的CG角色面部對應(yīng)點相關(guān)聯(lián),能夠?qū)崟r得到CG角色的面部關(guān)鍵表情信息。本發(fā)明能夠提供給動漫設(shè)計人員更大的自由度,能夠更好的體現(xiàn)設(shè)計人員所需要的效果。
文檔編號G06K9/32GK102799868SQ201210236919
公開日2012年11月28日 申請日期2012年7月10日 優(yōu)先權(quán)日2012年7月10日
發(fā)明者鄭立國, 孫亦南, 尤晨偉 申請人:吉林禹碩動漫游戲科技股份有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
吉林市| 洛扎县| 土默特左旗| 洞头县| 黄大仙区| 盐源县| 大英县| 玉田县| 云浮市| 探索| 浪卡子县| 九龙城区| 阿拉善右旗| 杂多县| 阆中市| 林州市| 荥阳市| 巴里| 平度市| 太康县| 富川| 洞口县| 曲松县| 微博| 松江区| 正阳县| 芦溪县| 汝城县| 长岛县| 青岛市| 巴林右旗| 襄城县| 阜阳市| 郎溪县| 红河县| 岳阳市| 灵川县| 嫩江县| 潮安县| 连平县| 东阳市|