欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種人體姿態(tài)基準(zhǔn)圖像庫(kù)的構(gòu)建方法

文檔序號(hào):8361875閱讀:430來(lái)源:國(guó)知局
一種人體姿態(tài)基準(zhǔn)圖像庫(kù)的構(gòu)建方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及到人工智能技術(shù)領(lǐng)域,具體地說(shuō),是一種人體姿態(tài)基準(zhǔn)圖像庫(kù)的構(gòu)建方法。
【背景技術(shù)】
[0002]在人工智能領(lǐng)域,人體姿勢(shì)識(shí)別有著重要的理論研宄和工程實(shí)踐價(jià)值。一個(gè)樣本豐富且高質(zhì)量的人體姿勢(shì)基準(zhǔn)圖像庫(kù)是進(jìn)行人體姿態(tài)識(shí)別研宄的基礎(chǔ)工具,可用于算法訓(xùn)練、測(cè)試和驗(yàn)證,以推動(dòng)人體姿勢(shì)識(shí)別技術(shù)的發(fā)展。
[0003]目前,得到人體姿勢(shì)基準(zhǔn)數(shù)據(jù)庫(kù)的主要方法有兩種:一是選取大量圖片,通過(guò)人為手動(dòng)標(biāo)定的方式得到姿勢(shì)數(shù)據(jù)庫(kù);二是選取大量圖片,通過(guò)一些人體姿勢(shì)識(shí)別算法對(duì)圖片進(jìn)行分類,從而得到人體姿勢(shì)基準(zhǔn)數(shù)據(jù)庫(kù)。上述方法一的局限性在于:首先需要收集并選取大量圖片,需要花費(fèi)一定的人力物力。對(duì)于這些圖片,還需要通過(guò)人為的姿勢(shì)判斷來(lái)確定其類別,這樣必然會(huì)消耗更多的時(shí)間與資源。并且人為判斷姿勢(shì)還會(huì)收到一些主觀因素的干擾,這也會(huì)影響最終的人體姿勢(shì)基準(zhǔn)數(shù)據(jù)庫(kù)的質(zhì)量。
[0004]上述方法二的局限性同方法一,也是海量圖片的選擇會(huì)耗費(fèi)不少資源。同時(shí)目前人工智能領(lǐng)域的大多數(shù)人體姿態(tài)識(shí)別算法還存在著不少缺陷:現(xiàn)在人體動(dòng)作姿態(tài)的識(shí)別主要集中在簡(jiǎn)單的人體動(dòng)作姿態(tài)上,如人的某些標(biāo)準(zhǔn)姿態(tài)和一些簡(jiǎn)單的動(dòng)作行為,如走、跑、蹲、站等簡(jiǎn)單規(guī)范的動(dòng)作,難以識(shí)別一些復(fù)雜的姿勢(shì);利用機(jī)器學(xué)習(xí)工具進(jìn)行人體動(dòng)作行為的識(shí)別還處于初級(jí)階段,在識(shí)別過(guò)程中對(duì)人體運(yùn)動(dòng)的模型需要增加約束條件來(lái)減少歧義性,而這些約束條件與一般的現(xiàn)實(shí)情形通常是不吻合的。而且通過(guò)姿勢(shì)識(shí)別算法來(lái)生成姿勢(shì)基準(zhǔn)數(shù)據(jù)庫(kù)還存在著特征選擇困難的問(wèn)題,特征的選擇對(duì)于算法計(jì)算的復(fù)雜度和識(shí)別準(zhǔn)確率均有較大的影響。
[0005]比如中國(guó)專利CN201010120591公開(kāi)了一種“視頻場(chǎng)景庫(kù)生成方法及系統(tǒng)、搜索視頻場(chǎng)景的方法及系統(tǒng)”,其主要介紹了一種生成視頻場(chǎng)景庫(kù)的方法,這種方法的主要思路是:首先對(duì)視頻文件里的視頻場(chǎng)景進(jìn)行時(shí)間錨點(diǎn)標(biāo)注和字幕附注,并提取標(biāo)注的字幕段存入字幕庫(kù),然后根據(jù)標(biāo)注的時(shí)間錨點(diǎn)對(duì)對(duì)應(yīng)的視頻文件進(jìn)行冗余切割,截取該字幕對(duì)應(yīng)的視頻場(chǎng)景片段,存入視頻場(chǎng)景片段庫(kù),最終建立字幕庫(kù)里的字幕段和視頻場(chǎng)景庫(kù)里的視頻場(chǎng)景片段的對(duì)應(yīng)關(guān)系。該方法類似于通過(guò)人為手動(dòng)標(biāo)定的方式得到姿勢(shì)數(shù)據(jù)庫(kù)的方法,雖然可以為用戶方便快捷地找到目標(biāo)視頻場(chǎng)景片段做好數(shù)據(jù)支持,但是在對(duì)視頻庫(kù)中的視頻場(chǎng)景進(jìn)行時(shí)間錨點(diǎn)標(biāo)注和字幕附注時(shí),會(huì)耗費(fèi)大量的時(shí)間與人力,也有可能造成一些主觀誤差,影響最終生成的數(shù)據(jù)庫(kù)的質(zhì)量。

【發(fā)明內(nèi)容】

[0006]針對(duì)現(xiàn)有技術(shù)的不足,本發(fā)明的目的是提供一種人體姿態(tài)基準(zhǔn)圖像庫(kù)的構(gòu)建方法,該方法采集視頻游戲引導(dǎo)下的玩家姿態(tài)圖像,并對(duì)圖像采用聚類的方法生成大規(guī)模的自動(dòng)標(biāo)定的基準(zhǔn)圖像數(shù)據(jù)庫(kù),從而避免了人工標(biāo)定姿勢(shì)圖片的繁瑣過(guò)程,同時(shí)不需要使用復(fù)雜的人體姿勢(shì)識(shí)別算法,能夠節(jié)省大量的人力物力,并能夠提高效率以及最終生成的人體姿態(tài)基準(zhǔn)圖像庫(kù)的質(zhì)量。
[0007]為達(dá)到上述目的,本發(fā)明采用的技術(shù)方案如下:
[0008]一種人體姿態(tài)基準(zhǔn)圖像庫(kù)的構(gòu)建方法,其關(guān)鍵在于具體步驟如下:
[0009]步驟1:將不同的人體姿態(tài)動(dòng)作按序構(gòu)建成誘導(dǎo)視頻游戲;
[0010]步驟2:玩家按照誘導(dǎo)視頻游戲執(zhí)行相應(yīng)的動(dòng)作,并利用圖像采集設(shè)備獲取玩家在預(yù)置時(shí)間點(diǎn)或預(yù)置事件處的姿態(tài)圖像;
[0011]步驟3:將不同玩家在相同時(shí)間點(diǎn)或相同事件處的姿態(tài)圖像分為一類;
[0012]步驟4:對(duì)同一類中的多個(gè)姿態(tài)圖像進(jìn)行特征提取和聚類分析,刪除置信度低的姿態(tài)圖像;
[0013]步驟5:將步驟4留下的置信度高的姿態(tài)圖像與誘導(dǎo)視頻中對(duì)應(yīng)時(shí)間點(diǎn)或?qū)?yīng)事件處的人體姿態(tài)動(dòng)作關(guān)聯(lián)并標(biāo)注,建立人體姿態(tài)基準(zhǔn)圖像庫(kù)。
[0014]通過(guò)在固定的時(shí)間點(diǎn)或事件處預(yù)置人體姿態(tài)動(dòng)作,建成誘導(dǎo)視頻游戲,然后選取大量的不同玩家依據(jù)目標(biāo)游戲提示進(jìn)行活動(dòng)的姿態(tài)圖像樣本。對(duì)于一個(gè)確定的時(shí)間點(diǎn)或事件,假設(shè)在所有的姿態(tài)圖像中,大多數(shù)玩家的動(dòng)作均是目標(biāo)游戲所要求的動(dòng)作,只有少部分人無(wú)意或者有意地做出了錯(cuò)誤的動(dòng)作。因此對(duì)該時(shí)間點(diǎn)或事件處的所有玩家的姿態(tài)圖像進(jìn)行特征提取和聚類操作,占據(jù)最大比例的動(dòng)作類被認(rèn)為是正確的動(dòng)作,剩余的占據(jù)較小比例的動(dòng)作類被認(rèn)作錯(cuò)誤的動(dòng)作,從而得出與人體姿態(tài)動(dòng)作對(duì)應(yīng)的大量姿勢(shì)圖片。以此類推,對(duì)于該目標(biāo)游戲的所有時(shí)間點(diǎn)或事件,聚類后得出的占據(jù)比例最大的姿勢(shì)類別被認(rèn)為是視頻游戲所要求的姿態(tài)圖像,最終生成一個(gè)包含不同種類人體姿態(tài)基準(zhǔn)圖像的數(shù)據(jù)庫(kù)。
[0015]本方法首先無(wú)需搜集大量人體姿勢(shì)圖片、再進(jìn)行人工篩選和標(biāo)定,節(jié)省了人力物力;其次,該方法是自包含的,不需要借助其他先驗(yàn)圖像庫(kù)進(jìn)行學(xué)習(xí)或訓(xùn)練以獲得初始分類器,簡(jiǎn)便而高效;再次,該方法并不試圖建立、也不依賴精確的識(shí)別模型和算法來(lái)識(shí)別或理解圖像中的具體人體姿態(tài),而是通過(guò)預(yù)置目標(biāo)、再聚類大集合的方式標(biāo)注目標(biāo)圖像庫(kù)。同時(shí),由于本方法的目的是建立正確的人體姿態(tài)數(shù)據(jù)庫(kù),即保證正樣本的正確性即可,因此可以放松聚類算法中通常對(duì)“低漏檢率”的要求,即允許漏檢部分正確姿態(tài)樣本,并不影響生成基準(zhǔn)圖像庫(kù)的正確性,降低了對(duì)聚類算法復(fù)雜度的要求。
[0016]進(jìn)一步的技術(shù)方案是,步驟2中的圖像采集設(shè)備為體感設(shè)備,該體感設(shè)備所獲取的姿態(tài)圖像為深度圖像。
[0017]更進(jìn)一步的技術(shù)方案是,步驟4中對(duì)同一類中的多個(gè)姿態(tài)圖像進(jìn)行特征提取和聚類分析的具體步驟如下:
[0018]步驟41:從深度圖像中提取人體骨架圖;
[0019]步驟42:提取人體骨架圖中各個(gè)關(guān)節(jié)點(diǎn)的位置坐標(biāo)或者相鄰骨架之間的角度值作為特征參數(shù);
[0020]步驟43:利用K均值聚類法對(duì)同一類中所有的姿態(tài)圖像進(jìn)行聚類分析,刪除置信度低的姿態(tài)圖像。
[0021]本發(fā)明的顯著效果是:(I)無(wú)需人工搜集人體姿勢(shì)圖片,然后再進(jìn)行人工篩選和標(biāo)定,節(jié)省了人力物力;(2)不需要借助其它先驗(yàn)圖像庫(kù)進(jìn)行學(xué)習(xí)或訓(xùn)練以獲得初始分類器,簡(jiǎn)便而高效;(3)不試圖建立、也不依賴精確的識(shí)別模型和算法來(lái)識(shí)別或理解圖像中的具體人體姿態(tài),而是通過(guò)預(yù)置目標(biāo)、再聚類大集合的方式標(biāo)注目標(biāo)圖像庫(kù);(4)由于只需保證樣本的正確性,放松了聚類算法中通常對(duì)“低漏檢率”的要求,降低了對(duì)聚類算法復(fù)雜度的要求。
【附圖說(shuō)明】
[0022]圖1是本發(fā)明的算法流程圖;
[0023]圖2是本發(fā)明中人體骨架
當(dāng)前第1頁(yè)1 2 
玛沁县| 庐江县| 和静县| 大埔县| 重庆市| 宜兰市| 惠东县| 普兰店市| 色达县| 衢州市| 红原县| 乐平市| 张家口市| 泾阳县| 沭阳县| 伊金霍洛旗| 班玛县| 琼结县| 德化县| 莱西市| 阳新县| 吉安市| 铜川市| 金溪县| 曲松县| 扎赉特旗| 会昌县| 沛县| 东平县| 石屏县| 石柱| 南岸区| 曲阜市| 临泉县| 大理市| 泽州县| 南木林县| 洮南市| 二连浩特市| 昆明市| 长葛市|