欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種連續(xù)記錄視頻、影像的內(nèi)容識別方法

文檔序號:9432579閱讀:612來源:國知局
一種連續(xù)記錄視頻、影像的內(nèi)容識別方法
【技術領域】
[0001]本發(fā)明涉及視頻識別方法,尤其是一種適用于連續(xù)記錄視頻、影像的內(nèi)容識別方法。
【背景技術】
[0002]隨著智能穿戴技術的發(fā)展,人們通過智能穿戴設備獲取的視頻也越來越多,在觀看這些記錄視頻時,需要對視頻進行搜索,對視頻的搜索通常需要對視頻進行識別。
[0003]在對視頻進行識別時,通常是利用單純的視頻場景分割方法來進行識別,或單純的人臉識別,已經(jīng)有成熟的多種算法,然而依然在持續(xù)發(fā)展改善,識別準確率低、效率低,且現(xiàn)有的分析算法不能對連續(xù)的視頻進行不間斷的識別,無法給人們帶來方便。

【發(fā)明內(nèi)容】

[0004]為了解決上述技術問題,本發(fā)明提供一種連續(xù)記錄視頻、影像的內(nèi)容識別方法,能夠更快捷準確地識別出視頻畫面中的場景特征與人臉特征。
[0005]為了實現(xiàn)上述目的,本發(fā)明所采用的技術方案是:
一種連續(xù)記錄視頻、影像的內(nèi)容識別方法,該方法包括,
從連續(xù)實時視頻中獲取視頻片段;
根據(jù)所述視頻片段進行畫面分割生成畫面片段;
對所述畫面片段提取特征信息,根據(jù)提取的特征信息進行至少包括場景識別和人臉識別的識別處理,分類得到相應的內(nèi)容片段并進行標記;
根據(jù)所述標記的內(nèi)容片段確定所對應的視頻片段并進行識別標記。
[0006]從經(jīng)過分割的畫面片段中提取圖像的特征信息進行識別,能有效降低識別判斷的出錯率,且能夠同時對場景和人臉進行識別處理,處理過程更高效。
[0007]優(yōu)選的,從連續(xù)實時視頻中獲取視頻片段的具體方法,包括:
對連續(xù)實時視頻進行等時間間隔提取N個關鍵幀,對于連續(xù)實時視頻中除提取的N個關鍵幀之外的視頻幀,相鄰關鍵幀之間的視頻幀以中心位置的視頻幀為代表,定義為中心幀;
將各中心幀與相近的關鍵幀分別進行對比確定相似度;
選取與關鍵幀相似度最低的中心幀,以該中心幀所對應的視頻幀作為提取的視頻片段。
[0008]上述的視頻片段進行畫面分割生成畫面片段的過程是依據(jù)對畫面內(nèi)容的變化情況進行判斷;
若判斷畫面的特征信息出現(xiàn)顯著的差異,則確定該畫面內(nèi)容變化的位置作為分割點,完成畫面分割;
若判斷畫面的特征信息持續(xù)出現(xiàn)相同的內(nèi)容,則確定該畫面內(nèi)容連續(xù)不變化,輸出該畫面內(nèi)容為畫面片段。
[0009]在對畫面內(nèi)容的變化情況進行判斷時,還結合由智能穿戴設備獲取的用戶的生理數(shù)據(jù)和位置信息進行比對,通過對所述特征信息的檢測,判斷分析用戶視頻內(nèi)容的行為。
[0010]在所述視頻片段完成畫面分割生成畫面片段后,建立片段文件,將生成的畫面片段保存在該片段文件中,具體地,將片段文件按標記順序命名區(qū)分開來,便于快速查找。
[0011]上述方法中,所述畫面的特征信息包括畫面的亮度、畫面的對比度、場景特征、人臉圖像中的至少一種。
[0012]該方法中,所述場景識別過程包括,根據(jù)從畫面片段中提取的特征信息進行場景分析運算,結合通過位置傳感器獲取的位置信息來判斷用戶所處的場景,并建立場景數(shù)據(jù)表進行記錄,當下一次從連續(xù)實時視頻中檢測到相同的特征信息時,直接從場景數(shù)據(jù)表中提取相應的位置信息。
[0013]該方法中,所述人臉識別過程包括,根據(jù)從畫面片段中提取人臉圖像進行人臉分析運算,從人臉圖像中提取關鍵點;根據(jù)所述關鍵點對所述人臉圖像進行校正,得到校正后的人臉圖像和校正后的關鍵點;對所述校正后的人臉圖像進行特征提取,得到特征點數(shù)據(jù)集合;在所述特征點數(shù)據(jù)集合中獲取所述校正后的關鍵點所在關鍵區(qū)域內(nèi)的特征點數(shù)據(jù),將所述關鍵區(qū)域內(nèi)的特征點數(shù)據(jù)組合成特征向量;根據(jù)所述特征向量進行人臉識別,并進行記錄。
[0014]根據(jù)所述場景識別和人臉識別建立社交指數(shù)因子表,用于記錄任意兩個人臉之間的因子數(shù)值,代表兩個人的關系親密度,建立社交指數(shù)因子表的過程包括,獲取所述兩個人之間的人物特性,根據(jù)所述兩個人臉之間的距離和相應的距離加權系數(shù),得到所述兩個人臉之間的關系指數(shù);利用所述兩個人臉之間的關系指數(shù),判斷所述兩個人臉的社交關系親密度;其中,所述人物特性包括人物的性別、年齡、種族、衣服、眼鏡信息、人臉在圖片中的位置、圖片的拍攝時間和連拍信息中的任意一個或任意多個組合。
[0015]該方法中,所述連續(xù)實時視頻通過智能穿戴設備進行記錄獲取,該內(nèi)容識別方法的處理過程在智能穿戴設備上完成,或者通過智能穿戴設備將連續(xù)實時視頻上傳至云端服務器,再由云端服務器對連續(xù)實時視頻進行內(nèi)容識別處理。
[0016]本發(fā)明的有益效果:該識別方法中,首先從連續(xù)實時視頻中獲取視頻片段,然后將視頻片段進行畫面分割并提取特征信息,根據(jù)提取的特征信息同時實現(xiàn)對場景和人臉進行識別處理,能夠避免非場景特征和人臉特征的干擾,有效提高識別判斷的準確率,識別后的視頻片段進行標記,即記錄下用戶的日常活動、場景等內(nèi)容,便于后續(xù)大數(shù)據(jù)的維護,通過智能識別能夠幫助用戶拓展社會關系。
【附圖說明】
[0017]下面結合附圖對本發(fā)明的【具體實施方式】做進一步的說明。
[0018]圖1是本發(fā)明的連續(xù)實時視頻內(nèi)容識別方法的流程圖;
圖2是本發(fā)明中場景識別的流程圖;
圖3是本發(fā)明中人臉識別的流程圖;
圖4是本發(fā)明中社交指數(shù)因子表的實施例。
【具體實施方式】
[0019]參照圖1-3,本發(fā)明提供的一種連續(xù)記錄視頻、影像的內(nèi)容識別方法,該方法包括,從連續(xù)實時視頻中獲取視頻片段;根據(jù)所述視頻片段進行畫面分割生成畫面片段;對所述畫面片段提取特征信息,根據(jù)提取的特征信息進行至少包括場景識別和人臉識別的識別處理,分類得到相應的內(nèi)容片段并進行標記;根據(jù)所述標記的內(nèi)容片段確定所對應的視頻片段并進行識別標記。
[0020]上述的方法步驟中,從連續(xù)實時視頻中獲取視頻片段的具體方法,包括對連續(xù)實時視頻進彳丁等時間間隔提取N個關鍵幀,對于連續(xù)實時視頻中除提取的N個關鍵幀之外的視頻幀,相鄰關鍵幀之間的視頻幀以中心位置的視頻幀為代表,定義為中心幀;將各中心幀與相近的關鍵幀分別進行對比確定相似度;選取與關鍵幀相似度最低的中心幀,以該中心幀所對應的視頻幀作為提取的視頻片段,從而完成視頻片段的提取,即實現(xiàn)將連續(xù)實時視頻轉(zhuǎn)化為視頻片段形式進行識別,有利于提高后續(xù)識別判斷的準確度。
[0021]該方法步驟中,視頻片段進行畫面分割生成畫面片段的過程是依據(jù)對畫面內(nèi)容的變化情況進行判斷,即對畫面內(nèi)容變化的持續(xù)識別;若判斷畫面的特征信息出現(xiàn)顯著的差異,則確定該畫面內(nèi)容變化的位置作為分割點,完成畫面分割;若判斷畫面的特征信息持續(xù)出現(xiàn)相同的內(nèi)容,則確定該畫面內(nèi)容連續(xù)不變化,輸出該畫面內(nèi)容為畫面片段,即在重復畫面內(nèi)容中選取其中之一的畫面為輸出的畫面片段,該畫面分割過程是基于視頻分割算法管理器調(diào)用多重分割算法進行畫面分割,其中分割過程選擇精準度較高的視頻片段進行分割。
[0022]在所述視頻片段完成畫面分割生成畫面片段后,建立片段文件,將生成的畫面片段進行標記并保存在片段文件中,具體地,將片段文件按標記順序命名區(qū)分開來,便于后續(xù)用戶進行快速查找。
[0023]上述方法中,采用的畫面的特征信息包括畫面的亮度、畫面的對比度、場景特征、人臉圖像中的至少一種。
[0024]其中,所述場景識別過程包括,根據(jù)從畫面片段中提取的特征信息進行場景分析運算,結合通過位置傳感器獲取的位置信息來判斷用戶所處的場景,并建立場景數(shù)據(jù)表進行記錄,當下一次從連續(xù)實時視頻中檢測到相同的特征信息時,直接從場景數(shù)據(jù)表中提取相應的位置信息。對場景的識別,比如用戶在閱讀、用餐,行走、會議、交談、駕駛、坐車、跑步、踢球等,這些各類日常的活動,
當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
家居| 浙江省| 林芝县| 台州市| 驻马店市| 南靖县| 弋阳县| 边坝县| 延津县| 黄石市| 岳西县| 建始县| 屯昌县| 汉寿县| 肇州县| 库车县| 碌曲县| 平邑县| 汪清县| 曲水县| 包头市| 高平市| 梓潼县| 乐亭县| 惠州市| 三原县| 双桥区| 剑阁县| 修水县| 安福县| 芜湖市| 津南区| 乐东| 南昌县| 辽阳市| 古田县| 宁夏| 石屏县| 噶尔县| 镇安县| 邻水|