欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于支持向量機的運動目標分類方法與流程

文檔序號:11143409閱讀:674來源:國知局
基于支持向量機的運動目標分類方法與制造工藝

本發(fā)明屬于電子技術領域,更進一步涉及圖像數(shù)據處理技術領域中的一種基于支持向量機的運動目標分類方法。本發(fā)明可用于對視頻圖像處理中的運動目標進行精確的分類,為后續(xù)的目標追蹤和識別提供可靠數(shù)據。



背景技術:

視頻中運動目標的分類在對視頻圖像分析研究中起著重要的作用,為后續(xù)的目標追蹤和行為分析等處理環(huán)節(jié)提供實時有效的結果和數(shù)據。

目前常用的運動目標分類方法有基于形狀特征的方法、基于運動特征的方法和基于學習的方法等,但到目前為止還不存在一個通用的方法?;谛螤钐卣鞯姆诸惙椒ǜ鶕繕说男螤钐卣鬟_到分類的效果,但他依賴于目標的完整提取,當背景復雜,運動目標模糊的情況下,形狀特征不能準確提取,分類精度不高。

目前有很多基于監(jiān)督學習的目標識別算法應用到運動目標分類識別中,基于支持向量機的運動目標分類是最簡單、使用最普遍的方法之一。

張壯署,蔡曉東在其發(fā)表的論文“監(jiān)控視頻中運動目標識別分類系統(tǒng)研究”(《電視技術》2012年23期第165-167頁)中公開了一種基于監(jiān)控視頻中運動目標識別分類算法。該算法通過提取視頻中運動目標的高階矩、長寬比和占空比,然后利用支持向量機來進行訓練識別分類。該方法存在的不足之處是,當運動目標比較模糊時,運動目標的形狀特征不明顯,導致分類精確度不高。

北京環(huán)境特性研究所申請的專利文件“一種基于視頻圖像的目標分類方法”(專利申請?zhí)?01510012901.7,公布號CN 104657741 A)公開了一種基于視頻圖像的運動目標分類方法。該方法的實現(xiàn)過程為,根據連續(xù)的視頻圖像進行監(jiān)控區(qū)域的背景學習,獲得監(jiān)控區(qū)域的當前背景圖形,根據當前背景圖像對當前視頻幀進行逐像素背景差分操作和圖像分割操作,形成目標圖像,從目標圖像中提取目標區(qū)域,對各個目標區(qū)域進行主成份分析,計算目標區(qū)域的矩形飽和度特征,根據矩形飽和度特征和預設的閾值,對目標區(qū)域進行分類。該方法存在的不足之處是,通過逐像素背景差分得到目標圖像,當背景復雜且存在背景運動干擾的情況下不能正確提取出運動目標。



技術實現(xiàn)要素:

本發(fā)明的目的在于克服上述已有技術的不足,提出一種基于支持向量機的運動目標分類方法,將彩色視頻圖像轉換成灰度圖像,采用混合高斯背景建模建立背景圖像,提取出視頻中的運動目標,對運動目標進行形態(tài)學濾波,再對處理過的運動目標進行邊緣,梯度,信息熵提取,訓練支持向量機,得到分類器模型,從而在保證環(huán)境多變的情況下有效的完成視頻運動目標的分類處理,提高了運動目標分類的精確度。

實現(xiàn)本發(fā)明目的的具體步驟如下:

(1)利用攝像頭讀取待分類運動目標的彩色紅綠藍RGB視頻;

(2)逐幀讀取待分類運動目標的彩色紅綠藍RGB視頻,得到彩色視頻幀圖像;

(3)在彩色視頻圖像中隨機讀取一幀圖像,得到一幀待處理彩色視頻圖像;

(4)預處理;

(4a)按照下式,計算待處理彩色視頻幀圖像轉換成灰度圖像中每一像素點的灰度值,將計算后的灰度值組成灰度圖像;

Grayi,j=0.299Ri,j+0.587Gi,j+0.114Bi,j

其中,Grayi,j表示灰度圖像中第i行,第j列像素點的灰度值,Ri,j表示彩色視頻幀圖像中第i行,第j列的像素點的紅色分量值,Gi,j表示彩色視頻幀圖像中第i行,第j列像素點的綠色分量值,Bi,j表示彩色視頻幀圖像中第i行,第j列像素點的藍色分量值;

(4b)采用混合高斯背景建模建立背景圖像,保存該混合高斯背景建模得到的最終背景圖像;

(4c)用灰度圖像減去最終背景圖像,得到運動目標圖像;

(4d)二值化運動目標圖像,得到二值化運動目標圖像;

(4e)對二值化運動目標圖像進行形態(tài)學濾波,得到濾波后的運動目標圖像;

(5)提取濾波后的運動目標圖像的邊緣、信源熵和梯度三個特征;

(5a)利用Canny算子,提取濾波后的運動目標圖像的邊緣強度,將所提取的邊緣強度作為邊緣強度特征值;

(5b)利用梯度強度公式,提取濾波后的運動目標圖像的梯度強度;

(5c)利用信源熵公式,提取濾波后的運動目標圖像的信源熵;

(6)判斷是否讀取完所有的彩色視頻幀圖像,若是,則執(zhí)行步驟(7),否則,執(zhí)行步驟(3);

(7)將所有運動目標圖像的特征組成目標特征集。

(8)用目標特征集訓練支持向量機;

(8a)將目標特征集均分為兩部分,一部分作為訓練特征集,一部分作為測試特征集;

(8b)將訓練特征集投入到支持向量機中訓練,得到檢測模型分類器;

(8c)將測試特征集放入檢測模型分類器中,得到與檢測模型分類器的分類模式對應的分類結果;

(9)輸出分類結果。

本發(fā)明與現(xiàn)有技術相比具有如下優(yōu)點:

第一,由于本發(fā)明通過使用運動目標圖像的邊緣、信源熵和梯度三個特征來訓練支持向量機,克服了現(xiàn)有技術中僅使用運動目標的形狀特征來訓練支持向量機,而該方法當運動目標比較模糊時,運動目標的形狀特征不明顯,分類精確度不高的缺點,使得本發(fā)明具有更加明顯的運動目標特征,達到精確分類的優(yōu)點。

第二,由于本發(fā)明采用了混合高斯背景建模建立背景圖像,對運動目標圖像進行形態(tài)學濾波來提取運動目標圖像,克服了現(xiàn)有技術通過逐像素背景差分得到目標圖像,而該方法當背景復雜且存在背景運動干擾的情況下,不能正確提取出運動目標的缺點,使得本發(fā)明具有減小了背景的干擾,使得提取的運動目標更加精確的優(yōu)點。

附圖說明

圖1為本發(fā)明的流程圖;

圖2為采用本發(fā)明與現(xiàn)有技術提取的運動目標仿真實驗對比圖;

圖3為本發(fā)明實測數(shù)據的分類結果示意圖。

具體實施方式

下面結合附圖,對本發(fā)明的具體實施步驟做進一步的詳細描述。

參照附圖1,本發(fā)明的具體步驟如下。

步驟1.利用攝像頭讀取待分類運動目標的彩色紅綠藍RGB視頻。

步驟2.逐幀讀取待分類運動目標的彩色紅綠藍RGB視頻,得到彩色視頻幀圖像。

步驟3.在彩色視頻圖像中隨機讀取一幀圖像,得到一幀待處理彩色視頻圖像。

步驟4.預處理。

按照下式,計算待處理彩色視頻幀圖像轉換成灰度圖像中每一像素點的灰度值,將計算后的灰度值組成灰度圖像。

Grayi,j=0.299Ri,j+0.587Gi,j+0.114Bi,j

其中,Grayi,j表示灰度圖像中第i行,第j列像素點的灰度值,Ri,j表示彩色視頻幀圖像中第i行,第j列的像素點的紅色分量值,Gi,j表示彩色視頻幀圖像中第i行,第j列像素點的綠色分量值,Bi,j表示彩色視頻幀圖像中第i行,第j列像素點的藍色分量值。

采用混合高斯背景建模建立背景圖像,保存該混合高斯背景建模得到的最終背景圖像。

采用混合高斯背景建模建立背景圖像的具體步驟如下:

第1步,在彩色視頻圖像中隨機讀取視頻圖像的一幀圖像,將所讀取的彩色視頻幀圖像作為參考幀圖像,用參考幀圖像初始化混合高斯背景模型,得到初始化背景圖像。

第2步,在彩色視頻幀圖像中讀取一幀沒有讀取過的彩色視頻幀,根據所讀取的彩色視頻幀圖像的像素點之間的關聯(lián)程度,對該彩色視頻幀圖像進行抖動預判斷和穩(wěn)健處理,得到處理后的彩色視頻幀圖像。

第3步,對比初始化背景圖像與處理后彩色視頻幀圖像的相似度,將初始化背景圖像與處理后彩色視頻幀圖像的相似度小于85%時的處理后彩色視頻幀圖像,作為參考幀圖像,將該參考幀圖像放入高斯模型中更新該高斯模型。

第4步,判斷是否讀取完所有的彩色視頻幀,若是,則執(zhí)行第5步,否則,執(zhí)行第2步。

第5步,將高斯模型更新后的最后一幅圖像作為最終背景圖像。

用灰度圖像減去最終背景圖像,得到運動目標圖像。

利用二值化運動目標圖像的公式,對運動目標圖像進行二值化,得到二值化運動目標圖像。

二值化運動目標圖像的公式如下:

其中,M(x,y)表示二值化運動目標圖像在像素點(x,y)的像素值,D(x,y)表示運動目標圖像在像素點(x,y)的像素值,x表示運動目標圖像的橫坐標,y表示運動目標圖像的縱坐標,T表示二值化的閾值,其大小為196個像素。

對二值化運動目標圖像進行形態(tài)學濾波,得到濾波后的運動目標圖像。

步驟5.提取濾波后的運動目標圖像的邊緣、信源熵和梯度三個特征。

利用Canny算子,提取濾波后的運動目標圖像的邊緣強度,將所提取的邊緣強度作為邊緣強度特征值。

利用Canny算子提取濾波后的運動目標圖像的邊緣強度,將所提取的邊緣強度作為邊緣強度特征值的具體步驟如下:

第1步,用濾波后的運動目標圖像與高斯平滑濾波器做卷積,得到卷積后圖像;

第2步,使用一階有限差分對卷積后圖像計算偏導數(shù),得到兩個陣列P和Q;

第3步,按照下式,計算卷積后圖像的邊緣強度M;

第4步,利用二分法,在[0,100]內選擇一個自然數(shù),將所選自然數(shù)作為Canny算子的閾值;

第5步,比較邊緣強度與Canny算子閾值的大小,將邊緣強度大于Canny算子閾值的邊緣強度作為邊緣強度特征值。

利用如下梯度強度公式,提取濾波后的運動目標圖像的梯度強度。

其中,E表示濾波后運動目標圖像的信源熵,∑表示求和操作,N表示濾波后運動目標圖像的像素點總數(shù),p(n)表示濾波后運動目標圖像的第n個像素點對應灰度值的概率,log2表示以2為底的對數(shù)操作。

利用如下信源熵公式,提取濾波后的運動目標圖像的信源熵。

其中,||Δf||2表示濾波后運動目標圖像的梯度強度,表示平方根操作,Gu表示濾波后的運動目標圖像水平方向的梯度幅值,Gv表示濾波后的運動目標圖像垂直方向的梯度幅值,表示求偏導操作,f表示濾波后運動目標圖像的信息量,u表示濾波后的運動目標圖像空間的橫坐標的坐標值,v表示濾波后的運動目標圖像空間的縱坐標坐標值。

步驟6.判斷是否讀取完所有的彩色視頻幀圖像,若是,則執(zhí)行步驟7,否則,執(zhí)行步驟3。

步驟7.將所有運動目標圖像的特征組成目標特征集。

步驟8.用目標特征集訓練支持向量機。

將目標特征集均分為兩部分,一部分作為訓練特征集,一部分作為測試特征集。

將訓練特征集投入到支持向量機中訓練,得到檢測模型分類器。

將測試特征集放入檢測模型分類器中,得到與檢測模型分類器的分類模式對應的分類結果。

步驟9.輸出分類結果。

下面結合附圖2對本發(fā)明的仿真效果做進一步的描述。

1.仿真實驗的條件:

在CPU為core 3.06GHZ、內存2G、WINDOWS XP系統(tǒng)上使用Microsoft Visual C++6.0編程環(huán)境進行仿真。

2.仿真實驗的內容結果分析:

用本發(fā)明方法和現(xiàn)有的運動目標分類方法分別對采集的視頻進行仿真,并比較其效果。本發(fā)明的仿真實驗是采用本發(fā)明方法和現(xiàn)有技術的方法分別對實際場景的視頻做處理。提取的運動目標對比結果如圖2所示,其中圖2(a)為逐像素背景差分算法提取的白天的運動目標;圖2(b)為逐像素背景差分算法提取的夜晚的運動目標;圖2(c)為本發(fā)明提取的白天的運動目標;圖2(d)為逐像素背景差分算法提取的夜晚的運動目標。通過圖2可見,像素背景差分算法提取的運動目標中包含了人的陰影,本發(fā)明提取的運動目標明顯優(yōu)于像素背景差分算法提取的運動目標。從圖2仿真實驗結果可以看出,采用高斯背景建模建立背景提取運動目標的方法,能夠在保護運動目標完整性的前提下,避免復雜背景的影響,有效地提取出精確的運動目標,完整且較精確的運動目標可以使得分類更加精確。

通過本發(fā)明方法和現(xiàn)有方法對數(shù)據庫中的10個視頻中的運動目標進行分類,本次實驗將目標分為人和其他運動目標,經過分類結果與真實運動目標的類型做比較,統(tǒng)計分類結果的正確率。據統(tǒng)計,本發(fā)明的分類準確率為96.76%,現(xiàn)有方法的分類準確率為95.98%。由此可以看出,本發(fā)明比現(xiàn)有方法能夠獲得更高的分類準確率。

當前第1頁1 2 3 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
巨鹿县| 湖北省| 景宁| 日照市| 江西省| 白银市| 凌海市| 喜德县| 社旗县| 兴文县| 南康市| 青田县| 桐庐县| 双城市| 兴化市| 芷江| 崇文区| 定西市| 宜都市| 永康市| 兰州市| 黑河市| 梅河口市| 商都县| 安龙县| 安顺市| 桓仁| 抚松县| 页游| 利川市| 蛟河市| 曲靖市| 邹平县| 湘潭县| 盐源县| 乌兰县| 上犹县| 邢台县| 台前县| 旅游| 漠河县|