欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

利用多檢測器對場景變化的視頻圖像進(jìn)行行人檢測的方法

文檔序號:8299411閱讀:666來源:國知局
利用多檢測器對場景變化的視頻圖像進(jìn)行行人檢測的方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明總體來說涉及計算機(jī)視覺和模式識別技術(shù)領(lǐng)域。更具體地講,涉及一種利 用多檢測器對場景變化的視頻圖像進(jìn)行行人檢測的方法。
【背景技術(shù)】
[0002] 行人檢測是智能視頻監(jiān)控領(lǐng)域比較重要的一個研宄方向,它是一種基于機(jī)器學(xué)習(xí) 的計算機(jī)視覺技術(shù),用于通過分析視頻場景中的行人、交通工具等其他運動物體來完成如 人數(shù)統(tǒng)計、行人跟蹤等任務(wù)。
[0003] 行人兼具剛性和柔性物體的特征,外觀易受穿著、尺度、遮擋、姿態(tài)和視角等影響, 這就使得行人檢測成為智能視頻監(jiān)控領(lǐng)域的研宄難點和熱點。行人檢測主要分為兩個環(huán) 節(jié),首先進(jìn)行特征提取,然后進(jìn)行分類與定位。其中,特征提取的方法主要有三類:(1)底層 特征提取方法,是一種單一特征,可利用積分圖快速計算,例如,HOG(方向梯度直方圖)等; (2)基于學(xué)習(xí)的特征,是一種從大量樣本中選擇判別能力較強(qiáng)的特征,例如,自適應(yīng)輪廓特 征等;(3)混合特征,是一種從不同側(cè)面刻畫圖像特征的方法,例如,C〇HOG(共生梯度方向 直方圖特征)等。此外,分類與定位方法主要有滑動窗口、SVM(支持向量機(jī))、Adab〇〇st(級 聯(lián)分類器)等。目前比較成熟的行人檢測方法是H0G+SVM(S卩:方向梯度直方圖特征結(jié)合支 持向量機(jī))。
[0004] 現(xiàn)有的行人檢測方案大都針對固定場景進(jìn)行行人檢測。如果使用一般場景下訓(xùn)練 好的行人檢測器來對一個特定場景下的視頻圖像進(jìn)行行人檢測時,會因為場景的不匹配, 而造成檢測過程中行人識別率下降的問題,這是由于新舊場景的樣本集分布特性不同,基 于舊場景樣本集訓(xùn)練得到的行人檢測器不能完全識別新場景的本征特征。如果場景是實時 變化的,更會出現(xiàn)行人檢測準(zhǔn)確率急劇下降的現(xiàn)象。
[0005] 通常,為了解決上述問題,可針對特定場景重新訓(xùn)練行人檢測器,但是,為了重新 訓(xùn)練行人檢測器而提取樣本需要花費大量的人工成本(例如,需要逐幀的手工裁切出行人 樣本)。此外,為了解決上述問題,還可采用迀移學(xué)習(xí)的方法自動訓(xùn)練變化場景中的特定場 景下的行人檢測器,這樣可以免去人工成本。此外,還可通過將行人檢測器賦予不同的權(quán)值 來提高行人檢測器的行人識別率。但是,這些方案依然只能解決固定場景的行人檢測問題, 不能解決在場景變化下行人檢測器的行人識別率低的問題。如果場景是實時變化的,還是 會出現(xiàn)行人檢測器檢測行人準(zhǔn)確率急劇下降的問題。而且,訓(xùn)練檢測器是一個串行的過程, 訓(xùn)練在前,檢測在后,目前還沒有訓(xùn)練和檢測同時進(jìn)行的方案。
[0006] 綜上所述,現(xiàn)有的在場景實時變化下的行人檢測方法不能滿足提高行人識別率和 降低人工成本的需求。

【發(fā)明內(nèi)容】

[0007] 本發(fā)明的示例性實施例在于提供一種利用多檢測器對場景變化的視頻圖像進(jìn)行 行人檢測的方法,以克服現(xiàn)有技術(shù)中在場景實時變化時行人識別率不理想的問題。
[0008] 本發(fā)明提供一種利用多檢測器對場景變化的視頻圖像進(jìn)行行人檢測的方法,包 括:(A)針對多個不同場景,分別獲取每個場景的場景背景模型,并分別訓(xùn)練出每個場景的 行人檢測器;(B)建立關(guān)于場景背景模型和行人檢測器的對應(yīng)關(guān)系集,其中,所述對應(yīng)關(guān)系 集包括多個對應(yīng)關(guān)系條目,每個對應(yīng)關(guān)系條目對應(yīng)于一個場景并包括所述一個場景的場景 背景模型和行人檢測器;(C)獲取場景變化的視頻圖像,將所述視頻圖像劃分為多個視頻 片段;(D)針對所述多個視頻片段中的每個視頻片段,獲取所述每個視頻片段的片段背景 模型,使用基于所述每個視頻片段的片段背景模型確定的行人檢測器來檢測所述每個視頻 片段中的行人,其中,針對所述多個視頻片段中的首個視頻片段,在所述對應(yīng)關(guān)系集中搜索 與首個視頻片段的片段背景模型最為接近的場景背景模型,并將與搜索到的場景背景模型 包括在同一對應(yīng)關(guān)系條目中的行人檢測器確定為用于檢測首個視頻片段中的行人的行人 檢測器;針對所述多個視頻片段中位于首個視頻片段之后的每個后續(xù)視頻片段,基于所述 每個后續(xù)視頻片段的片段背景模型與前一個視頻片段的片段背景模型之間的相似度來確 定用于檢測所述每個后續(xù)視頻片段中的行人的行人檢測器。
[0009] 可選地,所述每個后續(xù)視頻片段的片段背景模型與前一個視頻片段的片段背景模 型之間的相似度被表示為所述每個后續(xù)視頻片段的片段背景模型的灰度直方圖與所述前 一個視頻片段的片段背景模型的灰度直方圖之間的相似度。
[0010] 可選地,在所述相似度高于或等于預(yù)定閾值的情況下,將所述前一個視頻片段的 行人檢測器確定為用于檢測所述每個后續(xù)視頻片段中的行人的行人檢測器;在所述相似度 低于所述預(yù)定閾值的情況下,在所述對應(yīng)關(guān)系集中搜索與所述每個視頻片段的片段背景模 型最為接近的場景背景模型,并將與搜索到的場景背景模型包括在同一對應(yīng)關(guān)系條目中的 行人檢測器確定為用于檢測所述每個視頻片段中的行人的行人檢測器。
[0011] 可選地,步驟(A)包括:針對多個不同場景,利用運動下的背景建模算法分別獲取 每個場景的場景背景模型,并利用場景自適應(yīng)方法分別訓(xùn)練出每個場景的行人檢測器。
[0012] 可選地,所述運動下的背景建模算法為碼本背景建模算法或高斯混合模型背景建 模算法。
[0013] 可選地,所述場景自適應(yīng)方法為迀移學(xué)習(xí)方法或深度學(xué)習(xí)方法。
[0014] 可選地,在步驟(D)中,通過以下的等式來確定所述每個后續(xù)視頻片段的片段背 景模型的灰度直方圖與所述前一個視頻片段的片段背景模型的灰度直方圖之間的相似 度:
【主權(quán)項】
1. 一種利用多檢測器對場景變化的視頻圖像進(jìn)行行人檢測的方法,包括: (A) 針對多個不同場景,分別獲取每個場景的場景背景模型,并分別訓(xùn)練出每個場景的 行人檢測器; (B) 建立關(guān)于場景背景模型和行人檢測器的對應(yīng)關(guān)系集,其中,所述對應(yīng)關(guān)系集包括多 個對應(yīng)關(guān)系條目,每個對應(yīng)關(guān)系條目對應(yīng)于一個場景并包括所述一個場景的場景背景模型 和行人檢測器; (C) 獲取場景變化的視頻圖像,將所述視頻圖像劃分為多個視頻片段; (D) 針對所述多個視頻片段中的每個視頻片段,獲取所述每個視頻片段的片段背景模 型,使用基于所述每個視頻片段的片段背景模型確定的行人檢測器來檢測所述每個視頻片 段中的行人, 其中,針對所述多個視頻片段中的首個視頻片段,在所述對應(yīng)關(guān)系集中搜索與首個視 頻片段的片段背景模型最為接近的場景背景模型,并將與搜索到的場景背景模型包括在同 一對應(yīng)關(guān)系條目中的行人檢測器確定為用于檢測首個視頻片段中的行人的行人檢測器;針 對所述多個視頻片段中位于首個視頻片段之后的每個后續(xù)視頻片段,基于所述每個后續(xù)視 頻片段的片段背景模型與前一個視頻片段的片段背景模型之間的相似度來確定用于檢測 所述每個后續(xù)視頻片段中的行人的行人檢測器。
2. 如權(quán)利要求1所述的方法,其中,所述每個后續(xù)視頻片段的片段背景模型與前一個 視頻片段的片段背景模型之間的相似度被表示為所述每個后續(xù)視頻片段的片段背景模型 的灰度直方圖與所述前一個視頻片段的片段背景模型的灰度直方圖之間的相似度。
3. 如權(quán)利要求1所述的方法,其中,在所述相似度高于或等于預(yù)定閾值的情況下,將所 述前一個視頻片段的行人檢測器確定為用于檢測所述每個后續(xù)視頻片段中的行人的行人 檢測器;在所述相似度低于所述預(yù)定閾值的情況下,在所述對應(yīng)關(guān)系集中搜索與所述每個 視頻片段的片段背景模型最為接近的場景背景模型,并將與搜索到的場景背景模型包括在 同一對應(yīng)關(guān)系條目中的行人檢測器確定為用于檢測所述每個視頻片段中的行人的行人檢 測器。
4. 如權(quán)利要求1所述的方法,其中,步驟(A)包括:針對多個不同場景,利用運動下的 背景建模算法分別獲取每個場景的場景背景模型,并利用場景自適應(yīng)方法分別訓(xùn)練出每個 場景的行人檢測器。
5. 如權(quán)利要求4所述的方法,其中,所述運動下的背景建模算法為碼本背景建模算法 或高斯混合模型背景建模算法。
6. 如權(quán)利要求4所述的方法,其中,所述場景自適應(yīng)方法為迀移學(xué)習(xí)方法或深度學(xué)習(xí) 方法。
7. 如權(quán)利要求2所述的方法,其中,在步驟(D)中,通過以下的等式來確定所述每個后 續(xù)視頻片段的片段背景模型的灰度直方圖與所述前一個視頻片段的片段背景模型的灰度 直方圖之間的相似度:
其中,Sim(G,S)表示所述每個后續(xù)視頻片段的片段背景模型的灰度直方圖G與所述前 一個視頻片段的片段背景模型的灰度直方圖S之間的相似度,N表示標(biāo)準(zhǔn)片段背景模型的 灰度直方圖的灰度空間樣點數(shù),81表示灰度直方圖G中第i個樣點的灰度值,s1表示灰度 直方圖S中第i個樣點的灰度值,Max(gi,Si)表示gJPsi中的較大值。
8. 如權(quán)利要求1所述的方法,其中,所述每個場景的行人檢測器為基于所述每個場景 的場景背景模型的方向梯度直方圖特征訓(xùn)練得到的支持向量機(jī)。
9. 如權(quán)利要求1所述的方法,其中,步驟(A)包括:針對多個不同場景,分別獲取每個 場景的一個場景背景模型,并分別訓(xùn)練出每個場景的至少一個行人檢測器。
【專利摘要】提供一種利用多檢測器對場景變化的視頻圖像進(jìn)行行人檢測的方法,包括:(A)針對多個不同場景,分別獲取每個場景的場景背景模型,并分別訓(xùn)練出每個場景的行人檢測器;(B)建立關(guān)于場景背景模型和行人檢測器的對應(yīng)關(guān)系集;(C)獲取場景變化的視頻圖像,將所述視頻圖像劃分為多個視頻片段;(D)針對所述多個視頻片段中的每個視頻片段,獲取所述每個視頻片段的片段背景模型,使用基于所述每個視頻片段的片段背景模型確定的行人檢測器來檢測所述每個視頻片段中的行人。根據(jù)所述方法,能夠有效地提高場景變化時的行人識別率,并降低了人工成本。
【IPC分類】G06K9-62, G06K9-00
【公開號】CN104615986
【申請?zhí)枴緾N201510052209
【發(fā)明人】趙威, 馮圣中, 馮良炳
【申請人】中國科學(xué)院深圳先進(jìn)技術(shù)研究院
【公開日】2015年5月13日
【申請日】2015年1月30日
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
子洲县| 于田县| 汉川市| 延庆县| 贺州市| 都江堰市| 高邮市| 平原县| 江源县| 鲁甸县| 屏边| 乌鲁木齐县| 康平县| 中江县| 公主岭市| 鹿邑县| 通城县| 鄢陵县| 新乡县| 安庆市| 怀仁县| 靖远县| 福建省| 长沙县| 镇巴县| 建昌县| 巴林左旗| 曲麻莱县| 洞口县| 兴仁县| 呼图壁县| 涡阳县| 溆浦县| 类乌齐县| 买车| 桓仁| 青岛市| 商洛市| 屏边| 社会| 阜康市|