欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于圖像的車輛安全預警方法與流程

文檔序號:11951949閱讀:236來源:國知局
本發(fā)明涉及機器視覺,特別涉及一種基于圖像的車輛安全預警方法。
背景技術
:隨著交通運輸業(yè)快速發(fā)展的同時,道路交通安全問題日益突出,層出不窮的交通事故給社會造成巨大的經濟損失和人員生命損失,成為了新的社會不穩(wěn)定因素。機動車行駛安全狀態(tài)視覺預警系統(tǒng)有助于改善交通安全性和提高道路安全管理能力,并能夠對事故責任認定提供部分可視化證據。雖然機動車視覺安全預警技術已成為目前機動車安全設計的重點,但是現有的安全預警技術均存在一定的局限性。例如前車圖像識別方法忽略了機動車輪廓在圖像中所表現出的多方向特征信息,導致單一特征下局部有效鑒別信息的損失,未能較好地解決機動車識別過程中實時性與魯棒性之間的矛盾。在安全車距監(jiān)控中局限于前后車相對行駛速度的計算,沒有解決安全車距監(jiān)控決策中駕駛員主觀反應時間的作用、相鄰兩車相對行駛狀態(tài)的多變性等不確定性問題。技術實現要素:為解決上述現有技術所存在的問題,本發(fā)明提出了一種基于圖像的車輛安全預警方法,包括:獲取車載圖像,限定目標檢測與跟蹤區(qū)域,提取機動車樣本多方向特征,對提取的特征樣本訓練分類對前車進行定位。優(yōu)選地,所述限定目標檢測與跟蹤區(qū)域,進一步包括:根據車載圖像捕獲設備安裝位置的先驗知識約束搜索范圍,將前車檢測跟蹤區(qū)域由整幅圖像縮小到當前車道內,以車道線的聚點為中心,將機動車矩形檢測區(qū)域設置為左、右兩側車道線與矩形區(qū)域共同限定的內部區(qū)域;在確定的矩形檢測區(qū)域內,從道路圖像的底部自下而上分別計算每一行像素的平均亮度值,搜索出圖像中亮度均值突變最大的區(qū)域:G(r)=Σi=b(r)Lb(r)Rg(r,i)b(r)R+b(r)L+1]]>式中,G(r)為亮度均值;b(r)L為搜索區(qū)域內的第r行的左端像素坐標;b(r)R為搜索區(qū)域內的第r行的右端像素坐標;g(r,i)為像素點(r,i)的亮度值;在搜索區(qū)域內,將亮度均值G(r)產生階躍變化所在行的位置暫時設定已經探測到前車;若在整個搜索區(qū)域內沒有灰度均值的跳變,則認為當前檢測區(qū)域內不存在機動車;所述提取機動車樣本多方向特征,進一步包括:選擇如下濾波器:Φ(x,y)=ω0πkexp[-ω02k2((xcosθ+ysinθ)2+(-xsinθ+ycosθ)2)]*sin(ω0(xcosθ+ysinθ))]]>方向θ通過下面表達式進行選擇:θ=2kπ/n,k∈{0,1,2...n-1}式中,n為所采用的濾波器包含的角度的總數;ω0為預先確定的徑向中心頻率;將圖像I(x,y)與上述濾波器進行卷積,通過濾波器的尺度的變化得到不同尺度上的方向反應,從而形成8個方向;用小波變換系數W(x,y)反映機動車的圖像特征:W(x,y)=∫I(x1,y1)Φ(x,y)*(x-x1,y-y1)dxdy針對機動車樣本的8方向特征,通過分類器特征訓練形成一系列的簡單分類器,依據權重把這些簡單分類器組合成最終分類器;依據所得到的最終分類器,對車載圖像捕獲設備采集的道路圖像進行實時檢測與判斷,得到當前圖像中前車所在的位置。本發(fā)明相比現有技術,具有以下優(yōu)點:本發(fā)明提出了一種基于圖像的車輛安全預警方法,在機動車輪廓識別過程中,充分利用多方向特征信息,兼顧識別過程中的實時性與魯棒性,而在在安全車距監(jiān)控中,根據相鄰兩車相對行駛的速度多變性給出全面的考慮,提高了公共交通安全預警管理能力。附圖說明圖1是根據本發(fā)明實施例的基于圖像的車輛安全預警方法的流程圖。具體實施方式下文與圖示本發(fā)明原理的附圖一起提供對本發(fā)明一個或者多個實施例的詳細描述。結合這樣的實施例描述本發(fā)明,但是本發(fā)明不限于任何實施例。本發(fā)明的范圍僅由權利要求書限定,并且本發(fā)明涵蓋諸多替代、修改和等同物。在下文描述中闡述諸多具體細節(jié)以便提供對本發(fā)明的透徹理解。出于示例的目的而提供這些細節(jié),并且無這些具體細節(jié)中的一些或者所有細節(jié)也可以根據權利要求書實現本發(fā)明。本發(fā)明的一方面提供了一種基于圖像的車輛安全預警方法。圖1是根據本發(fā)明實施例的基于圖像的車輛安全預警方法流程圖。本發(fā)明在前車圖像識別中,融合對前車的先驗知識及其圖像中的表現特征,限定目標檢測與跟蹤區(qū)域,根據道路圖像亮度均值突變特征檢測提出前車存在性假設,提取機動車樣本多方向特征,對提取的特征樣本訓練分類,實現前車的準確定位,通過熵值正則化對稱度量驗證前車存在性假設,實現了機動車的檢測識別。結合改進的預測模型對機動車檢測結果進行動態(tài)實時跟蹤。在安全車距計算中,通過建立基于車道平面約束的車距測量模型,實現了相鄰前后車車距的精確測量,運用多傳感器從駕駛員反應特征、機動車反應特性和道路環(huán)境出發(fā),建立了多源信息融合的安全車距模型。根據車載圖像捕獲設備安裝位置的先驗知識約束搜索范圍,將前車檢測跟蹤區(qū)域由整幅圖像縮小到當前車道內,以車道線的聚點為中心,設置一個寬度為70像素,高度為50像素的矩形檢測區(qū)域,機動車檢測區(qū)域即為左、右兩側車道線與矩形區(qū)域共同限定的內部區(qū)域。在確定的矩形檢測區(qū)域內,從道路圖像的底部自下而上分別計算每一行像素的平均亮度值,搜索出圖像中亮度均值突變最大的區(qū)域,就能夠初步斷定道路圖像中是否可能存在機動車。G(r)=Σi=b(r)Lb(r)Rg(r,i)b(r)R+b(r)L+1]]>式中,G(r)為亮度均值;b(r)L為搜索區(qū)域內的第r行的左端像素坐標;b(r)R為搜索區(qū)域內的第r行的右端像素坐標;g(r,i)為像素點(r,i)的亮度值。在搜索區(qū)域內,亮度均值G(r)產生階躍變化所在行的位置,可能對應著機動車的最下邊緣,暫時設定已經探測到前車。若在整個搜索區(qū)域內沒有灰度均值的跳變,則認為當前檢測區(qū)域內不存在機動車。選擇如下濾波器:Φ(x,y)=ω0πkexp[-ω02k2((xcosθ+ysinθ)2+(-xsinθ+ycosθ)2)]*sin(ω0(xcosθ+ysinθ))]]>方向θ通過下面表達式進行選擇:θ=2kπ/n,k={0,1,2...n-1}式中,n為所采用的濾波器包含的角度的總數;ω0為預先確定的徑向中心頻率。將圖像I(x,y)與上述濾波器進行卷積,通過濾波器的尺度的變化得到不同尺度上的方向反應,從而形成8方向。用小波變換系數W(x,y)反映機動車的圖像特征。W(x,y)=∫I(x1,y1)Φ(x,y)*(x-x1,y-y1)dxdy給定機動車特征訓練樣本圖像(x1,y1),…,(xN,yN),yi∈{0,1},分別表示非車樣本和機動車樣本。則樣本的權值初始化過程如下:δi=1/2pyi=11/2qyi=0]]>式中,p為機動車樣本數量;q為非車樣本數量。在第t輪特征訓練中,(t=1,…,T,T為總迭代次數),對于每一個機動車樣本的8方向特征,構造簡單分類器ht∈[0,1];h(f(x),p,η)為:當pf(x)<pη時h=1,否則h=0;f(x)為像素x的特征值,η為預設閾值;p為極性函數。計算訓練樣本在ht中出現的分類錯誤率之和:εt=∑[ht(xi)-yi]2;選擇迭代誤差ε最小的簡單分類器ht;更新訓練樣本權值:即將εt更新為εtexp[-yiht(xi)],i=1,2,…,N,正則化權值:∑iεt=1;由T個簡單分類器線性組合輸出最終分類器:H(x)=sign(Σt=1Tht(x))]]>選擇簡單分類器,并基于特征值將訓練樣本分類。通過最終分類器選擇最優(yōu)閾值,利用該閾值區(qū)分機動車樣本和非車樣本。在離線訓練模塊,通過對在各種環(huán)境下采集到大量的機動車樣本和非車樣本的學習,針對機動車樣本的8方向特征,通過分類器特征訓練形成一系列的簡單分類器,依據權重把這些簡單分類器組合成最終分類器。在線識別模塊則依據離線訓練模塊得到的最終分類器,對車載圖像捕獲設備采集的道路圖像進行實時檢測與判斷,得到當前圖像中前車所在的位置。在進行對稱度量計算時,將水平中軸所在行亮度數據視為橫坐標的一維函數g(x),對稱軸取為矩形豎直中軸xs,寬度為矩形寬度w,以xs為中點,g(x)=g(xs+u)的奇分量O(u,xs,w)和偶分量E(u,xs,w)如下式所示:E(u,xs,w)=g(xs+u)/2+g(xs-u)/2-w/2≤u≤w/2O(u,xs,w)=g(xs+u)/2-g(xs-u)/2-w/2≤u≤w/2由能量函數計算對稱度量如下式所示:S(xs,w)=(Σu=-w/2w/2E2(u,xs,w)-Σu=-w/2w/2O2(u,xs,w))/(Σu=-w/2w/2E2(u,xs,w)+Σu=-w/2w/2O2(u,xs,w))]]>式中,xs為矩形豎直中軸;w為矩形寬度。當S(xs,w)=-1時,表示完全不對稱;S(xs,w)=1時,表示完全對稱。引用熵值正則化的對稱度量排除虛假機動車目標,對稱度量定義為:SYM=S(xs,w)/4Em其中Em為灰度圖像信息熵最大值,當SYM大于預定義閾值時,確定前方機動車存在。在進一步的實施例中,在單幀靜態(tài)圖像測距模型的基礎上,本發(fā)明根據道路幾何形態(tài)特征建立了一種的車距視覺測量模型。計算目標特征點P0與車載圖像捕獲設備的孔徑圓心C在車道平面內的投影位置即原點O的距離|OP0|為:|OP0|=|OP|2+|PP0|2]]>其中點P計算為|CP|=h/cosβ,β為車載圖像捕獲設備的俯仰角,h為車載圖像捕獲設備的離地高度。|OP|=h×tan(π/2-β+tan(C0-P’0)/f)C0為車載圖像捕獲設備的光軸與圖像平面交點,P’0為目標特征點P0在圖像平面內對應的像素點,f為焦距。|PP0|=h/cosβ·kL+μkR1+μP′0f(kL+μkR1+μ)2+1]]>kL、kR分別表示像素平面內左、右兩側車道線的斜率;系數通過計算點O和點P的距離|OP|以及點P0和點P的距離|PP0|,得到|OP0|即作為本車與前車之間的車距。本發(fā)明建立的多源信息融合的安全車距模型,通過對前后車行為狀態(tài)信息的視覺認知理解,估計前后車的相對速度以及車距。機動車在行駛過程中,駕駛員實施剎車時相鄰前后車的相對位置關系表示如下:Ls為前后車安全車距,Lh為本車剎車時間內的行駛距離,Lf為前車行駛距離,D0為兩車相對靜止時的固定安全車距。則安全車距Ls=Lh-Lf+D01.當前車靜止時,Lf為0,前后車的安全車距為:Ls=vh(te+tc+tz/2)+vh2/2ahmax+D0其中vh為本車速度,te為駕駛員反應時間,tc為制動系統(tǒng)協(xié)調時間,tz為減速時間,ahmax為本車最大剎車加速度。2.若前車以勻速行駛,Lf=vf(te+tc+tz/2+(vh-vf)abh);abh為本車剎車加速度。則前后車的安全車距為:Ls=vr(te+tc+tz/2)+vr2/2abh+D0其中vr為兩車相對速度,其獲取方法為:vr=(Li-Li+1)/Δt;Li與Li+1分別為時間間隔Δt前后由車載圖像捕獲設備通過上述過程測量得到的本車與前車的車距。3.若前車處于勻減速行駛時,分為本車車速高于、等于前車車速兩種情況。①本車車速高于前車車速時,前車的行駛距離為:Lf=(vf2-v’f2)2abf式中,v’f為前車減速過程中某一時刻瞬時速度;abf為前車剎車加速度,其計算方法為:abf=(vi+1f-vif)/Δt;vi+1f=(Li+2-Li+1)/Δt+vi+1hvif=(Li+1-Li)/Δt+vihLi,Li+1,Li+2分別為每間隔Δt測得的三次連續(xù)車距數值。vih,vi+1h為間隔Δt前后本車車速。本車駕駛員反應和剎車協(xié)調時間開始實施減速,其行駛距離為:Lh=vh(te+tc+tz/2)+(vh2-v’f2)/2abh此時,若兩車最大剎車加速度相同,則:Ls=Lh-Lf+D0=vh(te+tc+tz/2)+vr(2vh-vr)/2ahmax+D0②本車車速等于前車車速時,本車調整剎車加速度以維持與前車的跟隨狀態(tài),則安全車距為:Ls=vh(te+tc+tz/2)+(vf2/2)(1/abh-1/abf)+vf2/2abf+D0綜上所述,本發(fā)明提出了一種基于圖像的車輛安全預警方法,在機動車輪廓識別過程中,充分利用多方向特征信息,兼顧識別過程中的實時性與魯棒性,而在在安全車距監(jiān)控中,根據相鄰兩車相對行駛的速度多變性給出全面的考慮,提高了公共交通安全預警管理能力。顯然,本領域的技術人員應該理解,上述的本發(fā)明的各模塊或各步驟可以用通用的計算系統(tǒng)來實現,它們可以集中在單個的計算系統(tǒng)上,或者分布在多個計算系統(tǒng)所組成的網絡上,可選地,它們可以用計算系統(tǒng)可執(zhí)行的程序代碼來實現,從而,可以將它們存儲在存儲系統(tǒng)中由計算系統(tǒng)來執(zhí)行。這樣,本發(fā)明不限制于任何特定的硬件和軟件結合。應當理解的是,本發(fā)明的上述具體實施方式僅僅用于示例性說明或解釋本發(fā)明的原理,而不構成對本發(fā)明的限制。因此,在不偏離本發(fā)明的精神和范圍的情況下所做的任何修改、等同替換、改進等,均應包含在本發(fā)明的保護范圍之內。此外,本發(fā)明所附權利要求旨在涵蓋落入所附權利要求范圍和邊界、或者這種范圍和邊界的等同形式內的全部變化和修改例。當前第1頁1 2 3 
當前第1頁1 2 3 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
龙州县| 铁岭县| 侯马市| 正安县| 赣榆县| 芜湖市| 门头沟区| 上高县| 金秀| 阳山县| 邵阳县| 建水县| 灵武市| 台山市| 凤凰县| 太仓市| 吴忠市| 友谊县| 曲麻莱县| 随州市| 白沙| 丰台区| 安仁县| 镇平县| 会同县| 海伦市| 丽水市| 梨树县| 遂溪县| 长丰县| 五指山市| 泰来县| 乌鲁木齐市| 图们市| 阳信县| 铜川市| 天柱县| 子长县| 石柱| 什邡市| 南皮县|