本發(fā)明涉及智能交通,特別涉及基于信創(chuàng)環(huán)境的交通視頻ai智能分析方法。
背景技術:
1、傳統交通監(jiān)控手段已難以滿足高效、精準的管理需求。現關于交通數據分析,公開號為:cn113570846b的專利申請公開了一種交通警情態(tài)勢分析研判方法、設備及可讀存儲介質,包括以下步驟:s1.獲取交通數據,s2.清洗所述交通數據,剔除異常數據;s3.采用tlbo算法改進fcm聚類算法;s4.使用改進后的fcm聚類算法計算所述交通流速度的模糊等級區(qū)間劃分結果;s5.建立警情態(tài)勢分析研判決策多屬性區(qū)間數;s6.計算警情態(tài)勢分析研判指標權重;s7.計算警情態(tài)勢綜合分析研判指數。通過城市道路上的檢測器與移動警務終端獲取交通流、天氣、事故等與警情相關的數據,分析出城市道路當前的警情態(tài)勢,形成具有實際指導意義的研判結果。
2、上述專利雖然提高了有助于提高城市道路交通管理的主動防控能力,但事故數據的處理涉及多個步驟,較為復雜,容易引入誤差,影響交通參與者識別的精確性,且固定的平滑系數無法適應動態(tài)交通數據的預測。
技術實現思路
1、本發(fā)明的目的在于提供基于信創(chuàng)環(huán)境的交通視頻ai智能分析方法,通過對車輛、行人等進行精確識別和分類,分析交通參與者的行為模式和運動軌跡,及時發(fā)現潛在的交通事故風險,并采取措施預防,提高了對緊急情況的響應速度,根據預測結果調整交通流量、信號燈配時,有效緩解交通擁堵,提高道路通行效率,為城市交通規(guī)劃提供依據,提高城市規(guī)劃的合理性,以解決上述背景技術中提出的問題。
2、為實現上述目的,本發(fā)明提供如下技術方案,
3、基于信創(chuàng)環(huán)境的交通視頻ai智能分析方法,包括以下步驟:
4、步驟一:交通視頻采集與處理:基于安裝在交通要道的攝像頭實時采集交通視頻數據,并對采集到的交通視頻數據進行預處理,對預處理后的交通視頻數據進行分幀處理;
5、其中,對采集到的交通視頻數據進行預處理,包括:
6、按照預設的單位時間長度對交通視頻數據進行分割,獲取多個單位時間長度對應的視頻;其中,所述單位時間長度的取值范圍為10s-30s;
7、對每個單位時間長度對應的視頻進行幀處理,獲取所述每個單位時間長度所包含的幀圖像組;
8、針對每個幀圖像組中的每個幀圖像獲取灰度平衡指標系數;
9、其中,所述灰度平衡指標系數通過如下公式獲?。?/p>
10、;
11、其中,k表示灰度平衡指標系數;n表示每個幀圖像所包含的像素點的個數;hi表示每個幀圖像的第i個像素點對應的灰度值;hi-1表示每個幀圖像的第i-1個像素點對應的灰度值;hz表示每個幀圖像的灰度中間值;hm表示每個幀圖像組中所包含的所有幀圖像的灰度中間值的最大值;hmp表示每個幀圖像組中所包含的所有幀圖像的灰度中間值的平均值;m表示每個幀圖像組所包含的幀圖像的個數;hbj表示每個幀圖像組的第j個幀圖像的灰度標準差;hbj-1表示每個幀圖像組的第j-1個幀圖像的灰度標準差;
12、將所述每個幀圖像組中的灰度平衡指標系數最大值所對應的幀圖像作為目標幀圖像;
13、利用所述每個幀圖像組對應的目標幀圖像對所述采集到的交通視頻數據進行對比度調整;
14、步驟二:目標檢測與識別:基于分幀處理結果對每幀圖像數據進行目標檢測,基于目標檢測結果對識別出的目標分析對象進行分類,并提取出每類目標分析對象的特征信息;
15、步驟三:交通預測與調度:基于每類目標分析對象的特征信息分析監(jiān)控區(qū)域內交通預測的關鍵指標,建立交通預測模型,預測未來一段時間內監(jiān)控區(qū)域的交通狀況,根據預測結果匹配對應的調度方案;
16、步驟四:行為分析與異常報警:基于每幀圖像數據的時間序列,結合交通狀況預測結果對識別出的目標分析對象進行行為分析,并基于分析結果對目標分析對象進行異常行為檢測,當檢測到異常行為時,立即觸發(fā)報警機制。
17、進一步的,利用所述每個幀圖像組對應的目標幀圖像對所述采集到的交通視頻數據進行對比度調整,包括:
18、提取每個幀圖像組對應的目標幀圖像及其對應的灰度平衡指標系數;
19、利用每個所述目標幀圖像所對應的灰度平衡指標系數獲取第一對比度調節(jié)系數;
20、其中,所述第一對比度調節(jié)系數通過如下公式獲?。?/p>
21、;
22、其中,j01表示第一對比度調節(jié)系數;k表示幀圖像組的總個數;ki表示第i組幀圖像組對應的灰度平衡指標系數;kc表示預設的灰度平衡指標系數參考值;kp表示k組幀圖像組對應的灰度平衡指標系數平均值;kz表示k組幀圖像組對應的灰度平衡指標系數中間值;kb表示k組幀圖像組對應的灰度平衡指標系數標準差;
23、利用所述第一對比度調節(jié)系數結合每個所述目標幀圖像所對應的中心灰度值對所述采集到的交通視頻數據進行對比度調整。
24、進一步的,利用所述第一對比度調節(jié)系數結合每個所述目標幀圖像所對應的中心灰度值對所述采集到的交通視頻數據進行對比度調整,包括:
25、提取每個所述目標幀圖像所對應的中心灰度值;
26、利用每個所述目標幀圖像所對應的中心灰度值獲取第二對比度調節(jié)系數;
27、其中,所述第二對比度調節(jié)系數通過如下公式獲取:
28、;
29、其中,j02表示第二對比度調節(jié)系數;k表示幀圖像組的總個數;hfi表示第i個幀圖像組的目標幀圖像所對應的中心灰度值;hfi-1表示第i-1個幀圖像組的目標幀圖像所對應的中心灰度值;hfb表示k組幀圖像組對應的中心灰度值中間值;hbp表示所有幀圖像對應的灰度標準差平均值;
30、調取第一對比度調節(jié)系數;
31、利用所述第一對比度調節(jié)系數和第二對比度調節(jié)系數獲取交通視頻數據的對比度調節(jié)系數;其中,所述對比度調節(jié)系數通過如下公式獲?。?/p>
32、;
33、其中,j表示對比度調節(jié)系數;j01表示第一對比度調節(jié)系數;j02表示第二對比度調節(jié)系數;
34、利用所述對比度調節(jié)系數對交通視頻數據進行對比度調整,獲得對比度調節(jié)后的交通視頻數據,其中,調整后的對比度通過如下公式獲?。?/p>
35、;
36、其中,dt表示調整后的對比度;d表示調整前的對比度;j表示對比度調節(jié)系數。
37、進一步的,所述步驟一中,對預處理后的交通視頻數據進行分幀處理,包括:
38、采集交通視頻數據中的亮度數據,并根據所述亮度數據確定交通視頻數據的亮度補償系數,匹配對應的亮度補償函數,基于亮度補償函數對交通視頻數據進行亮度補償;
39、將亮度補償后的交通視頻數據分解為單獨的幀圖像,確保分幀處理后的每一幀圖像都帶有唯一的時間戳;
40、對分幀后的圖像進行幀率調整,并將調整后的圖像調整到統一的尺寸和比例。
41、進一步的,所述步驟二中,對每幀圖像數據進行目標檢測,包括:
42、建立目標檢測模型,將預處理后的每幀圖像作為輸入數據傳遞至所述目標檢測模型中,目標檢測模型對所述輸入數據進行特征點提取,根據提取結果確定每幀圖像的目標位置特征;
43、基于每幀圖像的目標位置特征確定該位置中特征點的目標類型并進行類別標簽標記,輸出目標檢測結果,基于目標檢測結果提取對應的特征向量。
44、進一步的,所述步驟二中,對識別出的目標分析對象進行分類,包括:
45、對每幀圖像的特征點提取結果進行對比,選擇出在每幀圖像中均出現的目標特征點,確定每幀圖像對比的重合率高的特征點,并將特征點進行分類,基于分類結果與特征數據庫一一匹配,建立對應的目標分析對象標簽;
46、其中,特征數據庫包括車輛特征、行人特征和交通環(huán)境特征;
47、將每幀圖像的特征點提取結果作為模型輸入樣本,同時將車輛特征、行人特征和環(huán)境特征作為模型輸出樣本訓練預設網絡模型,建立每個特征類別對應的特征識別模型。
48、進一步的,提取出每類目標分析對象的特征信息,具體為:
49、利用每個特征類別對應的特征識別模型獲取每幀圖像中每個目標分析對象,根據每個目標分析對象的特征向量獲取每個目標分析對象的特征信息;
50、分析每個目標分析對象的的特征信息在連續(xù)幀中的變化情況,根據所述變化情況確定每個目標分析對象的動態(tài)行為規(guī)則;
51、將動態(tài)行為規(guī)則相似度大于等于預設閾值的目標分析對象確認為同類目標分析對象,將每類目標分析對象中任一目標分析對象的特征信息確認為該類目標分析對象的最終特征信息。
52、進一步的,所述步驟三中交通預測與調度,具體為:
53、提取的每類目標分析對象的特征信息進行整合形成統一的數據集,并從所述數據集中提取對交通預測影響對應的交通數據;
54、獲取歷史交通數據對構建的交通預測模型進行訓練,將訓練好的交通預測模型對未來一段時間內的交通狀況進行預測,輸出關鍵指標;
55、同時,根據預測結果,制定相應的交通調度方案。
56、進一步的,所述步驟四中對識別出的目標分析對象進行行為分析,具體為:
57、基于目標分析對象的特征點提取結果在每幀圖像中進行篩選,基于篩選結果獲取均出現目標分析對象的圖像數據;
58、基于圖像數據的時間戳的時間序列對圖像數據進行排列,獲取該目標分析對象的動態(tài)數據;
59、將所述動態(tài)數據劃分為若干個時間數據段,分別在每一個時間數據段中獲取每個目標分析對象的移動位置;
60、獲取同一目標分析對象的初始位置和每一時間數據段對應的移動位置,建立移動軌跡,根據所述移動軌跡計算每個目標分析對象在時間數據段內的總移動距離和平均移動速度,生成每個目標分析對象的移動特征;
61、同時,在每個時間數據段中判斷目標分析對象是否在同一位置停留超過預設的停頓時間閾值,并記錄該位置和停留時間,生成該目標分析對象的停頓特征;
62、獲取每個目標分析對象對應的停頓特征所在的目標時間數據段,同時基于所述目標時間數據段在動態(tài)數據中的時間序列,判斷是否存在多個目標分析對象在同一時間段內停頓,確定目標分析對象之間的交互特征;
63、根據每個目標分析對象的移動特征和交互特征建立目標分析對象的位置特征數據集,分析所述位置特征數據集包含的目標分析對象行為模式。
64、進一步的,對目標分析對象進行異常行為檢測,具體為:
65、建立每類目標分析對象正常行為的基準模型,確定正常行為參數的閾值;
66、將所述目標分析對象行為模式與正常行為模式進行對比,對比當前行為模式包括的移動特征、停頓特征和交互特征與正常行為參數閾值的差異;
67、當比對結果為目標分析對象的行為模式包括的各特征超出正常行為參數閾值范圍時,標記為潛在異常;
68、對標記為潛在異常的行為進行異常分析,計算出目標分析對象的異常行為系數,確認所述異常行為系數是否大于預設系數,若是,則基于異常行為獲取目標分析對象的多幀異常行為圖像數據;
69、結合交通視頻數據對多幀異常行為圖像數據進行人工復核,一旦異常行為被確認,立即觸發(fā)報警機制。
70、與現有技術相比,本發(fā)明的有益效果是,
71、通過實時采集和處理交通視頻數據,實現了車輛、行人等交通參與者的精確識別與分類,提高了監(jiān)控效率,通過分析行為模式和運動軌跡,預測交通狀況,并自動檢測異常行為,及時觸發(fā)報警,有效預防交通事故,優(yōu)化交通管理,減少了人工監(jiān)控需求,降低了誤報率,提升了系統可靠性,同時為交通規(guī)劃和基礎設施改善提供了數據支持,推動了智能交通系統的進步,保障了交通安全,提高了道路通行效率。