本發(fā)明涉及圖像處理、模式識和自動化技術(shù)領(lǐng)域,尤其涉及基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng)及方法。
背景技術(shù):
疲勞駕駛是導(dǎo)致高交通事故中比較重要的因素,因而如何高效、準(zhǔn)確、快速的檢測駕駛員是否在疲勞駕駛,并在已知疲勞駕駛的情況下如何防止,就顯得尤為重要。
目前檢測疲勞駕駛的技術(shù)手段主要是通過機器視覺的方式,主要檢測眼睛或嘴巴的運動狀態(tài)(是否閉合、張開等狀態(tài)),通過某種狀態(tài)機判斷當(dāng)前是否是疲勞駕駛狀態(tài);由于受駕駛艙環(huán)境光照等復(fù)雜多變的因素影響,導(dǎo)致檢測眼睛或嘴巴的位置定位不夠準(zhǔn)確,結(jié)果會導(dǎo)致估計眼睛或嘴巴的運動狀態(tài)不夠精確,導(dǎo)致無檢測概率比較大,而且對檢測到的疲勞駕駛狀態(tài)都是通過語音進行報警,這樣從本質(zhì)上沒有制止疲勞駕駛帶來的交通事故。
技術(shù)實現(xiàn)要素:
針對上述問題中存在的不足之處,本發(fā)明提供一種基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng)及方法。
為實現(xiàn)上述目的,本發(fā)明的第一目的在于提供一種基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng),包括:設(shè)置在駕駛員前方的智能設(shè)備、車載中控臺和安裝在駕駛員座椅上的振動反饋裝置;
所述智能設(shè)備包括:
左攝像頭,用于拍攝包含眼睛和嘴巴的左圖像數(shù)據(jù);
右攝像頭,用于拍攝包含眼睛和嘴巴的右圖像數(shù)據(jù);
處理器,用于對左右圖像數(shù)據(jù)進行濾波、ROI區(qū)域提取、深度計算,獲取ROI區(qū)域的深度圖像;將深度圖像送入到離線訓(xùn)練得到的眼睛、嘴巴識別模型中,獲取眼睛和嘴巴圖像區(qū)域;對眼睛和嘴巴圖像區(qū)域進行邊緣點檢測,計算沿眼睛或嘴巴閉合方向上相對應(yīng)兩邊緣點的最大距離,作為眼睛關(guān)鍵距離和嘴巴關(guān)鍵距離;判斷眼睛關(guān)鍵距離是否小于閾值T1、嘴巴關(guān)鍵距離是否大于閾值T2,若是,則證明眼睛閉合、嘴巴張開;繼續(xù)判斷在預(yù)設(shè)時間A內(nèi),眼睛閉合和/或嘴巴張開的時間是否達到報警閾值;若達到,則向車載中控臺發(fā)送報警指令;
車載中控臺接收報警指令,控制振動反饋裝置振動,實現(xiàn)對駕駛員的提醒。
作為本發(fā)明的進一步改進,所述處理器包括:
濾波模塊,用于對左右圖像數(shù)據(jù)分別進行高斯平滑濾波,平滑窗口為7*7;
ROI區(qū)域提取模塊,用于對濾波后的左右圖像數(shù)據(jù),提取包含眼睛和嘴巴信息的左ROI區(qū)域和右ROI區(qū)域;
深度圖像獲取模塊,用于利用雙目攝像頭的標(biāo)定參數(shù)及雙目成像原理,對左右ROI區(qū)域進行深度計算,獲取ROI區(qū)域的深度圖像;
識別模型建立模塊,用于對采集的大樣本進行半監(jiān)督隨機森林學(xué)習(xí),人工對大樣本ROI區(qū)域中駕駛員的眼睛和嘴巴進行分類,建立眼睛、嘴巴的識別模型;該樣本包括:嘴巴的張開及閉合、眼睛的張開及閉合;
識別模塊,用于將ROI區(qū)域的深度圖像送入到識別模型中,進行像素分類,獲取眼睛和嘴巴圖像區(qū)域;并對眼睛和嘴巴圖像區(qū)域分別進行PCA計算,獲取眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向;
邊緣檢測模塊,用于對眼睛和嘴巴圖像區(qū)域分別進行邊緣檢測,將檢測到的邊緣點按照順時針或逆時針進行排序,得到由邊緣點組成的眼睛輪廓和嘴巴輪廓;根據(jù)眼睛和嘴巴輪廓以及眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向,得到眼睛分割線和嘴巴分割線,計算眼睛分割線或嘴巴分割線兩側(cè)相對應(yīng)的眼睛邊緣點或嘴巴邊緣點之間的最大距離,作為眼睛關(guān)鍵距離和嘴巴關(guān)鍵距離;
判斷模塊,用于判斷眼睛關(guān)鍵距離是否小于閾值T1、嘴巴關(guān)鍵距離是否大于閾值T2,若是,則證明眼睛閉合、嘴巴張開;繼續(xù)判斷在預(yù)設(shè)時間A內(nèi),眼睛閉合和/或嘴巴張開的時間是否達到報警閾值;若達到,則向車載中控臺發(fā)送報警指令。
作為本發(fā)明的進一步改進,所述報警閾值為A1、A2、A3,其中:0<A1<A2<A3<A;
當(dāng)眼睛閉合和/或嘴巴張開的時間大于A1且小于A2,則處理器向車載中控臺發(fā)送振動模式1的報警指令,振動模式1為慢速振動;
當(dāng)眼睛閉合和/或嘴巴張開的時間大于A2且小于A3,則處理器向車載中控臺發(fā)送振動模式2的報警指令,振動模式2為中速振動;
當(dāng)眼睛閉合和/或嘴巴張開的時間大于A3且小于A,則處理器向車載中控臺發(fā)送振動模式3的報警指令,振動模式3為快速振動。
作為本發(fā)明的進一步改進,所述智能設(shè)備安裝在駕駛員前方的儀表盤上。
作為本發(fā)明的進一步改進,所述車載中控臺與處理器、振動反饋裝置的數(shù)據(jù)傳輸形式均采用藍(lán)牙傳輸。
本發(fā)明的第二目的在于提供一種基于雙目攝像頭的安全作業(yè)智能監(jiān)控方法,包括:
步驟1、輸入雙目攝像頭采集的左圖像數(shù)據(jù)和右圖像數(shù)據(jù);
步驟2、對左右圖像數(shù)據(jù)分別進行高斯平滑濾波,平滑窗口為7*7;
步驟3、對濾波后的左右圖像數(shù)據(jù),提取包含眼睛和嘴巴信息的左ROI區(qū)域和右ROI區(qū)域;
步驟4、利用雙目攝像頭的標(biāo)定參數(shù)及雙目成像原理,對左右ROI區(qū)域進行深度計算,獲取ROI區(qū)域的深度圖像;
步驟5、將深度圖像送入到離線訓(xùn)練得到的眼睛、嘴巴識別模型中,進行像素分類,獲取眼睛和嘴巴圖像區(qū)域;
步驟6、對眼睛和嘴巴圖像區(qū)域分別進行PCA計算,獲取眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向;
步驟7、對眼睛和嘴巴圖像區(qū)域分別進行邊緣檢測,將檢測到的邊緣點按照順時針或逆時針進行排序,得到由邊緣點組成的眼睛輪廓和嘴巴輪廓;
步驟8、根據(jù)眼睛和嘴巴輪廓以及眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向,得到眼睛分割線和嘴巴分割線;
步驟9、計算眼睛分割線或嘴巴分割線兩側(cè)相對應(yīng)的眼睛邊緣點或嘴巴邊緣點之間的最大距離,作為眼睛關(guān)鍵距離和嘴巴關(guān)鍵距離;
步驟10、判斷眼睛關(guān)鍵距離是否小于閾值T1、嘴巴關(guān)鍵距離是否大于閾值T2,若是,則證明眼睛閉合、嘴巴張開,跳至步驟11;
步驟11、判斷在預(yù)設(shè)時間A內(nèi),眼睛閉合和/或嘴巴張開的時間是否達到報警閾值;若達到,則向車載中控臺發(fā)送報警指令;
步驟12、車載中控臺接收報警指令,控制振動反饋裝置振動,實現(xiàn)對駕駛員的提醒。
作為本發(fā)明的進一步改進,在步驟5中,所述識別模型的建立方法為:
步驟51、采集大樣本數(shù)據(jù);
步驟52、依據(jù)步驟1-4,獲取每個樣本ROI區(qū)域的深度圖像;
步驟53、通過半監(jiān)督隨機森林學(xué)習(xí)法,人工對大樣本ROI深度圖像中駕駛員的眼睛和嘴巴進行分類,建立眼睛、嘴巴的識別模型;該樣本包括:嘴巴的張開及閉合、眼睛的張開及閉合。
作為本發(fā)明的進一步改進,在步驟53中,半監(jiān)督隨機森林的參數(shù)設(shè)計為:
樹的個數(shù):200,二叉樹的深度:100,每層樹的最佳分割候選點個數(shù):4,預(yù)測精度:0.001。
作為本發(fā)明的進一步改進,在步驟11中,所述報警閾值為A1、A2、A3,其中:0<A1<A2<A3<A;
當(dāng)眼睛閉合和/或嘴巴張開的時間大于A1且小于A2,則處理器向車載中控臺發(fā)送振動模式1的報警指令,振動模式1為慢速振動;
當(dāng)眼睛閉合和/或嘴巴張開的時間大于A2且小于A3,則處理器向車載中控臺發(fā)送振動模式2的報警指令,振動模式2為中速振動;
當(dāng)眼睛閉合和/或嘴巴張開的時間大于A3且小于A,則處理器向車載中控臺發(fā)送振動模式3的報警指令,振動模式3為快速振動。
作為本發(fā)明的進一步改進,所述預(yù)設(shè)時間A為300s,報警閾值A(chǔ)1為30s,報警閾值A(chǔ)2為150s,報警閾值A(chǔ)3為200s。
與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果為:
本發(fā)明提供基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng)及方法,通過將計算得到的眼睛、嘴巴關(guān)鍵距離與各自設(shè)定的閾值進行比較來判斷眼睛、嘴巴的閉合/張開狀態(tài),若眼睛閉合、嘴巴張開則表明駕駛員處于疲勞狀態(tài);并進一步在預(yù)設(shè)時間內(nèi),通過檢測眼睛閉合、嘴巴張開的時間來判斷駕駛員是否處于疲勞駕駛,當(dāng)處于疲勞駕駛時,車載中控臺控制振動反饋裝置振動,實現(xiàn)對駕駛員的提醒;本發(fā)明對眼睛、嘴巴運動狀態(tài)的檢測精度高,通過振動反饋裝置實現(xiàn)振動提醒,從而從本質(zhì)上制止疲勞駕駛帶來的交通事故。
附圖說明
圖1為本發(fā)明一種實施例公開的基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng)的框架圖;
圖2為圖1中處理器的框架圖;
圖3為本發(fā)明一種實施例公開的基于雙目攝像頭的安全作業(yè)智能監(jiān)控方法流程圖;
圖4為本發(fā)明一種實施例公開的眼睛分割線及眼睛關(guān)鍵距離的示意圖。
圖中:
10、智能設(shè)備;11、左攝像頭;12、右攝像頭;13、處理器;20、車載中控臺;30、振動反饋裝置。
具體實施方式
為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例是本發(fā)明的一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動的前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
下面結(jié)合附圖對本發(fā)明做進一步的詳細(xì)描述:
如圖1所示,本發(fā)明提供一種基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng),包括:設(shè)置在駕駛員前方的智能設(shè)備10、車載中控臺20和安裝在駕駛員座椅上的振動反饋裝置30;其中,智能設(shè)備10可安裝在駕駛員前方的儀表盤上,車載中控臺20為汽車的總控制中心,智能設(shè)備10、車載中控臺20和振動反饋裝置30之間通過藍(lán)牙進行信息交互。
本發(fā)明的智能設(shè)備10包括:左攝像頭11、右攝像頭12、處理器13和電源;其中:
左攝像頭11用于拍攝包含眼睛和嘴巴的左圖像數(shù)據(jù),右攝像頭12用于拍攝包含眼睛和嘴巴的右圖像數(shù)據(jù);左攝像頭11和右攝像頭12構(gòu)成了雙目攝像頭。
處理器13,處理器13用于對左右圖像數(shù)據(jù)進行濾波、ROI區(qū)域提取、深度計算,獲取ROI區(qū)域的深度圖像;將深度圖像送入到離線訓(xùn)練得到的眼睛、嘴巴識別模型中,獲取眼睛和嘴巴圖像區(qū)域;對眼睛和嘴巴圖像區(qū)域進行邊緣點檢測,計算沿眼睛或嘴巴閉合方向上相對應(yīng)兩邊緣點的最大距離,作為眼睛關(guān)鍵距離和嘴巴關(guān)鍵距離;判斷眼睛關(guān)鍵距離是否小于閾值T1、嘴巴關(guān)鍵距離是否大于閾值T2,若是,則證明眼睛閉合、嘴巴張開;繼續(xù)判斷在預(yù)設(shè)時間A內(nèi),眼睛閉合和/或嘴巴張開的時間是否達到報警閾值;若達到,則向車載中控臺發(fā)送報警指令;車載中控臺20接收報警指令,控制振動反饋裝置30振動,實現(xiàn)對駕駛員的提醒。
如圖2所示,本發(fā)明的處理器13包括:濾波模塊、ROI區(qū)域提取模塊、深度圖像獲取模塊、識別模型建立模塊、識別模塊、邊緣檢測模塊和判斷模塊;其中:
濾波模塊,用于對左右圖像數(shù)據(jù)分別進行高斯平滑濾波,平滑窗口為7*7;
ROI區(qū)域提取模塊,用于對濾波后的左右圖像數(shù)據(jù),提取包含眼睛和嘴巴信息的左ROI區(qū)域和右ROI區(qū)域;其中,本發(fā)明在汽車駕駛艙對攝像頭的安裝是有一定要求,一般要求標(biāo)準(zhǔn)是駕駛員正常駕駛狀態(tài)下,駕駛員的頭部位置正好落在攝像頭圖像區(qū)域的中間區(qū)域即可;即ROI區(qū)域是圖像中間區(qū)域;
深度圖像獲取模塊,利用提前對雙目攝像頭的標(biāo)定參數(shù),通過雙目立體成像原理(三角定位),對左右ROI區(qū)域進行深度數(shù)據(jù)計算,獲取ROI區(qū)域的深度圖像;
識別模型建立模塊,用于采集300000個不同人的樣本作為大樣本數(shù)據(jù),獲取每個樣本ROI區(qū)域的深度圖像,通過半監(jiān)督隨機森林學(xué)習(xí)法,人工對大樣本ROI深度圖像中駕駛員的眼睛和嘴巴進行分類,建立眼睛、嘴巴的識別模型;其中,半監(jiān)督隨機森林的參數(shù)設(shè)計為:樹的個數(shù):200,二叉樹的深度:100,每層樹的最佳分割候選點個數(shù):4,預(yù)測精度:0.001;樣本中必須包含人的嘴巴張開,眼睛閉合狀態(tài)等情況;
識別模塊,用于將深度圖像送入到通過離線訓(xùn)練得到的眼睛、嘴巴識別模型中,對ROI的深度圖像進行像素分類,獲取眼睛和嘴巴圖像區(qū)域;并對眼睛和嘴巴圖像區(qū)域分別進行PCA計算(PCA(Principal Component Analysis)是最常用的線性降維方法,它的目標(biāo)是通過某種線性投影,將高維的數(shù)據(jù)映射到低維的空間中表示,并期望在所投影的維度上數(shù)據(jù)的方差最大,以此使用較少的數(shù)據(jù)維度,同時保留住較多的原數(shù)據(jù)點的特性),獲取眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向;
邊緣檢測模塊,用于對眼睛和嘴巴圖像區(qū)域分別進行邊緣檢測,將檢測到的邊緣點按照順時針或逆時針進行排序,得到由邊緣點組成的眼睛輪廓和嘴巴輪廓,如圖4所示的眼睛輪廓。根據(jù)眼睛和嘴巴輪廓以及眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向,得到眼睛分割線和嘴巴分割線,如圖4所示的眼睛分割線;嘴巴分割線與眼睛分割線一致,用于分割上嘴唇和下嘴唇,圖中未示出。計算眼睛分割線或嘴巴分割線兩側(cè)相對應(yīng)的眼睛邊緣點或嘴巴邊緣點之間的最大距離,作為眼睛關(guān)鍵距離和嘴巴關(guān)鍵距離。如圖4所示,以眼睛輪廓為例,將眼睛分割線兩側(cè)相對應(yīng)的邊緣點相連(保證兩邊緣點的連接線與眼睛分割線垂直或最近似垂直),求得所有對應(yīng)兩邊緣點的距離d1、d2···dn,并從所有距離中找出最大的距離d最大,該距離即為眼睛關(guān)鍵距離,形成該距離的兩邊緣點即為眼睛關(guān)鍵點;嘴巴關(guān)鍵距離的獲取方法與上述方法一致。
判斷模塊,用于判斷眼睛關(guān)鍵距離是否小于閾值T1、嘴巴關(guān)鍵距離是否大于閾值T2,若是,則證明眼睛閉合、嘴巴張開;其中,閾值T1、閾值T2可人為根據(jù)需求進行設(shè)定。判斷在預(yù)設(shè)時間A內(nèi),眼睛閉合和/或嘴巴張開的時間是否達到報警閾值A(chǔ)1、A2、A3,0<A1<A2<A3<A;若達到,則向車載中控臺發(fā)送報警指令;其中,本發(fā)明優(yōu)選預(yù)設(shè)時間A為300s,報警閾值A(chǔ)1為30s,報警閾值A(chǔ)2為150s,報警閾值A(chǔ)3為200s;同時,還可根據(jù)實際需求設(shè)計不同的閾值;
a、當(dāng)眼睛閉合和/或嘴巴張開的時間大于0且小于30s,則處理器不發(fā)送報警指令;
b、當(dāng)眼睛閉合和/或嘴巴張開的時間大于30s且小于150s,則處理器向車載中控臺發(fā)送振動模式1的報警指令,振動模式1為慢速振動;
c、當(dāng)眼睛閉合和/或嘴巴張開的時間大于150s且小于200s,則處理器向車載中控臺發(fā)送振動模式2的報警指令,振動模式2為中速振動;
d、當(dāng)眼睛閉合和/或嘴巴張開的時間大于200s且小于300s,則處理器向車載中控臺發(fā)送振動模式3的報警指令,振動模式3為快速振動。
優(yōu)選的,本發(fā)明的車載中控臺20接收處理器13的報警指令,并向控制振動反饋裝置30發(fā)送指令,控制其工作,實現(xiàn)對駕駛員的振動提醒。其中,振動反饋裝置安裝在駕駛員座椅上,其可采用多個振動凸點,通過處理器的判斷結(jié)果,控制不同數(shù)量的振動凸點振動,從而實現(xiàn)3種振動模式(也可根據(jù)需求設(shè)計成多種振動模式)。
優(yōu)選的,該智能監(jiān)控系統(tǒng)還包括:設(shè)置在駕駛室內(nèi)的語音播報裝置;
語音播報裝置與車載中控臺20相連,當(dāng)車載中控臺接收到報警指令時,車載中控臺通過藍(lán)牙信號向語音播報裝置發(fā)送指令,控制語音播報裝置進行語音提醒。
如圖3所示,本發(fā)明提供一種基于雙目攝像頭的安全作業(yè)智能監(jiān)控方法,包括:
S101、輸入雙目攝像頭采集的左圖像數(shù)據(jù)和右圖像數(shù)據(jù),圖像數(shù)據(jù)為雙目攝像頭采集的駕駛員面部圖像。
S102、對左右圖像數(shù)據(jù)分別進行傳統(tǒng)的高斯平滑濾波,平滑窗口為7*7。
S103、對濾波后的左右圖像數(shù)據(jù),提取包含眼睛和嘴巴信息的左ROI區(qū)域和右ROI區(qū)域;其中,本發(fā)明在汽車駕駛艙對攝像頭的安裝是有一定要求,一般要求標(biāo)準(zhǔn)是駕駛員正常駕駛狀態(tài)下,駕駛員的頭部位置正好落在攝像頭圖像區(qū)域的中間區(qū)域即可;即ROI區(qū)域是圖像中間區(qū)域。
S104、利用提前對雙目攝像頭的標(biāo)定參數(shù),通過雙目立體成像原理(三角定位),對左右ROI區(qū)域進行深度數(shù)據(jù)計算,獲取ROI區(qū)域的深度圖像。
S105、將深度圖像送入到通過離線訓(xùn)練得到的眼睛、嘴巴識別模型中,對ROI的深度圖像進行像素分類,獲取眼睛和嘴巴圖像區(qū)域;其中,識別模型的建立方法為:
a、采集300000個不同人的樣本作為大樣本數(shù)據(jù);
b、依據(jù)S101-S104,獲取每個樣本ROI區(qū)域的深度圖像;
c、通過半監(jiān)督隨機森林學(xué)習(xí)法,人工對大樣本ROI深度圖像中駕駛員的眼睛和嘴巴進行分類,建立眼睛、嘴巴的識別模型;其中,半監(jiān)督隨機森林的參數(shù)設(shè)計為:樹的個數(shù):200,二叉樹的深度:100,每層樹的最佳分割候選點個數(shù):4,預(yù)測精度:0.001;樣本中必須包含人的嘴巴張開,眼睛閉合狀態(tài)等情況。
S106、對眼睛和嘴巴圖像區(qū)域分別進行PCA計算(PCA(Principal Component Analysis)是最常用的線性降維方法,它的目標(biāo)是通過某種線性投影,將高維的數(shù)據(jù)映射到低維的空間中表示,并期望在所投影的維度上數(shù)據(jù)的方差最大,以此使用較少的數(shù)據(jù)維度,同時保留住較多的原數(shù)據(jù)點的特性),獲取眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向。
S107、對眼睛和嘴巴圖像區(qū)域分別進行邊緣檢測,將檢測到的邊緣點按照順時針或逆時針進行排序,得到由邊緣點組成的眼睛輪廓和嘴巴輪廓,如圖4所示的眼睛輪廓。
S108、根據(jù)眼睛和嘴巴輪廓以及眼睛區(qū)域和嘴巴區(qū)域的二維圖像方向,得到眼睛分割線和嘴巴分割線,如圖4所示的眼睛分割線;嘴巴分割線與眼睛分割線一致,用于分割上嘴唇和下嘴唇,圖中未示出。
S109、計算眼睛分割線或嘴巴分割線兩側(cè)相對應(yīng)的眼睛邊緣點或嘴巴邊緣點之間的最大距離,作為眼睛關(guān)鍵距離和嘴巴關(guān)鍵距離。如圖4所示,以眼睛輪廓為例,將眼睛分割線兩側(cè)的邊緣點相連(連接線與眼睛分割線垂直或近似垂直),求得所有對應(yīng)兩邊緣點的距離d1、d2···dn,并從所有距離中找出最大的距離d最大,該距離即為眼睛關(guān)鍵距離,形成該距離的兩邊緣點即為眼睛關(guān)鍵點;嘴巴關(guān)鍵距離的獲取方法與上述方法一致。
S110、判斷眼睛關(guān)鍵距離是否小于閾值T1、嘴巴關(guān)鍵距離是否大于閾值T2,若是,則證明眼睛閉合、嘴巴張開,可表示駕駛員處于疲勞狀態(tài);跳至S111。其中,閾值T1、閾值T2可人為根據(jù)需求進行設(shè)定。
S111、判斷在預(yù)設(shè)時間A內(nèi),眼睛閉合和/或嘴巴張開的時間是否達到報警閾值A(chǔ)1、A2、A3,0<A1<A2<A3<A;若達到,則向車載中控臺發(fā)送報警指令;其中,本發(fā)明優(yōu)選預(yù)設(shè)時間A為300s,報警閾值A(chǔ)1為30s,報警閾值A(chǔ)2為150s,報警閾值A(chǔ)3為200s;同時,還可根據(jù)實際需求設(shè)計不同的閾值;
a、當(dāng)眼睛閉合和/或嘴巴張開的時間大于0且小于30s,則處理器不發(fā)送報警指令;
b、當(dāng)眼睛閉合和/或嘴巴張開的時間大于30s且小于150s,則處理器向車載中控臺發(fā)送振動模式1的報警指令,振動模式1為慢速振動;
c、當(dāng)眼睛閉合和/或嘴巴張開的時間大于150s且小于200s,則處理器向車載中控臺發(fā)送振動模式2的報警指令,振動模式2為中速振動;
d、當(dāng)眼睛閉合和/或嘴巴張開的時間大于200s且小于300s,則處理器向車載中控臺發(fā)送振動模式3的報警指令,振動模式3為快速振動。
S112、車載中控臺接收報警指令,控制振動反饋裝置振動,實現(xiàn)對駕駛員的提醒。
本發(fā)明提供基于雙目攝像頭的安全作業(yè)智能監(jiān)控系統(tǒng)及方法,通過將計算得到的眼睛、嘴巴關(guān)鍵距離與各自設(shè)定的閾值進行比較來判斷眼睛、嘴巴的閉合/張開狀態(tài),若眼睛閉合、嘴巴張開則表明駕駛員處于疲勞狀態(tài);并進一步在預(yù)設(shè)時間內(nèi),通過檢測眼睛閉合、嘴巴張開的時間來判斷駕駛員是否處于疲勞駕駛,當(dāng)處于疲勞駕駛時,車載中控臺控制振動反饋裝置振動,實現(xiàn)對駕駛員的提醒;本發(fā)明對眼睛、嘴巴運動狀態(tài)的檢測精度高,通過振動反饋裝置實現(xiàn)振動提醒,從而從本質(zhì)上制止疲勞駕駛帶來的交通事故。
以上僅為本發(fā)明的優(yōu)選實施例而已,并不用于限制本發(fā)明,對于本領(lǐng)域的技術(shù)人員來說,本發(fā)明可以有各種更改和變化。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。