障礙物像素,從而獲得最終障礙物圖。
[0074]步驟十:對步驟九獲得的障礙物圖進行灰度反轉,獲得可通行區(qū)域圖;
[0075]步驟十一,對步驟十獲得的可通行區(qū)域圖進行外層輪廓檢測,獲得所有外層輪廓,每一輪廓為一潛在可通行區(qū)域;
[0076]步驟十二,對步驟十一中獲得的輪廓進行篩選,選擇出最靠近車輛前輪,且面積最大的輪廓作為最終可通行區(qū)域。
[0077]實施例一
[0078]采用該方法進行無人駕駛汽車可通區(qū)域檢測的具體步驟為:
[0079]步驟一:安裝在車輛前方的灰點公司的BumblebeeX3三目立體相機。本實施例中,車載攝像機所獲得左右目圖像的像素是設置為800 X 600,顏色模式為RGB。本實例中使用相機的最左側和最右側獲得雙目圖像,相機基線長度為0.23998500米,焦距為1002.912048pixels,傳輸幀率為15Hz,采集原始圖像如圖2所示;
[0080]步驟二:對左右目圖像進行預處理后進行SGM立體匹配,獲得稠密視差圖后再進行中值濾波,濾波參數選擇3個像素范圍,膨脹處理,膨脹參數為3個像素,腐蝕處理,腐蝕處理參數為3個像素,結果如圖3中下方圖所示;
[0081]步驟三:利用步驟二所得的處理后稠密視差圖求得第一次U視差圖,結果如圖3中上方圖所示,其像素為800 X 128;
[0082]步驟四:使用Canny算子對步驟三所得規(guī)范化U視差圖進行邊緣提取獲得二值化的邊界U視差圖,如圖4所示,結果如圖4中下方圖所示。在利用該二值化邊界U視差圖返回稠密視差圖進行障礙物像素篩選,獲得第一次的障礙物圖,如圖5所示,處理結果如圖5右側圖所示;
[0083]步驟五:利用步驟四中所獲得的障礙物圖,針對步驟二所獲的處理后的稠密視差圖進行障礙物剔除,獲得剔除大量障礙物(或含少量障礙物)的視差圖,處理結果如圖6左側圖所示;
[0084]步驟六:利用剔除主要障礙物的視差圖獲得V視差圖,再將其歸一化,結果如圖6右側圖所示;
[0085]步驟七:使用Canny算子對步驟六所得規(guī)范化的V視差圖進行邊界提取,獲得二值化邊界V視差圖,再利用霍夫變換求取V視差圖中線段,篩選出滿足條件的線段,求他們與V視差圖縱軸截距,取平均作為道路區(qū)域上邊沿,如圖7所示,其中中間為霍夫變換檢測直線結果,右側為規(guī)范化的V視差圖,在中間圖中橫線為道路區(qū)域上邊沿,返回原始視差圖中如圖7中左側圖所示;
[0086]步驟八:根據步驟七所得上邊沿,在稠密視差圖中剔除上邊沿以上部分,然后再將剔除后視差圖按照步驟三和步驟四的方式,這次步驟四中障礙物篩選時閾值選擇為2(第一次步驟四中閾值選擇為6),即稠密視差圖中與二值化視差圖中白像素相對應的像素值與白色像素對應視差相差為2以內則被作為障礙物像素,從而獲得障礙物圖,再進行中值濾波,膨脹腐蝕處理,獲得最終障礙圖,參數與步驟二一樣。最后再進行灰度反轉,獲得可通行區(qū)域圖。該步驟中,第二次U視差圖如圖8所示,獲得的第二次U視差如圖8中間圖所示,所獲第二次邊界U視差圖如圖8上方圖所示。該步驟中最終獲得的可通行區(qū)域圖如圖9左側圖所示;
[0087]步驟九:對步驟八獲得的可通行區(qū)域圖進行外層輪廓檢測,獲得所有外層輪廓,每一輪廓為一潛在可通行區(qū)域,輪廓檢測結果如圖9右側圖所示;
[0088]步驟十:對步驟九中獲得的輪廓進行篩選,選擇出最靠近車輛前輪,且面積最大的輪廓作為最終可通行區(qū)域,最終可通行區(qū)域檢測結果如圖1O所示,圖1O左側圖為障礙物加MASK之后的效果圖,圖1O中右側圖為可通行區(qū)域效果圖。
[0089]當然,本發(fā)明還可有其他多種實施例,在不背離本發(fā)明精神及其實質的情況下,熟悉本領域的技術人員當可根據本發(fā)明作出各種相應的改變和變形,但這些相應的改變和變形都應屬于本發(fā)明所附的權利要求的保護范圍。
【主權項】
1.一種基于雙目視覺的無人駕駛汽車可通區(qū)域檢測方法,其特征在于,其包括: 步驟I,獲取安裝在無人駕駛車上的車載雙目攝像機采集的車輛前方左右目圖像作為原始識別圖像; 步驟2,對左右目圖像進行預處理,獲取處理后的稠密視差圖; 步驟3,對所述稠密視差圖每一列所有像素進行灰度統(tǒng)計,獲得相應的U視差圖,將該U視差圖的視差范圍規(guī)范化到O到255之間得到規(guī)范化U視差圖; 步驟4,使用Canny算子對步驟3中所獲得的規(guī)范化U視差圖進行邊界提取,獲得二值化的邊界U視差圖;遍歷邊界U視差圖,若像素(i,j)的像素值不為O,則遍歷所述稠密視差圖第j列的所有像素,尋找與像素(i,j)的像素值相同或相差小于設定閾值&的像素,并將其設為障礙像素,從而獲得粗略的障礙物圖,再對該障礙物圖進行中值濾波、膨脹和腐蝕處理,獲得處理后的障礙物圖; 步驟5,利用步驟4所獲得的處理后的障礙物圖,對步驟2處理后的稠密視差圖進行障礙物剔除,獲得剔除大量障礙物后的視差圖; 步驟6,對步驟5中所獲得的剔除大量障礙物后的視差圖的每一行所有像素進行灰度統(tǒng)計,獲得相應的V視差圖,將該V視差圖的視差范圍規(guī)范化到O到255之間得到規(guī)范化的V視差圖; 步驟7,使用Canny算子對步驟6中所獲得的規(guī)范化的V視差圖進行邊界提取,獲得二值化的邊界V視差圖;利用霍夫變換,在所述邊界V視差圖中檢測線段,從檢測出的線段中選擇對應于步驟2中處理后的稠密視差圖中道路區(qū)域的線段,將其與邊界V視差圖的縱軸交點的水平線作為道路區(qū)域的上邊沿; 步驟8,根據步驟7中所獲得的道路區(qū)域上邊沿,將步驟2中所獲的處理后的稠密視差圖中道路區(qū)域上邊沿以上部分剔除,獲得剔除非道路區(qū)域的視差圖; 步驟9,針對剔除非道路區(qū)域的視差圖,按照步驟3-4的方式獲得最終障礙物,其中在按照步驟4的方式執(zhí)行過程中,設定閾值為δ2,且S1M2; 步驟10,對步驟9獲得的障礙物圖進行灰度反轉,獲得可通行區(qū)域圖。2.根據權利要求1所述基于雙目視覺的無人駕駛汽車可通區(qū)域檢測方法,其特征在于,所述步驟2的過程為:首先利用色彩恒常性方法對左右目圖像進行色彩增強,其次將色彩增強后的圖像轉換為灰度圖像;再次采用SGM方法對灰度圖像進行雙目立體匹配,獲得視差范圍為0-128之間的稠密視差圖;最后對所述稠密視差圖進行中值濾波、膨脹和腐蝕處理,獲取處理后的稠密視差圖。3.根據權利要求1所述基于雙目視覺的無人駕駛汽車可通區(qū)域檢測方法,其特征在于,所述步驟7的過程為: (701)使用Canny算子對步驟六所獲得的規(guī)范化V視差圖進行邊界提取,獲得二值化的邊界V視差圖; (702)利用霍夫變換在所述邊界V視差圖中檢測出所有線段; (703)從檢測出的所有線段中選擇滿足以下4個條件的線段,(一)向左傾斜設定角度,(二)靠近邊界V視差圖左下角,(三)線段下邊緣接近邊界V視差圖底部,(四)置信度高于設定閾值; (704)針對步驟(703)中所檢測出線段,將其與V視差圖縱軸交點處的水平線作為道路區(qū)域的上邊沿,若步驟(703)中檢測出的線段有多條,則將其與V視差圖縱軸交點均值處的水平線作為道路區(qū)域的上邊沿。4.根據權利要求1所述基于雙目視覺的無人駕駛汽車可通區(qū)域檢測方法,其特征在于,該方法還包括如下步驟: 步驟11,對步驟10獲得的可通行區(qū)域圖進行外層輪廓檢測,獲得所有外層輪廓,每一輪廓為一潛在可通行區(qū)域; 步驟12,對步驟11中獲得的輪廓進行篩選,選擇最靠近車輛前輪,且面積最大的輪廓作為最終可通行區(qū)域。
【專利摘要】本發(fā)明提供一種基于雙目視覺的無人駕駛汽車可通區(qū)域檢測方法,過程為:獲取安裝在無人駕駛車上的車載雙目攝像機采集的車輛前方左右目圖像作為原始識別圖像;對左右目圖像進行預處理,獲取處理后的稠密視差圖;針對稠密視差圖獲得相應的U視差圖;針對U視差圖獲得障礙物圖;利用障礙物圖對稠密視差圖進行障礙物剔除,獲得剔除大量障礙物后的視差圖;針對剔除大量障礙物后的視差圖,獲得其規(guī)范化的V視差圖;針對V視差圖,獲得道路區(qū)域的上邊沿;將所述稠密視差圖中道路區(qū)域的上邊沿以上部分剔除,獲得剔除非道路區(qū)域的視差圖;針對剔除非道路區(qū)域的視差圖,進行進一步的障礙物剔除,然后對獲得的障礙物圖進行灰度反轉,獲得可通行區(qū)域圖。
【IPC分類】G06K9/00, G01C11/02
【公開號】CN105550665
【申請?zhí)枴緾N201610027922
【發(fā)明人】付夢印, 宋文杰, 楊毅, 汪稚力, 邱凡
【申請人】北京理工大學
【公開日】2016年5月4日
【申請日】2016年1月15日