一種基于圖割的立體匹配方法【
技術(shù)領(lǐng)域:
】[0001]本發(fā)明屬于雙目立體視覺中的圖像立體匹配領(lǐng)域,具體涉及一種基于圖割的立體匹配方法?!?br>背景技術(shù):
】[0002]立體匹配是雙目立體視覺中最重要也是最困難的一部分,是三維重建的核心技術(shù)。立體匹配實際上是對左右兩臺攝像機從不同視點看同一景物,在左右兩幅圖像重疊區(qū)域?qū)ふ覍?yīng)點的過程。它利用空間物體點在左右攝像機中的成像模型來獲取成像視差的過程。立體匹配算法分解為四個步驟:匹配代價計算、匹配代價聚合、視差計算、視差細化。按照約束方式的不同,立體匹配算法可分為區(qū)域匹配算法和全局匹配算法。[0003]區(qū)域匹配算法對光照強度和對比度的變化非常敏感,同時匹配窗口的選取也是一個難點,當圖像存在紋理特征重復和遮擋現(xiàn)象比較嚴重的情況下會引起匹配混淆,錯誤匹配概率較高。一個理想的支撐的窗口在紋理弱的區(qū)域盡可能地大,在深度不連續(xù)區(qū)域盡可能小。固定窗口在處理不連續(xù)區(qū)域時會匹配錯誤,一些研究者改進了基于窗口匹配的方法,包括自適應(yīng)窗口,變化窗口,十字窗口,從而解決深度不連續(xù)的問題。Weber用Census變換和GPU的算法匹配(詳見文獻Μ·Weber,Humenberger,W.Kubinger.Averyfastcensus-basedstereomatchingimplementationonagraphicsprocessingunit.IEEE,WorkshoponEmbeddedComputerVision,2009,786~793),達到了實時的效果;Yong,Kweon結(jié)合心理學格式塔效應(yīng)將雙邊濾波引入到立體匹配,提出了經(jīng)典自適應(yīng)權(quán)重算法(AdaptiveSupport-Weight)(詳見文獻Kuk-JinYoon,InSoKweon.AdaptiveSupport-WeightApproachforCorrespondenceSearch.IEEE,TransactiononPatternAnalysisandMachineIntelligence,2006,28(4):650~656)。得益于雙邊濾波的保邊緣特性,經(jīng)典自適應(yīng)權(quán)重算法解決了局部立體匹配算法中常見的視差邊緣模糊問題,降低了誤匹配率,準確率可以達到和基于全局優(yōu)化算法相近的效果,但自適應(yīng)權(quán)重算法存在計算量大等問題全局立體匹配算法則是通過構(gòu)建一個全局的能量函數(shù)來求取視差,全局立體匹配算法將視差的最優(yōu)化問題轉(zhuǎn)換成了求取能量函數(shù)的最小值問題,有效地將圖像信息整合在了一起,計算時需要對圖像從整體上去分析和處理,算法精確度較高,但運算量大。R0Y和C0X首次將圖割方法引入到立體匹配算法中(詳見文獻S.RoyandI.Cox.AMaximum-FlowFormulationoftheCameraStereoCorrespondenceProblem.ComputerVision,1998,492~499),用圖割法實現(xiàn)能量最小。在全局的匹配算法,如圖割算法(詳見文獻Y.Boykov,0·Veksler,R.Zabih.FastApproximateEnergyMinimizationviaGraphCuts.IEEE,TransonPatternAnalysisandMachineIntelligence,2001,23(11):1222~1239)、置信度擴展傳播(BeliefProgramm,BP)(詳見文獻SunJian,ZhengNanning,ShumYH.StereoMatchingUsingBeliefPropagation.IEEE,TransactiononPatternAnalysisandMachineIntelligence,2003,25(7):787~800)和動態(tài)規(guī)劃(DynamicProgramming,DP)(BAKERΗΗ·Depthfromedgeandintensitybasedstereo.1981.631-636)等算法能夠?qū)φ麄€圖像進行有效的約束,匹配結(jié)果也較局部匹配算法精確,但是實時性不好,匹配時間過長。因此,減少算法計算量的基礎(chǔ)上同時保證算法的精度是雙目立體匹配中的一個技術(shù)難題?!?br/>發(fā)明內(nèi)容】[0004]本發(fā)明的目的在于提供一種基于圖割的立體匹配方法,能夠在保證圖像匹配精度的情況下提高匹配效率。[0005]為了解決上述技術(shù)問題,本發(fā)明提供一種基于圖割的立體匹配方法,包括以下步驟:[0006]步驟一、用MSERDoG算子對左右兩幅圖像提取支撐點;[0007]步驟二、將支撐點的像素灰度值作為匹配代價、固定窗口作為代價聚合對左右兩幅圖像的支撐點進行匹配,求得支撐點的視差;[0008]步驟三、計算左右兩幅圖中每個像素點的DAISY描述符算子;[0009]步驟四、將支撐點的視差作為圖割算法中的標號,將每個像素點的DAISY描述符算子作為圖割算法中能量函數(shù)的數(shù)據(jù)項用于圖割算法中,最終通過求取能量函數(shù)最小值求得稠密視差圖,實現(xiàn)立體匹配。[0010]本發(fā)明與現(xiàn)有技術(shù)相比,其顯著優(yōu)點在于,(1)將每個像素點的DAISY描述符算子作為圖割算法能量函數(shù)的數(shù)據(jù)項,DAISY描述符算子是高維描述算子,包含像素點豐富的特征信息,因此提高了匹配精度;(2)將支撐點的視差作為圖割算法中的標號,而不是在可能的視差值范圍內(nèi)逐個取值作為標號,相較于傳統(tǒng)的圖割算法大大降低了計算量,從而提高了算法的實時性。【附圖說明】[0011]圖1是本發(fā)明方法流程圖;[0012]圖2是本發(fā)明中使用的代價聚合窗口;[0013]圖3是本發(fā)明中使用的子窗口;[0014]圖4是本發(fā)明中使用的DAISY描述符;[0015]圖5是本發(fā)明仿真實驗中使用的Tsukuba測試圖;[0016]圖6是本發(fā)明仿真實驗中獲得的視差圖?!揪唧w實施方式】[0017]結(jié)合圖1,本發(fā)明一種基于圖割的立體匹配方法,步驟如下:[0018]步驟一、獲得較多的支撐點是本發(fā)明的第一步,如果支撐點太少或者分布不均勻,會嚴重阻礙后面稠密視差的準確獲取。本發(fā)明用MSERDoG算子對左右兩幅圖像提取支撐點,該算子即使在紋理不豐富的區(qū)域也能提取出較多支撐點。[0019]MSERDoG算子是高斯差分DoG(differenceofGaussian)空間下提取最大穩(wěn)定極值區(qū)MSER(maximallystableextremalregions)。先對圖像進行高斯卷積得到尺度空間,然后將尺度空間中相鄰兩幀圖像相減得到高斯差分空間。在高斯差分空間中,每個像素點的值反應(yīng)了該像素點和鄰域像素點的灰度對比關(guān)系。如果圖像中的某像素點的灰度值明顯高于其鄰域像素點的灰度值,在尺度空間中,經(jīng)過高斯卷積后得到高斯差分的結(jié)果為負值;如果圖像中的某像素點的灰度值明顯低于其鄰域像素點的灰度值,在尺度空間中,經(jīng)過高斯卷積后得到高斯差分的結(jié)果為正值,其絕對值大小表示該像素點與鄰域像素點在一定尺度下的灰度對比度。在高斯差分空間中,可以得到大量的高斯差分圖,對每一個高斯差分圖,按結(jié)果值的正負號分成兩個圖,然后分別提取最大穩(wěn)定極值區(qū)域。[0020]用橢圓擬合MSERDoG算子檢測得到最大穩(wěn)定極值區(qū)域,將橢圓區(qū)域的中心作為特征點,即為本發(fā)明的主要支撐點。[0021]有關(guān)MSERDoG算子的詳細信息可以參見有關(guān)文獻(陳占軍,戴志軍,吳毅紅.建筑物場景寬基線圖像的準稠密匹配.計算機科學與探索)。[0022]步驟二、將支撐點的像素灰度值作為匹配代價、固定窗口作為代價聚合對左右兩幅圖像的支撐點進行匹配,如果左圖中以某個支撐點為中心的代價聚合窗口內(nèi)的像素灰度值總和與右圖中以某個支撐點為中心的代價聚合窗口內(nèi)的像素灰度值總和之差最小,則該兩個支撐點匹配,進一步求得支撐點的視差。[0023]代價聚合窗口如圖2所示。圖2中A0,A1,A2,A3,A4分別為子窗口,每個子窗口又如圖3所示,圖3中的點為圖像中的像素點。[0024]步驟三、計算左右兩幅圖中每個像素點的DAISY描述符算子,DAISY描述符的結(jié)構(gòu)如圖4所示,以一個像素點為中心,構(gòu)成3個不同半徑的同心圓環(huán)形結(jié)構(gòu);該區(qū)域為同心圓支撐區(qū)域;相應(yīng)的采樣點位于上述不同半徑的同心圓環(huán)上,當前第1頁1 2