欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于定位塊的輪胎內(nèi)壁紋理識別方法與流程

文檔序號:12604321閱讀:591來源:國知局

本發(fā)明屬于視頻處理與分析技術(shù)領域,尤其涉及一種基于定位塊的輪胎內(nèi)壁紋理識別方法。



背景技術(shù):

靜態(tài)紋理是指包括通常意義上物體表面的固有紋理包含物體表面呈現(xiàn)凹凸不平的溝紋,同時也包括在物體的光滑表面上的彩色圖案,在自然界中廣泛存在,比如人工藝術(shù)品(墻上,火車和地鐵表面上的涂鴉和圖案、地毯、毛衣,和其他一些精美的工藝品包含格式各樣的幾何圖案)、龜裂縫、輪胎紋路等等。紋理識別則是通過紋理進行特征提取、描述和分析,將不同類別的未知紋理正確地歸類到已知的紋理類型,靜態(tài)紋理識別有著廣泛的應用前景,它使我們不僅能夠分辨相同型號不同輪胎紋理的不同,分辨不同人的指紋的不同,而且能夠分辨各種類型不同花紋和紋理的商品,對商品進行溯源和防偽。因此,靜態(tài)紋理識別技術(shù)的研究具有重要的理論價值和實踐意義。

紋理分析方法通常包含:統(tǒng)計法、頻譜法、模型法、結(jié)構(gòu)法,然而面對一些問題這類方法單獨使用都很難達到很高精度的要求,輪胎沒有唯一ID且內(nèi)壁紋理且相似性大。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的在于提供一種基于定位塊的輪胎內(nèi)壁紋理識別方法,旨在解決現(xiàn)有單一紋理分析方法精度較低,輪胎沒有唯一ID且內(nèi)壁紋理相似性大的問題。

本發(fā)明是這樣實現(xiàn)的,一種基于定位塊的輪胎內(nèi)壁紋理識別方法,所述基于定位塊的輪胎內(nèi)壁紋理識別方法是利用攝像頭獲取640*480圖像幀,利用局部均值和方差得到閾值進行圖像二值化,接著根據(jù)QR碼的四個定位塊,按黑白框?qū)挶壤@取四個黑塊中心點坐標,利用透視變換模型將任意角度的四個中心點內(nèi)的原圖像變換成標準固定大小的正視圖;通過直方圖均衡化對圖像進行增強,采用等價模式LBP靜態(tài)紋理模型得到靜態(tài)紋理描述;最后用分塊方向梯度直方圖、哈希值、圖像骨架、MISSM、PSNR特征對采樣的圖像進行紋理特征提取,并與種子庫中的特征進行特征相似性匹配,包括卡方距離,相似度,結(jié)構(gòu)相似度等匹配。

進一步,所述對獲取圖像幀的定位塊坐標包括:從視頻中隨機獲取一張清晰幀圖像;對獲取的圖像幀并進行灰度化,以當前像素點為中心,根據(jù)當前像素點鄰域內(nèi)的灰度均值與標準方差來動態(tài)計算該像素點的閾值進行二值化,對條形碼采用相應的編碼模式提取ID號,同時對于QR碼的四個定位塊,對數(shù)據(jù)進行逐行逐列掃描,根據(jù)黑白方塊定位符的寬成固定比例獲取二維碼所有黑、白方塊的重心坐標,方法是先從垂直方向檢測是否滿足定位符的條件,如滿足就定出Y軸的中心點坐標值,然后用這個坐標值去再次檢測水平方向是否滿足定位符條件,如滿足就定出X軸的中心點坐標值。至此就找到了黑白方塊定位符的中心坐標。從而得到四個定位塊的坐標。

進一步,所述變換模型的透視變換公式:[x’,y’,w’]=[u,v,w][a11a12a13;a21a22a23,a31a32a33];u,v是原始圖片,對應得到變換后的圖片坐標x,y,其中x=x’/w’,y=y(tǒng)’/w’,[a11a12a13;a21a22a23;a31a32a33]可以拆成4部分,[a11a12;a21a22]表示線性變換,比如scaling,shearing和rotation。[a31a32]用于平移,[a13a23]的轉(zhuǎn)置產(chǎn)生透視變換,對變換后的正視圖進行直方圖均衡化,就是把原始圖的直方圖變換為均勻分布的形式,這樣就增加了象素灰度值的動態(tài)范圍從而可達到增強圖像整體對比度的效果。設原始圖像在(x,y)處的灰度為f,而改變后的圖像為g,則對圖像增強的方法可表述為將在(x,y)處的灰度f映射為g。在灰度直方圖均衡化處理中對圖像的映射函數(shù)可定義為:g=EQ(f),這個映射函數(shù)EQ(f)必須滿足兩個條件(其中L為圖像的灰度級數(shù)):1.EQ(f)在0≤f≤L-1范圍內(nèi)是一個單值單增函數(shù)。這是為了保證增強處理沒有打亂原始圖像的灰度排列次序,原圖各灰度級在變換后仍保持從黑到白(或從白到黑)的排列。2.對于0≤f≤L-1有0≤g≤L-1,這個條件保證了變換前后灰度值動態(tài)范圍的一致性。

進一步,所述采樣的圖像進行紋理識別包括:

庫查詢及特征二次提?。簩y理樣本獲取ID號,在庫中查詢是否有此ID號,若是查詢有此ID號,則對該ID的紋理圖像進行二次特征提取或者特征降維,即對紋理圖片進行分塊方向梯度直方圖、哈希值、圖像骨架、MISSM、PSNR特征對采樣的圖像進行紋理特征提取,建立這樣一種靜態(tài)紋理模型聚集體;

識別匹配:根據(jù)當前待識別的紋理描述,進行特征降維,得到靜態(tài)特征紋理模型聚集體,將此特征與庫中查詢到的靜態(tài)紋理模型聚集體進行特征匹配,主要是與種子庫中的特征進行相似性匹配,包括卡方距離,相似度,結(jié)構(gòu)相似度等匹配。對每種特征匹配結(jié)果采用加權(quán)投標最終判定匹配與否,完成紋理識別。

進一步,對紋理圖像進行二次特征提取或者特征降維,采用分塊HOG、哈希值、圖像骨架、MISSM、PSNR處理,得到靜態(tài)紋理模型聚集體。HOG特征提取方法就是將一個image(你要檢測的目標或者掃描窗口):

1)灰度化(將圖像看做一個x,y,z(灰度)的三維圖像);

2)采用Gamma校正法對輸入圖像進行顏色空間的標準化(歸一化);目的是調(diào)節(jié)圖像的對比度,降低圖像局部的陰影和光照變化所造成的影響,同時可以抑制噪音的干擾;

3)計算圖像每個像素的梯度(包括大小和方向);主要是為了捕獲輪廓信息,同時進一步弱化光照的干擾。

4)將圖像劃分成小cells(例如6*6像素/cell);

5)統(tǒng)計每個cell的梯度直方圖(不同梯度的個數(shù)),即可形成每個cell的descriptor;

6)將每幾個cell組成一個block(例如3*3個cell/block),一個block內(nèi)所有cell的特征descriptor串聯(lián)起來便得到該block的HOG特征descriptor。

7)將圖像image內(nèi)的所有block的HOG特征descriptor串聯(lián)起來就可以得到該image(你要檢測的目標)的HOG特征descriptor。

哈希值:將圖片根據(jù)需要均分N塊縮小到固定8x8的尺寸,總共64個像素。這一步的作用是去除圖片的細節(jié),只保留結(jié)構(gòu)、明暗等基本信息,摒棄不同尺寸、比例帶來的圖片差異。將每個像素的灰度,與平均值進行比較。大于或等于平均值,記為1;小于平均值,記為0。將比較結(jié)果組合在一起,就構(gòu)成了一個64位的整數(shù),這就是這張圖片的指紋。

所謂的骨架化(也叫細化)就是經(jīng)過一層層的剝離,從原來的圖中去掉一些點,但仍要保持原來的形狀,直到得到圖像的骨架。骨架,可以理解為圖象的中軸。

PSNR(Peak signal-to-noise ratio),使用“局部均值誤差”來判斷差異。

SSIM(structural similarity index),結(jié)構(gòu)相似性,是一種衡量兩幅圖像相似度的指標。定兩個圖像x和y,兩張圖像的結(jié)構(gòu)相似性可按照以下方式求出:

<mrow> <mi>S</mi> <mi>S</mi> <mi>I</mi> <mi>M</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mo>(</mo> <mn>2</mn> <msub> <mi>&mu;</mi> <mi>x</mi> </msub> <msub> <mi>&mu;</mi> <mi>y</mi> </msub> <mo>+</mo> <msub> <mi>c</mi> <mn>1</mn> </msub> <mo>)</mo> <mo>(</mo> <mn>2</mn> <msub> <mi>&sigma;</mi> <mrow> <mi>x</mi> <mi>y</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>c</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msubsup> <mi>&mu;</mi> <mi>x</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msubsup> <mi>&mu;</mi> <mi>y</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msub> <mi>c</mi> <mn>1</mn> </msub> <mo>)</mo> <mo>(</mo> <msubsup> <mi>&sigma;</mi> <mi>x</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msubsup> <mi>&sigma;</mi> <mi>y</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msub> <mi>c</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mfrac> </mrow>

其中ux是x的平均值,uy是y的平均值,是x的方差,σxy是x和y的標準差。c1=(K1L)2,c2=(K2L)2是用來維持穩(wěn)定的常數(shù),L是像素的動態(tài)范圍。K1=0.01,K2=0.03

結(jié)構(gòu)相似性的范圍為-1到1。當兩張圖像一模一樣時,SSIM的值等于1。作為結(jié)構(gòu)相似性理論的實現(xiàn),結(jié)構(gòu)相似度指數(shù)從圖像組成的角度將結(jié)構(gòu)信息定義為獨立于亮度、對比度的,反映場景中物體結(jié)構(gòu)的屬性,并將失真建模為亮度、對比度和結(jié)構(gòu)三個不同因素的組合。用均值作為亮度的估計,標準差作為對比度的估計,協(xié)方差作為結(jié)構(gòu)相似程度的度量。

進一步,特征匹配,是直方圖相似性匹配,距離匹配,結(jié)構(gòu)相似匹配及信噪比匹配。

進一步,采用直方圖均衡化,等價模式LBP得到靜態(tài)紋理圖像。

進一步,所述基于定位塊的輪胎內(nèi)壁紋理識別方法包括以下步驟:

步驟一,對獲取的清晰視頻幀,獲取code128條形碼ID號,及利用四個正方形定位塊獲取定位塊中心坐標,P1(x1,y1),P2(x2,y2),P3(x3,y3),P4(x4,y4);

步驟二,利用獲取的ID號在庫中查詢是否有此ID的紋理圖種子,若沒有,匹配失敗,結(jié)束步驟,若有此ID,進行步驟三;

步驟三,利用獲取的定位塊坐標,進行透視變換,將不同視角的圖像還原到固定大小的正視圖;

透視變換公式:[x’,y’,w’]=[u,v,w][a11a12a13;a21a22a23,a31a32a33];

對變換后的正視圖進行直方圖均衡化,利用等價模式LBP得到穩(wěn)定較為精確的紋理圖;

步驟四,對當前得到的紋理圖和庫中查詢到的紋理圖,進行HOG、哈希值、圖像骨架、MISSM、PSNR特征提取,最后進行加權(quán)求和機制匹配。

本發(fā)明提供的基于定位塊的輪胎內(nèi)壁紋理識別方法,通過利用變換方法將不同角度的圖像得到標準正視圖,及研究靜態(tài)紋理在時間空間上呈現(xiàn)相同特性,將動態(tài)問題變成靜態(tài)問題,對于靜態(tài)紋理獲取一組靜態(tài)紋理模型,與庫進行匹配識別,從而實現(xiàn)快速紋理匹配,本算法一次匹配時間為二十毫秒左右;采用多類方法結(jié)合,利用投票打分效果明顯,識別率高達達98%。

附圖說明

圖1是本發(fā)明實施例提供的基于定位塊的輪胎內(nèi)壁紋理識別方法流程圖。

具體實施方式

為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點更加清楚明白,以下結(jié)合實施例,對本發(fā)明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。

下面結(jié)合附圖對本發(fā)明的應用原理作詳細的描述。

如圖1所示,本發(fā)明實施例的基于定位塊的輪胎內(nèi)壁紋理識別方法包括以下步驟:

S101:在輪胎內(nèi)壁貼上一正方形定位塊標簽,定位標簽包含唯一識別條碼;獲取通過攝像頭采集的正方形定位塊內(nèi)待識別的輪胎內(nèi)壁圖像;

S102:對提取的圖片進行二值化處理找到定位塊,將不同角度拍攝的圖片進行透視變換,具有旋轉(zhuǎn)不變性,還原成標準正視圖,將動態(tài)問題轉(zhuǎn)化成靜態(tài)問題;

S103:通過預處理,采用等價模式LBP提取紋理特征,將特征作為種子樣本保存下來,將其轉(zhuǎn)化為紋理匹配識別問題,在識別端,將圖像進行分塊經(jīng)進行HOG、哈希值、圖像骨架、MISSM、PSNR等特征進行加權(quán)求和機制匹配。

本發(fā)明的具體步驟如下:

步驟1:從視頻中隨機獲取一張清晰幀圖像;

步驟2:對獲取的圖像幀,進行二值化,對采用的編碼模式提取ID號,同時獲取四個定位塊的坐標;

步驟3:通過定位塊坐標,利用變換模型可將任意角度的原圖像變換成標準的正視圖;通過圖像增強,得到靜態(tài)紋理描述;

步驟4:采樣的圖像進行紋理識別,其具體的實現(xiàn)過程包括以下步驟:

步驟4.1:庫查詢及特征二次提?。簩δ硞€未知的紋理樣本按照步驟1和步驟2所述,獲取ID號,在庫中查詢是否有此ID號,若是查詢有此ID號,則對該ID的紋理圖像進行二次特征提取或者特征降維,建立其對應的靜態(tài)紋理模型聚集體。

步驟4.2:識別匹配:根據(jù)當前待識別的紋理描述,進行特征降維,得到靜態(tài)特征紋理模型聚集體,將此特征與4.1庫中查詢到的靜態(tài)紋理模型聚集體進行特征匹配,采用投票法預測匹配與否,從而完成紋理識別的任務。

作為優(yōu)先,步驟3中所述的采用靜態(tài)紋理模型建立其紋理描述,我們采用直方圖均衡化,等價模式LBP建立圖像的靜態(tài)紋理模型。

作為優(yōu)先,步驟4.1所述的對紋理圖像進行二次特征提取或者特征降維,采用了分塊HOG、哈希值、圖像骨架、MISSM、PSNR處理,得到靜態(tài)紋理模型聚集體。

作為優(yōu)先,步驟4.2所述的特征匹配,是直方圖相似性匹配,距離匹配,結(jié)構(gòu)相似匹配,及信噪比匹配,最后采用投票法預測匹配與否。

下面結(jié)合具體實施例對本發(fā)明的應用原理作進一步的描述。

首先在輪胎內(nèi)壁貼上一正方形定位塊標簽,該定位標簽包含唯一識別條碼;本發(fā)明實施例的基于定位塊的輪胎內(nèi)壁紋理識別方法,包括以下步驟:

步驟1:對獲取的清晰視頻幀,獲取code128條形碼ID號,及利用四個正方形定位塊獲取定位塊中心坐標,P1(x1,y1),P2(x2,y2),P3(x3,y3),P4(x4,y4)。

步驟2:利用步驟1獲取的ID號在庫中查詢是否有此ID的紋理圖種子,若沒有,匹配失敗,這結(jié)束步驟,若有此ID,這繼續(xù)下面步驟。

步驟3:利用步驟1獲取的定位塊坐標,進行透視變換,將不同視角的圖像還原到固定大小的正視圖;

透視變換公式:[x’,y’,w’]=[u,v,w][a11a12a13;a21a22a23,a31a32a33];

對變換后的正視圖進行直方圖均衡化,利用等價模式LBP得到穩(wěn)定較為精確的紋理圖。

步驟4:對當前得到的紋理圖和庫中查詢到的紋理圖,進行HOG、哈希值、圖像骨架、MISSM、PSNR等特征提取,最后進行加權(quán)求和機制匹配。

本發(fā)明實施例的靜態(tài)紋理模型采用的等價模式LBP模型,這并不是對本發(fā)明的限定,事實上,采用靜態(tài)紋理模型建立其紋理描述,采用了多種描述方法。

以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進等,均應包含在本發(fā)明的保護范圍之內(nèi)。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
文登市| 屏边| 石楼县| 达孜县| 梁平县| 金川县| 道孚县| 奎屯市| 衡阳市| 通化县| 泰和县| 海兴县| 虞城县| 绿春县| 汶上县| 钦州市| 丽江市| 沙洋县| 竹山县| 宜城市| 渭源县| 合川市| 保定市| 桑植县| 怀来县| 尚义县| 即墨市| 凤冈县| 边坝县| 大渡口区| 周口市| 深圳市| 杭锦旗| 玉田县| 三江| 呼玛县| 丁青县| 玉树县| 宝清县| 南城县| 介休市|