本發(fā)明涉及視圖三維模型檢索領(lǐng)域,尤其涉及一種基于流行學(xué)習(xí)的視圖三維模型檢索方法。
背景技術(shù):
近年來,隨著多媒體技術(shù)的快速發(fā)展,人們從聲音、圖像以及視頻中獲取的信息已經(jīng)不能滿足需求。三維模型應(yīng)運而生,并且其應(yīng)用領(lǐng)域也變得越來越廣泛[1]。三維模型可以提供更加直觀、生動形象的視覺感受,比二維圖像包含更多的物體信息,因此廣泛應(yīng)用在3d游戲、虛擬現(xiàn)實、工業(yè)制造、醫(yī)學(xué)圖像等領(lǐng)域。如今互聯(lián)網(wǎng)上三維模型數(shù)量不斷增多、模型數(shù)據(jù)庫也在不斷增大,面對龐大的三維模型數(shù)據(jù)庫,如何使得用戶準確、快速的尋找到符合需求的三維模型,進而實現(xiàn)資源的快速利用成為眾多學(xué)者研究熱點。如何合理的描述三維模型即特征提取成為三維模型檢索首先需要解決的難點問題[2]。視圖三維模型檢索成為當下該領(lǐng)域的研究熱點。
視圖三維模型檢索是基于計算機視覺、數(shù)字圖像處理、多媒體信息分析以及機器學(xué)習(xí)等技術(shù),借助計算機處理技術(shù),對數(shù)據(jù)庫中的三維模型的視圖進行處理、分析以及比較的過程。當前,三維模型檢索技術(shù)主要分為兩類:基于文本的檢索和基于內(nèi)容的檢索。
其中,基于文本的檢索方式使用文本或者編碼的方式對三維模型進行標注和分類,在早期的三維模型檢索中起到了巨大的作用[3]。該方法簡單明了,易于操作與上手,但是由于標注時參與了過多的主觀性,具有很強的片面性,所以并不能充分和準確的反映出原始三維模型所代表的全部信息。檢索結(jié)果并不能很好的呈現(xiàn)用戶的意圖。
其中,基于內(nèi)容的檢索方式則主要通過研究三維模型的空間分布特征,預(yù)處理后通過特征提取函數(shù),提取出三維模型的相關(guān)特征,將復(fù)雜的三維模型抽象為能夠準確描述原始三維模型的描述子,然后進行相似性度量。這種方式避免了人工干預(yù),很好的提高了檢索的準確度。兩類方法各有優(yōu)劣,但是基于內(nèi)容的檢索能夠利用發(fā)展較為成熟的二維圖像處理技術(shù)而得到了廣泛的應(yīng)用。
目前在基于視圖的三維模型檢索中遇到的難點是:采集視圖的時候,由于每個三維模型由多個視圖組成,視圖之間冗余信息過多,導(dǎo)致模型之間相似度計算的難度增加。
技術(shù)實現(xiàn)要素:
本發(fā)明提供了一種基于流行學(xué)習(xí)的多視圖三維模型檢索方法,避免了傳統(tǒng)的視圖檢索中冗余信息,降低了模型間相似性度量的復(fù)雜度,提高了三維模型檢索的精度,詳見下文描述:
一種基于流行學(xué)習(xí)的視圖三維模型檢索方法,所述視圖三維模型檢索方法包括以下步驟:
在訓(xùn)練模型庫中,進行數(shù)據(jù)標注構(gòu)建能量函數(shù),利用優(yōu)化理論,學(xué)習(xí)傳統(tǒng)視圖特征向流行空間映射的映射函數(shù),采用局部線性嵌入映射函數(shù),通過樣本訓(xùn)練得到模型參數(shù);
利用映射函數(shù)計算測試數(shù)據(jù)在流行空間下的特征向量,作為特征數(shù)據(jù)庫;從視圖模型庫中隨機選擇一物體作為查詢目標,再選取任一物體作為比較目標;
理論分析進行相似度計算,采用歐氏距離計算兩兩模型之間的相似度;將查詢目標在流行空間的特征向量、以及特征數(shù)據(jù)庫中的所有模型在流行空間的特征向量進行匹配概率降序排列,得到最終的檢索結(jié)果。
其中,所述訓(xùn)練模型庫具體為:
選取模型數(shù)據(jù)庫中部分物體的視圖,將該部分物體的總視圖集定義為訓(xùn)練模型庫。
其中,所述利用映射函數(shù)計算測試數(shù)據(jù)在流行空間下的特征向量,作為特征數(shù)據(jù)庫的步驟具體為:
計算出測試數(shù)據(jù)特征向量每個樣本的k個近鄰點;計算局部重建權(quán)值矩陣,定義重構(gòu)誤差函數(shù);
利用局部線性嵌入映射函數(shù)對查詢目標和比較目標的初始特征向量集進行映射,得到在流行空間下的特征向量集。
將損失函數(shù)值的特征值從小到大進行升序排列,取第2~d+1之間的特征值所對應(yīng)的特征向量作為輸出結(jié)果。
本發(fā)明提供的技術(shù)方案的有益效果是:
1、本發(fā)明通過對獲取的三維模型的視圖進行特征提取、流行空間映射、獲取檢索目標和數(shù)據(jù)庫物體之間的相似度,提高了多視角目標檢索的正確率;
2、解決了基于視圖的三維模型檢索算法中視圖之間存在冗余信息的問題,降低了相似性度量的難度;
3、采用局部線性嵌入映射函數(shù)(lle)實現(xiàn)了三維模型在流行空間下的檢索;
4、將視圖三維模型檢索應(yīng)用到流行空間,很好的保留了三維模型的流行結(jié)構(gòu),比單純的計算歐式距離,效果更好。
附圖說明
圖1為基于流行學(xué)習(xí)的多視圖三維模型檢索方法的流程圖;
圖2為流行學(xué)習(xí)的三維模型檢索框圖;
圖3為三維模型在流行空間映射的示意圖;
圖4為彩色視圖樣例和初始視圖樣例的示意圖。
具體實施方式
為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面對本發(fā)明實施方式作進一步地詳細描述。
為了解決以上問題,需要能夠全面、自動、準確提取多視角目標的特征,進行流行空間的映射,最后進行檢索匹配。研究表明:利用映射函數(shù)得到測試數(shù)據(jù)在流行空間的特征向量進行匹配,避免了傳統(tǒng)的視圖匹配存在的冗余信息的問題。
實施例1
本發(fā)明實施例提出了基于流行學(xué)習(xí)的視圖三維模型檢索方法,參見圖1和圖2,詳見下文描述:
101:采集各物體的多視角彩色視圖,提取掩膜后得到各物體的初始視圖集,將所有物體的總試圖集定義為模型數(shù)據(jù)庫;
102:選取模型數(shù)據(jù)庫中部分物體的視圖,將該部分物體的總視圖集定義為訓(xùn)練模型庫;
103:在訓(xùn)練模型庫中,進行數(shù)據(jù)標注構(gòu)建能量函數(shù),利用優(yōu)化理論,學(xué)習(xí)傳統(tǒng)視圖特征向流行空間映射的映射函數(shù),采用局部線性嵌入映射函數(shù),通過樣本訓(xùn)練得到模型參數(shù);
104:利用映射函數(shù)計算測試數(shù)據(jù)在流行空間下的特征向量,作為特征數(shù)據(jù)庫;從視圖模型庫中隨機選擇一物體作為查詢目標,再選取任一物體作為比較目標,檢索任務(wù)為從視圖模型庫中找到與查詢目標相似的物體;
105:理論分析進行相似度計算,不失一般性的,采用歐氏距離計算兩兩模型之間的相似度;選取特征數(shù)據(jù)庫中的下一個比較模型,重復(fù)上述步驟,直至遍歷模型庫中的所有模型;
106:將查詢目標在流行空間的特征向量和特征數(shù)據(jù)庫中的所有模型在流行空間的特征向量進行匹配概率降序排列,得到最終的檢索結(jié)果。
其中,上述步驟104具體為:利用局部線性嵌入映射函數(shù)(lle)對查詢目標和比較目標的初始特征向量集進行映射,得到在流行空間下的特征向量集。
綜上所述,本方法通過上述步驟101-步驟106避免了傳統(tǒng)的視圖檢索中冗余信息,降低了模型間相似性度量的復(fù)雜度,提高了三維模型檢索的精度。
實施例2
下面結(jié)合圖3圖4、以及具體的計算公式對實施例1中的方案進行進一步地介紹,詳見下文描述:
201:首先采集n個物體的多視角彩色視圖,提取掩膜后可以得到各個物體的初始視集vi,將所有物體的總視圖集v={v1,v2,…vi,…,vs}定義為視圖模型庫md(modeldatabase),其中i∈{1,2,…,s};
本方法中首先采集n個物體的多視角彩色視圖,過程如下:將三個kinect攝像頭(此攝像頭為本領(lǐng)域技術(shù)人員所公知,全稱為“xbox360第一代kinect”,型號為1414)分別放置于可旋轉(zhuǎn)工作臺的水平、豎直和斜上方向45°三個視角。在工作臺上對每個物體進行旋轉(zhuǎn)拍攝ai張彩色視圖(由于每個模型復(fù)雜度不一樣,ai的具體數(shù)量可以設(shè)定為不同的數(shù)值,三個攝像頭一共提取3ai張彩色視圖,本發(fā)明實施例中設(shè)定為ai=36),示意圖如圖3所示。
然后對每個視圖進行掩膜提取,即分離前景模型和背景區(qū)域。分離依據(jù)為,模型視圖的rgb數(shù)值滿足g-r/2-b/2=0條件的區(qū)域判斷為模型,否則判斷為背景。提取掩膜后,即可得到各個模型物體的初始視圖集
其中,
202:選取局部線性嵌入映射函數(shù)建立訓(xùn)練數(shù)據(jù)庫;
其中,局部線性嵌入映射函數(shù)(locally-linearembedding,lle)、以及根據(jù)該映射函數(shù)建立訓(xùn)練數(shù)據(jù)庫、訓(xùn)練模型參數(shù)的步驟為本領(lǐng)域技術(shù)人員所公知,本發(fā)明實施例對此不做贅述。
203:根據(jù)局部線性嵌入映射函數(shù)對測試數(shù)據(jù)在流行空間進行特征向量提取,作為特征數(shù)據(jù)庫;
該步驟具體為:
1、計算出測試數(shù)據(jù)特征向量每個樣本的k個近鄰點;
其中,k的取值根據(jù)實際應(yīng)用中的需要進行設(shè)定。
2、計算局部重建權(quán)值矩陣,定義重構(gòu)誤差函數(shù);
其中,xi為第i個樣本,xij(j=1,2,…,k)為xi的k個近鄰點,eij是xi與xij之間的權(quán)值,且不失一般性的,對權(quán)值進行歸一化處理,即滿足條件∑jeij=1;n為樣本個數(shù)。
由此可知,求局部重建權(quán)值矩陣,需要求出局部協(xié)方差矩陣r:
其中,
將∑jeij=1和局部協(xié)方差矩陣
其中,ri為i維的奇異矩陣,在后續(xù)計算中需要進行正則化轉(zhuǎn)換;k為j(j=1,2,…,k)的最大取值。
將所有樣本點映射到低維空間中,滿足條件:
上式中,∈(y)為損失函數(shù)值,yi是xi的輸出值,yij(j=1,2,…k)是yi的k個近鄰點,且滿足兩個條件,即:
其中,i是m*m的單位矩陣。這里eij(j=1,2,…,n)可以存儲在n*n的稀疏矩陣e中,當xi是xj的近鄰點時,損失函數(shù)可以重寫為:
m是一個n*n的對稱矩陣,m=(i-e)t(i-e),e為n*n維的稀疏矩陣,t代表矩陣轉(zhuǎn)置。
要使損失函數(shù)達到最小,則最優(yōu)解y*取∈(y)的最小d個非零特征值所對應(yīng)的特征向量。也就是說,在處理過程中,將∈(y)的特征值從小到大進行升序排列,第一個特征值幾乎接近于零,那么舍去第一個特征值,通常取第2~d+1之間的特征值所對應(yīng)的特征向量作為輸出結(jié)果。
204:從視圖模型庫中隨機選擇一物體作為查詢目標,再選取任一物體作為比較目標,檢索任務(wù)為從視圖模型庫中找到與查詢目標相似的物體;
205:理論分析進行相似度計算,計算兩兩模型之間的相似度;選取特征數(shù)據(jù)庫中的下一個比較模型,重復(fù)上述步驟,直至遍歷模型庫中的所有模型;
將高維的三維模型特征向量映射到低維后,不失一般性的,采用euclidean(歐氏距離)對模型之間的相似度進行度量。具體計算公式如下:
其中,wi為不同特征分量的權(quán)重。得到的結(jié)果進行降序排列,然后可以得到最優(yōu)檢索結(jié)果。
206:將查詢目標在流行空間的特征向量和特征數(shù)據(jù)庫中的所有模型在流行空間的特征向量進行匹配概率降序排列,得到最終的檢索結(jié)果。
人臉模型中,每個角度視圖看做一個數(shù)據(jù)點,每個像素是一個維度,那么一個n*m的圖像就是一個nm維歐式空間中的一個點。根據(jù)具體模型采集視圖的自由度,來決定這些點分布的流行維度。比如,如果模型采集出的視圖自由度為3,那么這些點其實就是分布在三維流行上;因此,在流行空間中進行模型匹配,可以很好的考慮到模型的流行空間結(jié)構(gòu),以此使得匹配更加準確。
綜上所述,本方法通過上述步驟201-步驟206避免了傳統(tǒng)的視圖檢索中冗余信息,降低了模型間相似性度量的復(fù)雜度,提高了三維模型檢索的精度。
參考文獻:
[1]馮毅攀.基于視圖的三維模型檢索技術(shù)研究[d].浙江工業(yè)大學(xué),2012.
[2]劉鈺鵬,侯宇昆.基于視圖的三維模型特征提取研究綜述[j].中國新通信,2016(2016年06):99-99,100.
[3]石林林.基于視圖的三維模型檢索技術(shù)研究[d].華中科技大學(xué),2014.
[4]徐鵬捷.基于內(nèi)容的三維模型檢索技術(shù)[d].廣西師范大學(xué)碩士論文,2010.
[5]鄭伯川,彭維,張引,等.3d模型檢索技術(shù)綜述[j].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2004,16(7):873-881.
[6]kimtk,
[7]plessr,souvenirr.asurveyofmanifoldlearningforimages[j].ipsjtransactionsoncomputervision&applications,2009,1(1):83-94.
[8]tahmasbia,sakif,aghapanahh,etal.anovelbreastmassdiagnosissystembasedonzernikemomentsasshapeanddensitydescriptors[c]//biomedicalengineering(icbme),201118thiranianconferenceof.ieee,2011:100-104.
[9]shihjl,leech,wangjt.anew3dmodelretrievalapproachbasedontheelevationdescriptor[j].patternrecognition,2007,40(1):283-295.
[10]ansarytf,daoudim,vandeborrejp.abayesian3-dsearchengineusingadaptiveviewsclustering[j].multimedia,ieeetransactionson,2007,9(1):78-88.
本領(lǐng)域技術(shù)人員可以理解附圖只是一個優(yōu)選實施例的示意圖,上述本發(fā)明實施例序號僅僅為了描述,不代表實施例的優(yōu)劣。
以上所述僅為本發(fā)明的較佳實施例,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。