本發(fā)明涉及三維模型檢索領(lǐng)域,尤其涉及一種基于視圖的特征匹配三維模型檢索方法。
背景技術(shù):
隨著計算機視覺技術(shù)以及采集設(shè)備的發(fā)展,大量的行業(yè)人開始應(yīng)用三維模型數(shù)據(jù),當今有關(guān)三維模型的科學(xué)技術(shù)越來越成熟并且應(yīng)用的范圍也越來越廣,例如:計算機輔助設(shè)計[1]、計算機圖形學(xué)[2]、計算機視覺[3]、生物信息學(xué)[4]、醫(yī)學(xué)[5]和娛樂產(chǎn)業(yè)[6]。三維模型可以攜帶比文本和圖像更多的信息,展示形式也更為豐富真實,促使其越來越廣泛地應(yīng)用于社會生產(chǎn)生活的各個領(lǐng)域[7]。如今三維模型已經(jīng)成為了繼聲音、圖像、視頻之后的第四種多媒體數(shù)據(jù)類型[8],與此同時造成了數(shù)據(jù)的海量增長,如何對這些數(shù)據(jù)的有效管理是如今人們亟待解決的問題,其中三維模型檢索是實現(xiàn)對三維模型海量數(shù)據(jù)有效管理的關(guān)鍵技術(shù)。
基于對前人工作的調(diào)研,三維模型檢索算法大體可以分為兩類:一類是基于文本的檢索[9],該方法的主要特點就是三維模型的相關(guān)特征事先由人工進行標注,再根據(jù)用戶輸入的文本查詢條件進行語義檢索。但這類檢索方法需要研究人員人工添加大量的文本描述標注,而且這些文本描述存在內(nèi)容不準確,不全面,有歧義,有主觀性等缺點,因此檢索體驗較差;另一類三維模型檢索技術(shù)是基于內(nèi)容的檢索[10],基于內(nèi)容的三維模型檢索的最主要思想是根據(jù)三維模型的幾何形狀、拓撲結(jié)構(gòu)等形狀內(nèi)容或者顏色、紋理等外觀內(nèi)容來得到三維模型的相關(guān)形狀、外觀特征,形成一組特征向量,并利用這些特征向量作為三維模型的描述并建立相應(yīng)索引,在三維數(shù)據(jù)庫檢索時進行比較和計算[11]。該類檢索方法不需要人工添加文本描述信息,而是直接從三維模型本身的內(nèi)容出發(fā)進行自動的檢索,避免了由于人工主觀性造成模型描述信息的差異。此外由二維圖像的檢索延伸到三維模型檢索發(fā)展日趨成熟,極大地擴大了基于內(nèi)容的檢索方法的應(yīng)用范圍。
基于內(nèi)容的檢索分為兩類:基于模型的檢索和基于視圖的檢索。由于基于模型的檢索受到計算量的限制應(yīng)用不是很廣泛,現(xiàn)在較為常用的是基于視圖的檢索。基于視圖的三維模型檢索方法使用二維視圖來描述三維模型,同時,三維模型的比較也是基于二維視圖之間的比較實現(xiàn)的。
基于視圖的三維模型檢索領(lǐng)域目前面臨的主要挑戰(zhàn)為:大多數(shù)方法都關(guān)注在相似度計算和模型結(jié)構(gòu)表征上,而忽略了對特征的學(xué)習(xí)和優(yōu)化,限制了實際應(yīng)用范圍。
技術(shù)實現(xiàn)要素:
本發(fā)明提供了一種基于視圖的特征匹配三維模型檢索方法,本發(fā)明避免了對特征所處空間的依賴,提高了三維模型檢索的精度,降低了計算的復(fù)雜度,詳見下文描述:
一種基于視圖的特征匹配三維模型檢索方法,所述檢索方法包括以下步驟:
從多視角模型庫和單視角模型庫中分別選擇一些物體作為訓(xùn)練集,將多視角高斯核和跨視角高斯核合并為多視角訓(xùn)練特征,將單視角高斯核和跨視角高斯核合并為單視角訓(xùn)練特征,利用多視角訓(xùn)練特征和單視角訓(xùn)練特征構(gòu)建目標函數(shù)并使其最小化得到特征匹配矩陣;
從多視角模型庫和單視角模型庫中分別選擇一些物體作為測試集,將多視角高斯核和跨視角高斯核合并為多視角測試特征,將單視角高斯核和跨視角高斯核合并為單視角測試特征;
將多視角測試特征乘以轉(zhuǎn)換函數(shù)得到映射后的特征,將單視角測試特征乘以另一轉(zhuǎn)換函數(shù)得到映射后的特征;計算特征間的cos距離進而獲得模型之間的相似度。
所述檢索方法還包括:
將數(shù)據(jù)庫中所有物體的多視角彩色視圖集定義為多視角模型庫;
對每個物體的多視角彩色視圖集隨機抽取一張視圖,得到各物體的初始單視角視圖,將所有物體的初始單視角視圖定義為單視角模型庫。
所述檢索方法還包括:
在多視角模型庫和單視角模型庫中,提取各物體的初始視圖集的卷積神經(jīng)網(wǎng)絡(luò)特征,得到初始特征多視角向量集和類別標簽,初始特征單視角向量集和類別標簽;
分別提取向量集的高斯核并定義為多視角高斯核、單視角高斯核和跨視角高斯核。
所述多視角高斯核具體為:通過計算協(xié)方差矩陣的距離范數(shù)d(ssi,ssj)的高斯核得到多視角高斯核
Ks'(si,sj)=exp(-d(ssi,ssj)2/2σ2)
其中,σ是d(ssi,ssj)的標準差;Ks'(si,sj)為第si個多視角三維物體與第sj個多視角三維物體間的高斯核。
所述單視角高斯核具體為:
Kv'(vi,vj)=exp(-||vvi-vvj||2/2t2)
其中,vi,vj∈{1,2,...,n},t為單視角向量集V的標準差;n為單視角三維物體的個數(shù);vvi為第vi個單視角三維物體的特征;vvj為第vj個單視角三維物體的特征;Kv'(vi,vj)為第vi個單視角三維物體與第vj個單視角三維物體間的高斯核。
所述跨視角高斯核具體為:通過計算多視角向量集的協(xié)方差矩陣和單視角向量集V的馬氏距離d(vvi,Csj)的高斯核得到跨視角高斯核,
K′sv(vi,sj)=exp(-d(vvi,Csj)2/2τ2)
其中,τ是馬氏距離d(vvi,Csj)的標準方差;K′sv(vi,sj)為第vi個單視角三維物體與第sj個多視角三維物體間的高斯核。
所述利用多視角訓(xùn)練特征和單視角訓(xùn)練特征構(gòu)建目標函數(shù)的步驟具體為:
將多視角訓(xùn)練特征的轉(zhuǎn)換函數(shù)定義為ψ,單視角訓(xùn)練特征的轉(zhuǎn)換函數(shù)定義為f,構(gòu)建目標函數(shù)如下:
其中,λ1>0,λ2>0為權(quán)重函數(shù)并滿足λ1+λ2=1;C(f,ψ)是多視圖訓(xùn)練特征和單視圖訓(xùn)練特征之間相似度和不相似度的約束項;D(f,ψ)用于保持所有訓(xùn)練特征的幾何特性;O(f,ψ)用于保持數(shù)據(jù)的各同向性分布。
本發(fā)明提供的技術(shù)方案的有益效果是:
1、避免了采集初始視圖時對樣本視圖數(shù)的依賴,可以應(yīng)用于任何基于視圖的三維模型數(shù)據(jù)庫;即當檢索的三維模型的視圖數(shù)目不同時,本方法依然可行;
2、使用訓(xùn)練樣本來訓(xùn)練特征匹配矩陣,提高了匹配精確度。
附圖說明
圖1為一種基于視圖的特征匹配三維模型檢索方法的流程圖;
圖2為物體的初始多視角視圖集樣例的示意圖;
圖3為物體的初始單視角視圖集樣例的示意圖;
圖4為四種三維模型檢索方法的查準-查全曲線的示意圖。
具體實施方式
為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面對本發(fā)明實施方式作進一步地詳細描述。
實施例1
為了解決三維模型檢索中特征匹配的問題,提高三維模型檢索的準確度,參見圖1, 本發(fā)明實施提供了一種基于視圖的特征匹配三維模型檢索方法,該方法包括以下步驟:
101:從多視角模型庫和單視角模型庫中分別選擇一些物體作為訓(xùn)練集,將多視角高斯核和跨視角高斯核合并為多視角訓(xùn)練特征,將單視角高斯核和跨視角高斯核合并為單視角訓(xùn)練特征,利用多視角訓(xùn)練特征和單視角訓(xùn)練特征構(gòu)建目標函數(shù)并使其最小化得到特征匹配矩陣;
102:從多視角模型庫和單視角模型庫中分別選擇一些物體作為測試集,將多視角高斯核和跨視角高斯核合并為多視角測試特征,將單視角高斯核和跨視角高斯核合并為單視角測試特征;
103:將多視角測試特征乘以轉(zhuǎn)換函數(shù)得到映射后的特征,將單視角測試特征乘以另一轉(zhuǎn)換函數(shù)得到映射后的特征;計算特征間的cos距離進而獲得模型之間的相似度。
其中,在步驟101之前,該檢索方法還包括:將數(shù)據(jù)庫中所有物體的多視角彩色視圖集定義為多視角模型庫;
對每個物體的多視角彩色視圖集隨機抽取一張視圖,得到各物體的初始單視角視圖,將所有物體的初始單視角視圖定義為單視角模型庫。
其中,該檢索方法還包括:在多視角模型庫和單視角模型庫中,提取各物體的初始視圖集的卷積神經(jīng)網(wǎng)絡(luò)特征,得到初始特征多視角向量集和類別標簽,初始特征單視角向量集和類別標簽;
分別提取向量集的高斯核并定義為多視角高斯核、單視角高斯核和跨視角高斯核。
其中,步驟102中的多視角高斯核具體為:通過計算協(xié)方差矩陣的距離范數(shù)d(ssi,ssj)的高斯核得到多視角高斯核
Ks'(si,sj)=exp(-d(ssi,ssj)2/2σ2)
其中,σ是d(ssi,ssj)的標準差;Ks'(si,sj)為第si個多視角三維物體與第sj個多視角三維物體間的高斯核。
其中,步驟102中的單視角高斯核具體為:
Kv'(vi,vj)=exp(-||vvi-vvj||2/2t2)
其中,vi,vj∈{1,2,...,n},t為單視角向量集V的標準差;n為單視角三維物體的個數(shù);vvi為第vi個單視角三維物體的特征;vvj為第vj個單視角三維物體的特征;Kv'(vi,vj)為第vi個單視角三維物體與第vj個單視角三維物體間的高斯核。
其中,步驟102中的跨視角高斯核具體為:通過計算多視角向量集的協(xié)方差矩陣和單 視角向量集V的馬氏距離d(vvi,Csj)的高斯核得到跨視角高斯核,
K′sv(vi,sj)=exp(-d(vvi,Csj)2/2τ2)
其中,τ是馬氏距離d(vvi,Csj)的標準方差;K′sv(vi,sj)為第vi個單視角三維物體與第sj個多視角三維物體間的高斯核。
其中,步驟101中的利用多視角訓(xùn)練特征和單視角訓(xùn)練特征構(gòu)建目標函數(shù)的步驟具體為:
將多視角訓(xùn)練特征的轉(zhuǎn)換函數(shù)定義為ψ,單視角訓(xùn)練特征的轉(zhuǎn)換函數(shù)定義為f,構(gòu)建目標函數(shù)如下:
其中,λ1>0,λ2>0為權(quán)重函數(shù)并滿足λ1+λ2=1;C(f,ψ)是多視圖訓(xùn)練特征和單視圖訓(xùn)練特征之間相似度和不相似度的約束項;D(f,ψ)用于保持所有訓(xùn)練特征的幾何特性;O(f,ψ)用于保持數(shù)據(jù)的各同向性分布。
綜上所述,本發(fā)明實施例避免了采集初始視圖時對樣本視圖數(shù)的依賴,可以應(yīng)用于任何基于視圖的三維模型數(shù)據(jù)庫;并且當使用訓(xùn)練樣本來訓(xùn)練特征匹配矩陣,提高了匹配精確度。
實施例2
下面結(jié)合具體的計算公式、實例對實施例1中的方案進行詳細介紹,詳見下文描述:
201:將數(shù)據(jù)庫中所有物體的多視角彩色視圖集定義為多視角模型庫SD(Set Database),如圖2所示,對每個物體的多視角彩色視圖集隨機抽取一張視圖,得到各物體的初始單視角視圖,將所有物體的初始單視角視圖定義為單視角模型庫VD(View Database),如圖3所示;
202:在多視角模型庫和單視角模型庫中,提取各物體的初始視圖集的CNN特征,得到初始特征多視角向量集和類別標簽初始特征單視角向量集和類別標簽
其中,CNN特征又稱卷積神經(jīng)網(wǎng)絡(luò)特征,是圖像的特征描述符之一,能夠表示圖像的深度信息,相比較于其它特征能全面的進行圖像特征的比較,已應(yīng)用于各類目標識別和模型分析中。
203:分別提取這些向量集S和V的高斯核并定義為多視角高斯核Ks'、單視角高斯核Kv'和跨視角高斯核K′sv,將這些高斯核分別定義為多視角特征庫、單視角特征庫和跨視角特征庫;
其中,
1)多視角高斯核:
計算多視角向量集的協(xié)方差矩陣C={C1,C2,...,Cm},然后計算協(xié)方差矩陣的距離范數(shù)d(ssi,ssj)=||log(Csi)-log(Csj)||F,其中si,sj∈{1,2,...,m};m為多視角的三維物體的個數(shù);ssi表示第si個多視角三維物體;ssj表示第sj個多視角三維物體;Csi為第si個多視角三維物體特征的協(xié)方差矩陣;Csj為第sj個多視角三維物體特征的協(xié)方差矩陣;C1,C2,...,Cm表示各個多視角三維物體特征的協(xié)方差矩陣;F表示的是一種范數(shù)的計算方式。
通過計算d(ssi,ssj)的高斯核得到多視角高斯核,Ks'(si,sj)=exp(-d(ssi,ssj)2/2σ2),其中σ是d(ssi,ssj)的標準差;Ks'(si,sj)為第si個多視角三維物體與第sj個多視角三維物體間的高斯核。
2)單視角高斯核:
Kv'(vi,vj)=exp(-||vvi-vvj||2/2t2),其中vi,vj∈{1,2,...,n},t為單視角向量集V的標準差;n為單視角三維物體的個數(shù);vvi為第vi個單視角三維物體的特征;vvj為第vj個單視角三維物體的特征;Kv'(vi,vj)為第vi個單視角三維物體與第vj個單視角三維物體間的高斯核。
3)跨視角高斯核:
首先計算多視角向量集的協(xié)方差矩陣C={C1,C2,...,Cm}和單視角向量集V的馬氏距離 其中ηsj是多視角向量集S中ssj的平均值矩陣。
通過計算d(vvi,Csj)的高斯核得到跨視角高斯核,K′sv(vi,sj)=exp(-d(vvi,Csj)2/2τ2),其中τ是馬氏距離d(vvi,Csj)的標準方差;K′sv(vi,sj)為第vi個單視角三維物體與第sj個多視角三維物體間的高斯核。
204:從多視角模型庫SD和單視角模型庫VD中分別選擇一些物體作為訓(xùn)練集,將這些物體的多視角高斯核K′s_train和跨視角高斯核K′sv_train合并為多視角訓(xùn)練特征Ks=[K′s_train,K′sv_train],將這些物體的單視角高斯核K′v_train和跨視角高斯核K′sv_train合并為單 視角訓(xùn)練特征Kv=[K′v_train,(K′sv_train)T],利用多視角訓(xùn)練特征和單視角訓(xùn)練特征構(gòu)建目標函數(shù)并使其最小化得到特征匹配矩陣;
將多視角訓(xùn)練特征Ks的轉(zhuǎn)換函數(shù)定義為ψ,單視角訓(xùn)練特征Kv的轉(zhuǎn)換函數(shù)定義為f,構(gòu)建目標函數(shù)如下:
其中,λ1>0,λ2>0為權(quán)重函數(shù)并滿足λ1+λ2=1。
C(f,ψ)是多視圖訓(xùn)練特征和單視圖訓(xùn)練特征之間相似度和不相似度的約束項:
其中,為第vi個單視角三維物體的類別標簽;為第si個多視角三維物體的類別標簽;f(vvi)為第vi個單視角三維物體的轉(zhuǎn)換矩陣;ψ(ssj)為第si個多視角三維物體的轉(zhuǎn)換矩陣。
D(f,ψ)=Dv(f)+Ds(ψ)保持了所有訓(xùn)練特征的幾何特性:
其中,f(vvj)為第vj個單視角三維物體的轉(zhuǎn)換矩陣;vvi為第vi個單視角三維物體的特 征;vvj為第vj個單視角三維物體的特征;為第vi個單視角三維物體的類別標簽;k1(vi,vj)表示第vi個單視角三維物體在第vj個單視角三維物體的臨近點中;k2(vi,vj)為第vj個單視角三維物體在第vi個單視角三維物體的臨近點中;k1(si,sj)表示第si個多視角三維物體在第sj個多視角三維物體的臨近點中;k2(si,sj)第sj個多視角三維物體在第si個多視角三維物體的臨近點中;ssi為第si個多視角三維物體的特征;ssj為第sj個多視角三維物體的特征;為第si個多視角三維物體的類別標簽;εv,εs分別為單視角訓(xùn)練特征Kv=[K′v_train,K′sv_train]和多視角訓(xùn)練特征Ks的標準差。
O(f,ψ)保持了數(shù)據(jù)的各同向性分布,避免了函數(shù)會出現(xiàn)奇異值的情況。
將轉(zhuǎn)換函數(shù)f,ψ變?yōu)槠渲蠦vi為第vi個單視角三維物體的轉(zhuǎn)換矩陣;Kv,vi為第vi個單視角三維物體特征轉(zhuǎn)換后的矩陣與其他單視角三維物體特征轉(zhuǎn)換后的矩陣的內(nèi)積之和;Bsj為第si個多視角三維物體的轉(zhuǎn)換矩陣;Ks,sj為第si個多視角三維物體特征轉(zhuǎn)換后的矩陣與其他多視角三維物體特征轉(zhuǎn)換后的矩陣的內(nèi)積之和。
基于上述轉(zhuǎn)換,目標函數(shù)中的C(f,ψ),D(f,ψ),O(f,ψ)可重新寫為下列矩陣的形式:
其中,C(Bv,Bs)為C(f,ψ)的矩陣表現(xiàn)形式;Bv為單視角三維物體的特征轉(zhuǎn)換矩陣;Kv為單視角高斯核;Bs為多視角三位物體的特征轉(zhuǎn)換矩陣;Ks為多視角高斯核;Rv=Zv-Wv;Rs=Zs-Ws;Zv',Zs',Zv and Zs是對角矩陣;and將W分為類內(nèi)點和類間點變量:W=Ww+Wb。Wv和Ws與W的計算方法相同。
基于上述劃分,C(Bv,Bs)可被表示為C(Bv,Bs)=Cw(Bv,Bs)+Cb(Bv,Bs),Dv和Ds可用相同的方式表示得到D(Bv,Bs)=Dw(Bv,Bs)+Db(Bv,Bs)。Cw(Bv,Bs)為C(Bv,Bs)的類內(nèi)部分;Cb(Bv,Bs)為C(Bv,Bs)的類間部分;Dw(Bv,Bs)為D(Bv,Bs)的類內(nèi)部分;Db(Bv,Bs)為D(Bv,Bs)的類間部分;Ww(vi,sj)為第vi個單視角三維物體類別標簽與第sj個多視角三維物體類別標簽之間的類內(nèi)關(guān)系;Wb(vi,sj)為第vi個單視角三維物體類別標簽與第sj個多視角三維物體類別標簽之間的類間關(guān)系。
為了得到最終的Bv和Bs值,需要對其進行初始化,初始化是通過最大化類內(nèi)相似度并最小化類間相似度得到的:
s.t.λ1Cw(Bv,Bs)+λ2Dw(Bv,Bs)=1
初始化Bv和Bs后,固定Bs對目標函數(shù)中的Bv求導(dǎo),并使求導(dǎo)后的式子值為零,可得到更新后的Bv:
其中I為對角矩陣。
然后固定Bv對目標函數(shù)中的Bs求導(dǎo),可得到更新后的Bs:
經(jīng)過迭代設(shè)定好的次數(shù)后,可得到最終的轉(zhuǎn)換矩陣Bv,Bs。
205:從多視角模型庫和單視角模型庫中分別選擇一些物體作為測試集,將這些物體的多視角高斯核K′s_test和跨視角高斯核K′sv_test合并為多視角測試特征Ks_t=[K′s_test,K′sv_test],將這些物體的單視角高斯核K′v_test和跨視角高斯核合K′sv_test并為單視角測試特征Kv_t=[K′v_test,(K′sv_test)T];
206:將多視角測試特征Ks_t乘以步驟204中得到的轉(zhuǎn)換函數(shù)Bs得到映射后的特征Us=Ks_t*Bs,將單視角測試特征Kv_t乘以步驟204中得到的轉(zhuǎn)換函數(shù)Bv得到映射后的特征Uv=Kv_t*Bv;計算特征間的cos距離進而獲得模型之間的相似度。
sim=1-cos(Us,Uv)
sim的值越大代表模型間越相似。
綜上所述,本發(fā)明實施例避免了采集初始視圖時對樣本視圖數(shù)的依賴,可以應(yīng)用于任何基于視圖的三維模型數(shù)據(jù)庫;并且當使用訓(xùn)練樣本來訓(xùn)練特征匹配矩陣,提高了匹配精確度。
實施例3
下面結(jié)合具體的實驗數(shù)據(jù)、圖4對實施例1和2中的方案進行可行性驗證,詳見下文描述:
本實驗使用的數(shù)據(jù)庫為由中國臺灣大學(xué)發(fā)布的數(shù)據(jù)庫ETH。這是一個真實世界的多視角模型數(shù)據(jù)庫,共包含8類80個物體,每個物體共有41張視圖。本實驗中挑選24個物體每類3個作為訓(xùn)練集,48個物體每類6個作為測試集。
本實驗中涉及到了幾個參數(shù):迭代次數(shù),權(quán)重系數(shù)λ1,λ2和鄰近點數(shù)k1,k2。本實驗中設(shè)置迭代次數(shù)為10,權(quán)重系數(shù)λ1=0.9,λ2=0.1和鄰近點數(shù)k1=2,k2=5。
采用查準-查全曲線(Precision-Recall)來衡量本方法的檢索性能。查準-查全曲線是三維物體檢索的性能評估的重要指標之一,以查全率(Recall)為橫坐標,查準率(Precision)為縱坐標。根據(jù)以下公式求得Recall和Precision,做出查準-查全曲線:
其中,Recall是查全率,Nz是正確檢索對象的數(shù)量,Nr是所有相關(guān)對象的數(shù)量。
其中,Precision是查準率,Nall是所有檢索對象的數(shù)量。
將本方法與三種三維模型檢索方法進行對比:
AVC[12](A Bayesian 3D Search Engine using Adaptive Views Clustering),又稱“利用可適應(yīng)視圖分類基于貝葉斯準則的三維檢索算法”;CCFV[13](Camera Constraint-Free View-Based),又稱“基于視圖的相機約束自由”;Hypergraph[14](Hypergraph Analysis),又稱“超圖分析”。
本實驗與三種三維模型檢索算法的查準-查全曲線比較結(jié)果如圖4所示,查準-查全曲線與橫縱坐標所圍面積越大,代表檢索性能越優(yōu)良。
由圖4可知,本方法的檢索性能明顯高于其他算法。這是由于與三維模型檢索算法相比,本方法結(jié)合使用正負匹配樣例訓(xùn)練模型參數(shù),大幅度提升了檢索性能。實驗結(jié)果驗證了本方法的可行性與優(yōu)越性。
參考文獻:
[1]Pu J,Lou K,Ramani K.A 2D Sketch-Based User Interface for 3D CAD Model Retrieval[J].Computer-Aided Design and Applications,2005,2(6):717-725.
[2]Bao H,Dong W.The calculation and the drawing of equivalent sections of model-based3D graphics[C]//International Congress on Image and Signal Processing.IEEE,2015.
[3]Watanabe T,Saito Y.Camera modeling technique of 3D sensing based on tile coding for computer vision[C]//International Conference on Body Area Networks.2013.
[4]Kider J T.Simulation of3D model,shape,and appearance aging by physical,chemical,biological,environmental,and weathering effects[J].Dissertations&Theses-Gradworks,2012.
[5]Guetat G,Maitre M,Joly L,et al.Automatic 3-D grayscale volume matching and shape analysis[J].Information Technology in Biomedicine IEEE Transactions on,2006,10(2):362-376.
[6]Wong H S,Ma B,Yu Z,et al.3-D Head Model Retrieval Using a Single Face View Query[J].Multimedia IEEE Transactions on,2007,9(5):1026-1036.
[7]張飛.三維模型特征提取和相關(guān)反饋算法研究與實現(xiàn)[D].西北大學(xué),2010.
[8]Kumar M.Strategy for Design and Building Multimedia Data Type[J].International Journal of Computer Applications,2013,73(4):50-52.
[9]Renu R S,Mocko G.Computing similarity oftext-based assembly processes for knowledge retrieval and reuse[J].Journal of Manufacturing Systems,2016,39:101-110.
[10]Chen Y,Medasani S,Jiang Q,et al.Video content-based retrieval[J].2016.
[11]俞曉妮.基于特征提取的三維模型檢索技術(shù)研究[J].科技傳播,2014,(2).
[12]Ansary T F,Daoudi M,Vandeborre J P.A bayesian 3-d search engine using adaptive views clustering[J].Multimedia,IEEE Transactions on,2007,9(1):78-88.
[13]Gao Y,Tang J,Hong R,et al.Camera Constraint-Free View-Based 3-D Object Retrieval[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2012,21(4):2269-2281.
[14]Gao Y,Wang M,Tao D,et al.3-D object retrieval and recognition with hypergraph analysis.[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2012,21(9):4290-303.
本領(lǐng)域技術(shù)人員可以理解附圖只是一個優(yōu)選實施例的示意圖,上述本發(fā)明實施例序號僅僅為了描述,不代表實施例的優(yōu)劣。
以上所述僅為本發(fā)明的較佳實施例,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。