專利名稱:一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法
技術(shù)領(lǐng)域:
本發(fā)明屬于視頻檢索技術(shù)領(lǐng)域,具體涉及一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法。
現(xiàn)有技術(shù)中,如文獻(xiàn)“A New Approach to Retrieval Video by ExampleVideo Clip”[X.M.Liu,Y.T.Zhuang,and Y.H.Pan,ACM Multimedia,pp.41-44,1999]所述,視頻檢索的一般方法是首先進(jìn)行鏡頭邊界檢測(cè),以鏡頭作為視頻序列的基本結(jié)構(gòu)單元和檢索單元;然后在每個(gè)鏡頭內(nèi)部提取關(guān)鍵幀來(lái)代表該鏡頭的內(nèi)容,從關(guān)鍵幀提取出顏色和紋理等低級(jí)特征,用于鏡頭的索引和檢索。這樣,就把基于內(nèi)容的鏡頭檢索轉(zhuǎn)化為基于內(nèi)容的圖像檢索來(lái)解決。這類方法存在的問(wèn)題是,鏡頭是圖像在時(shí)間上的連續(xù)序列,沒(méi)有對(duì)存在于視頻中的時(shí)間信息和運(yùn)動(dòng)信息充分進(jìn)行利用。另外在2002年在IEEE Trans.Circuits and Systems for Video Technology發(fā)表的文獻(xiàn)“An efficient algorithm forvideo sequence matching using the modified Hausdorff distance and the directeddivergence”(該文獻(xiàn)作者是s.H.Kim and R.-H.Park,vol.CSVT-12,no.7,頁(yè)碼592-595)用積累的定向發(fā)散(Cumulative Directed Divergence)方法抽取關(guān)鍵幀,用改進(jìn)的豪斯多夫距離(Modified Hausdorff Distance)方法得到兩個(gè)鏡頭之間的相似程度,抽取關(guān)鍵幀和定義鏡頭相似性時(shí)使用了YUV顏色空間直方圖。由于抽取關(guān)鍵幀時(shí)設(shè)定了兩個(gè)閾值前后幀相似值的閾值和當(dāng)前幀與前一個(gè)關(guān)鍵幀之間相似值的閾值,必須同時(shí)滿足這兩個(gè)條件才能出現(xiàn)一個(gè)關(guān)鍵幀,這樣將會(huì)影響關(guān)鍵幀提取的準(zhǔn)確性,最終勢(shì)必會(huì)影響查詢的正確性;另外,使用了視頻中常用的YUV顏色空間作為視覺(jué)特征,它與HSV顏色空間相比,和人們的視覺(jué)感知并不大一致。
本發(fā)明的目的是這樣實(shí)現(xiàn)的一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,包括以下步驟(1)首先對(duì)視頻數(shù)據(jù)庫(kù)進(jìn)行鏡頭分割,以鏡頭作為視頻的基本結(jié)構(gòu)單元和檢索單元;(2)計(jì)算兩個(gè)幀圖像之間的相似度,按下面的方法建立模糊相似矩陣R當(dāng)i=j(luò)時(shí),令rij為1;當(dāng)i≠j時(shí),令rij為xi與yj之間的相似度;(3)利用傳遞閉包方法計(jì)算模糊相似矩陣R的等價(jià)矩陣 (4)設(shè)置閾值λ確定截集,對(duì)R矩陣的傳遞閉包矩陣 進(jìn)行模糊聚類,計(jì)算[x]={y|R^(x,y)≥λ},]]>集合[x]即為模糊聚類的等價(jià)類,每個(gè)等價(jià)類集合中各幀是相似的,所以我們可以取每個(gè)集合中任一幀作為關(guān)鍵幀;(5)用關(guān)鍵幀{ri1,ri2,...,rik}表示鏡頭si,用關(guān)鍵幀集合來(lái)度量?jī)蓚€(gè)鏡頭之間的相似性。
進(jìn)一步來(lái)說(shuō),步驟(1)中對(duì)視頻數(shù)據(jù)庫(kù)進(jìn)行鏡頭分割的方法最好為時(shí)空切片算法。步驟(2)中計(jì)算xi與yj之間的相似度可以用兩個(gè)圖像直方圖的交來(lái)計(jì)算Intersect(xi,yj)=1A(xi,yj)ΣhΣsΣvmin{Hi(h,s,v),Hj(h,s,v)}]]>A(xi,xj)=min{ΣhΣsΣvHi(h,s,v),ΣhΣsΣvHj(h,s,v)}]]>Hi(h,s,v)是HSV顏色空間的直方圖,我們用H,S,V分量在18×3×3的三維空間中統(tǒng)計(jì)直方圖,以歸一化后的162個(gè)數(shù)值作為顏色特征值,Intersect(xi,yj)表示兩個(gè)直方圖的交,用它來(lái)判斷兩個(gè)關(guān)鍵幀的相似性,使用A(xi,yj)歸一化到0,1之間。
再進(jìn)一步,步驟(3)中,計(jì)算模糊相似矩陣R的等價(jià)矩陣 的傳遞閉包方法可采用平方法R→R2→(R2)2→···→R2k=R^,]]>它的時(shí)間復(fù)雜度為O(n3log2n),如果n值特別大,勢(shì)必會(huì)影響總的計(jì)算時(shí)間,所以采用基于圖連通分支計(jì)算的模糊聚類最佳算法計(jì)算矩陣的合成運(yùn)算,遞推如下rij(0)=rij---0≤i,j≤n]]>rij(k)=max{rij(k-1),min[rik(k-1),rkj(k-1)]}----0≤i,j≤n;0≤k≤n]]>這種算法的時(shí)間復(fù)雜度T(n)滿足O(n)≤T(n)≤O(n2)。
為了更好地實(shí)現(xiàn)本發(fā)明的目的,在進(jìn)行鏡頭檢索時(shí),對(duì) 進(jìn)行模糊聚類的方法如下(1)確定n個(gè)樣本X=(X1,...,Xn)上的模糊相似關(guān)系R和一個(gè)截集閾值α;(2)將R按下面計(jì)算改造為一個(gè)等價(jià)矩陣;RoR=R2R2oR2=R4...R2koR2k=R2(K+1)]]>直到存在一個(gè)k滿足R2k=R2(k+1)]]>上述式子中,RoR為模糊關(guān)系的合成運(yùn)算,在R是相似矩陣的假設(shè)下,已證明必有這樣的k存在,滿足k≤log n;(3)計(jì)算集合[x]={y|R^(x,y)≥α},]]>[x]即為模糊聚類,算法結(jié)束;對(duì)n個(gè)樣本空間進(jìn)行模糊聚類分析后,得到若干個(gè)等價(jià)類,在每個(gè)等價(jià)類中選取一個(gè)樣本作為關(guān)鍵幀。這樣兩個(gè)鏡頭之間的相似度度量就變?yōu)殛P(guān)鍵幀集合之間的相似性度量。
在本方法的步驟(5)中,可以把鏡頭si和sj的相似度定義為Sim(si,sj)=12{M(si,sj)+M^(si,sj)},]]>M表示關(guān)鍵幀相似的最大值, 表示關(guān)鍵幀相似的第二大值,其中,M(si,sj)=maxp={1,2,...}maxq={1,2,...}{Intersect(rip,rjq)}]]>M^(si,sj)=maxp={1,2,...}^maxq={1,2,...}{Intersect(rip,rjq)}]]>Intersect(ri,rj)=1A(ri,rj)ΣhΣsΣvmin{Hi(h,s,v),Hj(h,s,v)}]]>A(ri,rj)=min{ΣhΣsΣvHi(h,s,v),ΣhΣsΣvHj(h,s,v)}.]]>本發(fā)明的效果在于采用本發(fā)明所述的對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,可以取得更高的準(zhǔn)確率,同時(shí)保持很快的檢索速度。
本發(fā)明之所以具有如此顯著的技術(shù)效果,其原因在于運(yùn)用模糊聚類分析的方法,把鏡頭內(nèi)容劃分為多個(gè)等價(jià)類,這些等價(jià)類很好的描述了鏡頭內(nèi)容的變化,而鏡頭之間的相似性則表現(xiàn)為關(guān)鍵幀結(jié)合之間的相似性。鏡頭之間相似性度量考慮了使用HSV顏色直方圖表示關(guān)鍵幀的缺點(diǎn)如果兩個(gè)關(guān)鍵幀有相似的顏色分布,即使它們的內(nèi)容不一樣,也會(huì)認(rèn)為這兩個(gè)關(guān)鍵幀相似。因此使用最大相似值和第二大相似值的平均值來(lái)加強(qiáng)算法的魯棒性。對(duì)比實(shí)驗(yàn)結(jié)果證實(shí)了本發(fā)明提出方法的有效性。
2、建立模糊相似矩陣R建立鏡頭內(nèi)部圖像之間的建立模糊相似矩陣R方法如下當(dāng)i=j(luò)時(shí),令rij為1,當(dāng)i≠j時(shí),令rij為xi與yj之間的相似度,相似度則采用如下方法來(lái)計(jì)算Intersect(xi,yj)=1A(xi,yj)ΣhΣsΣvmin{Hi(h,s,v),Hj(h,s,v)}]]>A(xi,xj)=min{ΣhΣsΣvHi(h,s,v),ΣhΣsΣvHj(h,s,v)}]]>
Hi(h,s,v)是HSV顏色空間的直方圖,我們用H,S,V分量在18×3×3的三維空間中統(tǒng)計(jì)直方圖,以歸一化后的162個(gè)數(shù)值作為顏色特征值。Intersect(xi,yj)表示兩個(gè)直方圖的交,用它來(lái)判斷兩個(gè)關(guān)鍵幀的相似性,使用A(xi,yj)歸一化到0,1之間。
3、求相似矩陣R的傳遞閉包,得到等價(jià)矩陣本實(shí)施例中,求相似矩陣的傳遞閉包采用平方法R→R2→(R2)2→···→R2k=R^]]>它的時(shí)間復(fù)雜度為O(n3log2n),如果n值特別大,勢(shì)必會(huì)影響總的計(jì)算時(shí)間。所以采用基于圖連通分支計(jì)算的模糊聚類最佳算法計(jì)算矩陣的合成運(yùn)算,遞推如下rij(0)=rij---0≤i,j≤n]]>rij(k)=max{rij(k-1),min[rik(k-1),rkj(k-1)]}----0≤i,j≤n;0≤k≤n.]]>這種算法的時(shí)間復(fù)雜度T(n)滿足O(n)≤T(n)≤O(n2)。
4、設(shè)置閾值λ確定截集,對(duì)R矩陣的傳遞閉包矩陣 進(jìn)行模糊聚類。
本實(shí)施例中,具體方法如下(1)確定n個(gè)樣本X=(x1,...,xn)上的模糊相似關(guān)系R和一個(gè)截集閾值α;(2)將R按下面計(jì)算改造為一個(gè)等價(jià)矩陣;RoR=R2R2oR2=R4...R2koR2k=R2(K+1)]]>直到存在一個(gè)k滿足R2k=R2(k+1)]]>上述式子中,RoR為模糊關(guān)系的合成運(yùn)算,在R是相似矩陣的假設(shè)下,已證明必有這樣的k存在,滿足k≤log n;(3)計(jì)算集合[x]={y|R^(x,y)≥α},]]>[x]即為模糊聚類,算法結(jié)束5、用模糊聚類分析方法得到鏡頭關(guān)鍵幀后,然后基于這些關(guān)鍵幀進(jìn)行鏡頭檢索。在此基礎(chǔ)上,用關(guān)鍵幀{ri1,ri2,...,rik)表示鏡頭,si把鏡頭si和sj的相似度定義為Sim(si,sj)=12{M(si,sj)+M^(si,sj)},]]>其中,M(si,sj)=maxp={1,2,...}maxq={1,2,...}{Intersect(rip,rjq)}]]>M^(si,sj)=maxp={1,2,...}^maxq={1,2,...}{Intersect(rip,rjq)}]]>Intersect(ri,rj)=1A(ri,rj)ΣhΣsΣvmin{Hi(h,s,v),Hj(h,s,v)}]]>A(ri,rj)=min{ΣhΣsΣvHi(h,s,v),ΣhΣsΣvHj(h,s,v)}.]]> 表示第二大的值,使用 是因?yàn)楸疚氖褂肏SV顏色直方圖來(lái)表示關(guān)鍵幀,它的缺點(diǎn)是如果兩個(gè)關(guān)鍵幀有相似的顏色分布,即使它們的內(nèi)容不一樣,也會(huì)認(rèn)為這兩個(gè)關(guān)鍵幀相似,為了克服這種缺陷,使用M和 的平均值來(lái)加強(qiáng)算法的魯棒性。Hi(h,s,v)是HSV顏色空間的直方圖,本文用H,S,V分量在18×3×3的三維空間中統(tǒng)計(jì)直方圖,以歸一化后的162個(gè)數(shù)值作為顏色特征值。Intersect(ri,rj)表示兩個(gè)直方圖的交,本文用它來(lái)判斷兩個(gè)關(guān)鍵幀的相似性。
下面的實(shí)驗(yàn)結(jié)果表明,本發(fā)明取得了比現(xiàn)有方法更好的效果,同時(shí)檢索速度很快,證實(shí)了模糊聚類分析算法在鏡頭檢索中的有效性。
鏡頭檢索的實(shí)驗(yàn)數(shù)據(jù)是從電視錄制的2002年亞運(yùn)會(huì)節(jié)目,總共有41分鐘,777個(gè)鏡頭,62132幀圖像。它包含多種體育項(xiàng)目,如各種球類運(yùn)動(dòng)、舉重、游泳以及插播的廣告節(jié)目等。我們選了7個(gè)語(yǔ)義類作為查詢鏡頭,它們是舉重、排球、游泳、柔道、劃船、體操、足球,如圖2所示。
為了驗(yàn)證本發(fā)明的有效性,我們測(cè)試了以下3種方法做實(shí)驗(yàn)對(duì)比(1)常用的使用每個(gè)鏡頭的首幀做關(guān)鍵幀的鏡頭檢索算法;(2)2002年在IEEE Trans.Circuits and Systems for Video Technology發(fā)表的文獻(xiàn)“An efficient algorithm for video sequence matching using the modifiedHausdorffdistance and the directed divergence”(該文獻(xiàn)作者是s.H.Kim and R.-H.Park,vo1.CSVT-12,no.7,頁(yè)碼592-595)中描述的算法;(3)使用模糊聚類分析算法得到關(guān)鍵幀進(jìn)行鏡頭檢索(只用顏色特征);上述前3種方法,都僅僅使用了顏色特征,因此最后的實(shí)驗(yàn)結(jié)果能夠從鏡頭相似度的度量方法上證明本發(fā)明所公開(kāi)方法的優(yōu)越性。圖3給出了實(shí)驗(yàn)程序的用戶界面,右邊上面一行是查詢視頻的瀏覽區(qū)域,顯示視頻中每個(gè)鏡頭的第1個(gè)關(guān)鍵幀,用來(lái)表示每個(gè)鏡頭,用戶可以從中選擇想要進(jìn)行查詢的鏡頭進(jìn)行檢索,右邊下面是查詢結(jié)果區(qū)域。圖3是選擇上面一行的第1個(gè)鏡頭,它是一個(gè)游泳鏡頭,由該鏡頭第一幀圖像022430.bmp來(lái)表示,按照本發(fā)明的方法計(jì)算出的相似度最大權(quán),從大到小排列查詢結(jié)果(從左到右,從上到下排列)。左邊下方為一個(gè)簡(jiǎn)易播放期,雙擊檢索結(jié)果圖像可以播放相應(yīng)鏡頭對(duì)應(yīng)的那段視頻。
實(shí)驗(yàn)采用了兩種在MPEG-7標(biāo)準(zhǔn)化活動(dòng)中的評(píng)價(jià)指標(biāo)平均歸一化調(diào)整后的檢索秩ANMRR(average normalized modified retrieval rank)和平均查全率AR(average recall)。AR類似于傳統(tǒng)的查全率(recall),而ANMRR與傳統(tǒng)的查準(zhǔn)率(precision)相比,不僅能夠反映出正確的檢索結(jié)果比例,而且能夠反映出正確結(jié)果的排列序號(hào)。ANMRR值越小,意味著檢索得到的正確鏡頭的排名越靠前;AR值越大,意味著在前K(K是檢索結(jié)果的截?cái)嘀?個(gè)查詢結(jié)果中相似鏡頭占所有相似鏡頭的比例越大。表1是上述3種方法對(duì)7個(gè)語(yǔ)義鏡頭類的AR和ANMRR比較。
表1 本發(fā)明與現(xiàn)有兩種方法的對(duì)比實(shí)驗(yàn)結(jié)果
從表1可以看出,采用本發(fā)明的方法,無(wú)論是AR,還是ANMRR,都取得了比現(xiàn)有的兩種算法更好的效果,證實(shí)了本發(fā)明把模糊聚類分析方法方法用于鏡頭檢索的有效性。本發(fā)明的方法運(yùn)用模糊聚類分析的方法,把鏡頭內(nèi)容劃分為多個(gè)等價(jià)類,這些等價(jià)類很好的描述了鏡頭內(nèi)容的變化,而鏡頭之間的相似性則表現(xiàn)為關(guān)鍵幀結(jié)合之間的相似性。鏡頭之間相似性度量考慮了使用HSV顏色直方圖表示關(guān)鍵幀的缺點(diǎn)如果兩個(gè)關(guān)鍵幀有相似的顏色分布,即使它們的內(nèi)容不一樣,也會(huì)認(rèn)為這兩個(gè)關(guān)鍵幀相似。因此使用最大相似值和第二大相似值的平均值來(lái)加強(qiáng)算法的魯棒性。對(duì)比實(shí)驗(yàn)結(jié)果證實(shí)了本發(fā)明提出方法的有效性。另外,在CPU 500M PIII,256M內(nèi)存的PC機(jī)上,本發(fā)明的算法平均檢索時(shí)間為22.557秒,對(duì)于777個(gè)鏡頭的視頻庫(kù)來(lái)說(shuō),本發(fā)明兩種算法的檢索速度都是很快的。
權(quán)利要求
1.一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,其特征在于該方法包括以下步驟(1)首先對(duì)視頻數(shù)據(jù)庫(kù)進(jìn)行鏡頭分割,以鏡頭作為視頻的基本結(jié)構(gòu)單元和檢索單元;(2)計(jì)算兩個(gè)幀圖像之間的相似度,按下面的方法建立模糊相似矩陣R當(dāng)i=j(luò)時(shí),令rij為1;當(dāng)i≠j時(shí),令rij為xi與yj,之間的相似度;(3)利用傳遞閉包方法計(jì)算模糊相似矩陣R的等價(jià)矩陣 (4)設(shè)置閾值λ確定截集,對(duì)R矩陣的傳遞閉包矩陣 進(jìn)行模糊聚類,計(jì)算[x]={y|R^(x,y)≥λ},]]>集合[x]即為模糊聚類的等價(jià)類,每個(gè)等價(jià)類集合中各幀是相似的,所以我們可以取每個(gè)集合中任一幀圖像作為關(guān)鍵幀;(5)用關(guān)鍵幀{ri1,ri2,...,rik}表示鏡頭si,關(guān)鍵幀集合來(lái)度量?jī)蓚€(gè)鏡頭之間的相似性。
2.如權(quán)利要求1所述的一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,其特征在于步驟(1)中,對(duì)視頻數(shù)據(jù)庫(kù)進(jìn)行鏡頭分割的方法為時(shí)空切片算法。
3.如權(quán)利要求1所述的一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,其特征在于步驟(2)中,計(jì)算xi與yj之間的相似度可以用兩個(gè)圖像直方圖的交來(lái)計(jì)算Intersect(xi,yj)=1A(xi,yj)ΣhΣsΣvmin{Hi(h,s,v),Hj(h,s,v)}]]>A(xi,xj)=min{ΣhΣsΣvHi(h,s,v),ΣhΣsΣvHj(h,s,v)}]]>Hi(h,s,v)是HSV顏色空間的直方圖,我們用H,S,V分量在18×3×3的三維空間中統(tǒng)計(jì)直方圖,以歸一化后的162個(gè)數(shù)值作為顔色特征值,Intersect(xi,yj)表示兩個(gè)直方圖的交,用它來(lái)判斷兩個(gè)關(guān)鍵幀的相似性,使用A(xi,yj)歸一化到0,1之間。
4.如權(quán)利要求1所述的一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,其特征在于步驟(3)中,計(jì)算模糊相似矩陣R的等價(jià)矩陣 的傳遞閉包方法采用平方法R→R2→(R2)2→···→R2k=R^,]]>它的時(shí)間復(fù)雜度為O(n3log2n),如果n值特別大,勢(shì)必會(huì)影響總的計(jì)算時(shí)間,所以采用基于圖連通分支計(jì)算的模糊聚類最佳算法計(jì)算矩陣的合成運(yùn)算,遞推如下rij(0)=rij---0≤i,j≤n]]>rij(k)=max{rij(k-1),min[rik(k-1),rkj(k-1)]}----0≤i,j≤n;0≤k≤n]]>這種算法的時(shí)間復(fù)雜度T(n)滿足O(n)≤T(n)≤O(n2)。
5.如權(quán)利要求1所述的一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,其特征在于對(duì) 進(jìn)行模糊聚類的方法如下(1)確定n個(gè)樣本x=(x1,...,xn)上的模糊相似關(guān)系R和一個(gè)截集閾值α;(2)將R按下面計(jì)算改造為一個(gè)等價(jià)矩陣RoR=R2R2oR2=R4...R2koR2k=R2(k+1)]]>直到存在一個(gè)k滿足R2k=R2(k+1)]]>上述式子中,RoR為模糊關(guān)系的合成運(yùn)算,在R是相似矩陣的假設(shè)下,已證明必有這樣的k存在,滿足k≤log n;(3)計(jì)算集合[x]={y|R^(x,y)≥α},]]>[x]即為模糊聚類,算法結(jié)束;對(duì)n個(gè)樣本空間進(jìn)行模糊聚類分析后,得到若干個(gè)等價(jià)類,在每個(gè)等價(jià)類中選取一個(gè)樣本作為關(guān)鍵幀,這樣兩個(gè)鏡頭之間的相似度度量就變?yōu)殛P(guān)鍵幀集合之間的相似性度量。
6.如權(quán)利要求1或5所述的一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法,其特征在于可以把鏡頭si和sj的相似度定義為Sim(si,sj)=12{M(si,sj)+M^(si,sj)},]]>M表示關(guān)鍵幀相似的最大值, 表示關(guān)鍵幀相似的第二大值,其中,M(si,sj)=maxp={1,2,...}maxq={1,2,...}{Intersect(rip,rjq)}]]>M^(si,sj)=maxp={1,2,...}^maxq={1,2,...}{Intersect(rip,rjq)}]]>Intersect(ri,rj)=1A(ri,rj)ΣhΣsΣvmin{Hi(h,s,v),Hj(h,s,v)}]]>A(ri,rj)=min{ΣhΣsΣvHi(h,s,v),ΣhΣsΣvHj(h,s,v)}.]]>
全文摘要
本發(fā)明屬于視頻檢索技術(shù)領(lǐng)域,具體涉及一種對(duì)鏡頭進(jìn)行基于內(nèi)容的視頻檢索的方法?,F(xiàn)有的基于內(nèi)容的鏡頭檢索方法往往存在著由于鏡頭內(nèi)容描述不準(zhǔn)確,檢索準(zhǔn)確率不高的問(wèn)題。針對(duì)現(xiàn)有技術(shù)中存在的不足,本發(fā)明首次將模糊聚類分析的方法用于鏡頭檢索。與現(xiàn)有方法相比,本發(fā)明提出的方法使用模糊聚類的方法,把鏡頭分為多個(gè)等價(jià)類,等價(jià)類內(nèi)部?jī)?nèi)容是一致的,這些等價(jià)類客觀全面的描述了鏡頭內(nèi)部?jī)?nèi)容的變化。然后把這些等價(jià)類用于鏡頭檢索,獲得了良好的檢索結(jié)果。本發(fā)明的效果在于進(jìn)行基于內(nèi)容的視頻檢索時(shí)可以取得更高的準(zhǔn)確率,同時(shí)保持很快的檢索速度。
文檔編號(hào)G06T5/40GK1477566SQ0315012
公開(kāi)日2004年2月25日 申請(qǐng)日期2003年7月18日 優(yōu)先權(quán)日2003年7月18日
發(fā)明者董慶杰, 彭宇新, 郭宗明 申請(qǐng)人:北京大學(xué)計(jì)算機(jī)科學(xué)技術(shù)研究所, 北京北大方正技術(shù)研究院有限公司