欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于深度學習的無參考圖像質量客觀評價方法與流程

文檔序號:11996555閱讀:333來源:國知局
本發(fā)明涉及一種圖像質量評價方法,尤其是涉及一種基于深度學習的無參考圖像質量客觀評價方法。

背景技術:
圖像質量評價(imagequalityassessment,IQA)是很多圖像處理應用中不可或缺的部分??陀^圖像質量評價模型是能自動預測圖像失真程度的算法,通常用于監(jiān)控多媒體服務,確保終端用戶獲得滿意的體驗質量。根據原始參考圖像是否可用,客觀圖像質量評價通??梢詣澐譃槿?,分別是全參考圖像質量評價、半參考圖像質量評價、無參考圖像質量評價(blindimagequalityassessment,BIQA)。無參考圖像質量評價方法能在沒有參考圖像和不知道失真類型的情況下預測圖像的感知質量,是最具挑戰(zhàn)性也是最實用的方法,因為在很多應用場合都無法獲得參考圖像。最高效的無參考圖像質量評價模型都建立在自然統(tǒng)計特性(naturalscenestatistics,NSS)上,無失真的自然圖像的分布具有穩(wěn)定的分布形狀,而這個分布形狀在圖像質量衰減時會被破壞或改變,這個性質可以用于預測待測圖像的質量。目前,已有的基于NSS的無參考圖像質量評價方法通常是在兩步框架下實現的:首先提取失真圖像的自然統(tǒng)計特征,然后采用基于機器學習方法的質量預測模型預測失真圖像的客觀質量,其中,基于機器學習方法的質量預測模型是在由帶有主觀分數的失真圖像構成的訓練集上經過訓練得到的?,F有的基于NSS的無參考圖像質量評價方法大多是從不同的變換域中提取自然統(tǒng)計特征,如Moorthy等人從小波域提取NSS特征,提出了盲圖像質量評價(BlindImageQualityIndex,BIQI)及其改進算法即基于失真分類的圖像真實性和完整性評估(DistortionIdentification-basedImageVerityandINtegrityEvaluation,DIIVINE);Saad等人在DCT域提出了改進的基于DCT統(tǒng)計特性的盲圖像完整性評價(BLindImageIntegrityNotatorusingDCTStatistics-II,BLIINDS-II);Liu等人用局部空域和頻域熵作為特征提出了基于時空域熵的質量評價(Spatial–SpectralEntropy-basedQualityindex,SSEQ);但是,一方面,這些方法的時間復雜度都非常高,不利于實時應用;另一方面,這些方法都需要機器學習方法訓練預測模型,常用的機器學習方法有神經網絡、支持向量基、隨機森林等,然而由于這些機器學習方法都是淺層學習方法,通常由單層或雙層非線性特征轉換層構成,因此這些機器學習方法在將特征映射到真實標簽時不夠準確,而且眾所周知,人類視覺機制是非常復雜的,很難被淺層學習方法很好的表達。Hou等人訓練了一個深信網絡(Deepbeliefnetwork,DBN)分類模型用于預測圖像的質量;Gu等人提取了大量的統(tǒng)計特性并訓練了一個堆棧自編碼器(Stackedauto-encoder,SAE)用于回歸;這些方法都是基于深度學習的無參考圖像質量評價方法,但是這些方法的評價準確性較低,說明經典深度學習模型無法直接應用于圖像質量評價。

技術實現要素:
本發(fā)明所要解決的技術問題是提供一種基于深度學習的無參考圖像質量客觀評價方法,其能夠有效地提高客觀評價結果與主觀感知之間的相關性。本發(fā)明解決上述技術問題所采用的技術方案為:一種基于深度學習的無參考圖像質量客觀評價方法,其特征在于包括以下步驟:①令Idis表示待評價的失真圖像,將Idis的亮度分量圖像記為Ilight;②采用m個尺度的多分辨率金字塔對Ilight進行分解,得到Ilight的m幅第一子帶圖像,將Ilight的第i幅第一子帶圖像記為Ilight,i;然后采用n個尺度的高斯差分對Ilight的每幅第一子帶圖像進行再次分解,得到Ilight的每幅第一子帶圖像的n幅第二子帶圖像,將Ilight,i的第j幅第二子帶圖像記為Ilight,i,j;其中,m≥1,i的初始值為1,1≤i≤m,n≥1,j的初始值為1,1≤j≤n;③對Ilight對應的m×n幅第二子帶圖像分別進行局部歸一化處理,得到Ilight對應的每幅第二子帶圖像的歸一化圖像,將Ilight,i,j的歸一化圖像記為④統(tǒng)計Ilight對應的每幅第二子帶圖像的歸一化圖像的灰度直方圖,將的灰度直方圖記為{Xlight,i,j(k)|1≤k≤256},其中,Xlight,i,j(k)表示中像素值屬于第k個像素值區(qū)間的像素點的總個數,對應的256個像素值區(qū)間的獲取過程為:將中像素值的最小值和最大值對應記為pixmin和pixmax,然后將區(qū)間[pixmin,pixmax]等間隔劃分為256個子區(qū)間,再將區(qū)間[pixmin,pixmax]中的第k個子區(qū)間作為對應的第k個像素值區(qū)間;⑤估計Ilight對應的每幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,將{Xlight,i,j(k)|1≤k≤256}的包絡曲線的四個分布參數依次記為⑥將Ilight對應的共4×m×n個分布參數按序排列構成的集合作為Ilight的自然統(tǒng)計特征集,記為F,,其中,表示Ilight的第1幅第一子帶圖像的第1幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,表示Ilight的第1幅第一子帶圖像的第n幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,表示Ilight的第2幅第一子帶圖像的第1幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,表示Ilight的第m幅第一子帶圖像的第n幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數;⑦采用d幅原始的無失真圖像,建立其在不同失真類型不同失真程度下的失真圖像集合,將該失真圖像集合作為訓練集,訓練集包括多幅失真圖像;然后利用主觀質量評價方法評價出訓練集中的每幅失真圖像的平均主觀意見分,將訓練集中的第t幅失真圖像的平均主觀意見分記為MOSt;再按照步驟①至步驟⑥的過程,以相同的方式獲取訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集,將訓練集中的第t幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集記為Ft;其中,d≥1,1≤t≤T,T表示訓練集中包含的失真圖像的總幅數,MOSt∈[0,5];⑧采用深度學習中的堆棧自編碼器算法對訓練集中的所有失真圖像各自對應的自然統(tǒng)計特征集和平均主觀意見分進行訓練,使得經過訓練得到的預測質量值與對應的平均主觀意見分之間的誤差最小,訓練得到基于深度學習的回歸模型;其中,堆棧自編碼器由一個輸入層、三個稀疏自編碼層和一個線性回歸層構成,輸入層輸入的是訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集,輸入層有4×m×n個節(jié)點,三個稀疏自編碼層對輸入的自然統(tǒng)計特征集進行深度表達,三個稀疏自編碼層依次有200個節(jié)點、100個節(jié)點、100個節(jié)點,線性回歸層輸出的是訓練集中的每幅失真圖像的預測質量值,線性回歸層只有一個節(jié)點;⑨將基于深度學習的回歸模型中的一個輸入層和三個稀疏自編碼層構成深度表達模型;然后利用深度表達模型對F進行深度表達,得到Ilight的深度特征集,記為Fd,Fd=MODSAE(F),并利用深度表達模型對訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集進行深度表達,得到訓練集中的每幅失真圖像的亮度分量圖像的深度特征集,將訓練集中的第t幅失真圖像的亮度分量圖像的深度特征集記為其中,MODSAE()為深度表達模型的函數表示形式;⑩采用支持向量回歸算法,對訓練集中的所有失真圖像各自對應的深度特征集和平均主觀意見分進行訓練,使得經過訓練得到的回歸函數值與對應的平均主觀意見分之間的誤差最小,訓練得到支持向量回歸模型;然后利用支持向量回歸模型對Fd進行測試,預測得到Idis的客觀質量評價預測值,記為Qdis,Qdis=MODSVR(Fd),其中,MODSVR()為支持向量回歸模型的函數表示形式。所述的步驟②中的其中,符號為卷積符號,Gj()表示第j個高斯函數,Gj+1()表示第j+1個高斯函數,Gj(σj)表示Gj()的尺度系數為σj時的高斯卷積核,Gj+1(σj+1)表示Gj+1()的尺度系數為σj+1時的高斯卷積核,假設Gj(σj)和Gj+1(σj+1)的大小均為c×c,則將Gj(σj)中位置為(x,y)處的值記為Gj(x,y;σj),將Gj+1(σj+1)中位置為(x,y)處的值記為Gj+1(x,y;σj+1),exp()表示以自然基數e為底的指數函數,1≤x≤c,1≤y≤c,c=7,σj=1.6j-2,σj+1=1.6j+1-2。所述的步驟③中采用尺寸大小為(P-(-P)+1)×(Q-(-Q)+1)的滑動窗口對Ilight對應的每幅第二子帶圖像進行局部歸一化處理;將中坐標位置為(u,v)的像素點的像素值記為其中,P∈[1,5],Q∈[1,5]且P=Q,1≤u≤W,1≤v≤H,W和H對應表示Ilight,i,j的寬度和高度,Ilight,i,j(u,v)表示Ilight,i,j中坐標位置為(u,v)的像素點的像素值,Ilight,i,j(u+p,v+q)表示Ilight,i,j中坐標位置為(u+p,v+q)的像素點的像素值,-P≤p≤P,-Q≤q≤Q。所述的步驟⑤中的分布參數的估計采用L矩估計方法。所述的步驟⑤中的其中,與現有技術相比,本發(fā)明的優(yōu)點在于:1)本發(fā)明方法是將待評價的失真圖像進行多分辨率金字塔和高斯差分分解后,對子帶圖像做簡單的局部歸一化就可以提取自然統(tǒng)計特征,不需要到變換域提取特征,從而復雜度大幅降低;本發(fā)明方法無需參考圖像、無需失真類型,用自然統(tǒng)計特性的丟失程度衡量圖像的失真程度;本發(fā)明方法能夠客觀地反映圖像受到各種圖像處理和壓縮方法影響下視覺質量的變化情況,并且本發(fā)明方法的評價性能不受圖像內容和失真類型的影響,與人眼的主觀感知一致。2)本發(fā)明方法首先采用深度學習中的堆棧自編碼器算法對訓練集中的所有失真圖像各自對應的自然統(tǒng)計特征集和平均主觀意見分進行訓練,得到基于深度學習的回歸模型;然后去掉最后的線性回歸層,得到深度表達模型,用深度表達模型對訓練集中的每幅失真圖像及待評價的失真圖像各自對應的自然統(tǒng)計特征集進行深度表達,得到相應的深度特征集;再采用支持向量回歸算法,對訓練集中的所有失真圖像各自對應的深度特征集和平均主觀意見分進行訓練,得到支持向量回歸模型;最后利用支持向量回歸模型對待評價的失真圖像相應的深度特征集進行測試,預測得到待評價的失真圖像的客觀質量評價預測值;這種深度表達再非線性回歸的特征融合方法,使特征參數以最佳的融合方式預測失真圖像的客觀質量評價預測值,避免了對人類視覺系統(tǒng)的相關特性與機理的復雜模擬過程,并且由于訓練的自然統(tǒng)計特征集和測試的自然統(tǒng)計特征集是相互獨立的,因此可以避免測試結果對訓練數據的過度依賴,從而能夠有效地提高客觀評價結果與主觀感知之間的相關性。3)本發(fā)明方法采用現有的L矩估計方法估計灰度直方圖的包絡曲線的分布參數,估計得到的分布參數更加準確,具有更強的泛化能力。附圖說明圖1為本發(fā)明方法的總體實現框圖。具體實施方式以下結合附圖實施例對本發(fā)明作進一步詳細描述。由于在很多應用場合都無法獲取參考圖像,因此無參考的圖像質量評價方法是最具實用性和挑戰(zhàn)性的研究課題,而傳統(tǒng)的無參考的圖像質量評價都有很高的計算復雜度和時間復雜度,同時預測的客觀質量與主觀感知之間的一致性較差。本發(fā)明通過對圖像進行分解在空域提取自然統(tǒng)計特征,時間復雜度非常低,同時采用多分辨率金字塔和高斯差分分解能對圖像進行多分辨率分析和多尺度紋理分析,從而提取更好的自然統(tǒng)計特征;本發(fā)明還在傳統(tǒng)的淺層學習算法進行回歸之前,加入了深度表達模型用于挖掘特征中與感知質量相關性更高的潛在信息,并對特征進行深度表達,從而使回歸模型具有更高的預測準確性和更強的泛化能力。本發(fā)明提出的一種基于深度學習的無參考圖像質量客觀評價方法,其總體實現框圖如圖1所示,其包括以下步驟:①令Idis表示待評價的失真圖像,將Idis的亮度分量圖像記為Ilight。②采用m個尺度的多分辨率金字塔對Ilight進行分解,得到Ilight的m幅第一子帶圖像,將Ilight的第i幅第一子帶圖像記為Ilight,i;然后采用n個尺度的高斯差分對Ilight的每幅第一子帶圖像進行再次分解,得到Ilight的每幅第一子帶圖像的n幅第二子帶圖像,將Ilight,i的第j幅第二子帶圖像記為Ilight,i,j;其中,采用多分辨率金字塔分解圖像為現有技術,得到的子帶圖像的尺寸大小隨尺度越大,越來越小,m≥1,在本實施例中取m=5,對本發(fā)明方法進行實驗發(fā)現取m=5時效果最好,i的初始值為1,1≤i≤m,采用高斯差分分解圖像為現有技術,得到的子帶圖像的尺寸大小與被分解的圖像的尺寸大小一致,n≥1,在本實施例中取n=5,對本發(fā)明方法進行實驗發(fā)現取n=5時效果最好,j的初始值為1,1≤j≤n,Ilight經過多分辨率金字塔和高斯差分兩級分解,共得到Ilight對應的m×n幅第二子帶圖像。在此具體實施例中,步驟②中的其中,符號為卷積符號,Gj()表示第j個高斯函數,Gj+1()表示第j+1個高斯函數,Gj(σj)表示Gj()的尺度系數為σj時的高斯卷積核,Gj+1(σj+1)表示Gj+1()的尺度系數為σj+1時的高斯卷積核,假設Gj(σj)和Gj+1(σj+1)的大小均為c×c,則將Gj(σj)中位置為(x,y)處的值記為Gj(x,y;σj),將Gj+1(σj+1)中位置為(x,y)處的值記為Gj+1(x,y;σj+1),exp()表示以自然基數e為底的指數函數,1≤x≤c,1≤y≤c,c=7,σj=1.6j-2,σj+1=1.6j+1-2。③對Ilight對應的m×n幅第二子帶圖像分別進行局部歸一化處理,得到Ilight對應的每幅第二子帶圖像的歸一化圖像,將Ilight,i,j經局部歸一化處理后得到的歸一化圖像記為在此具體實施例中,步驟③中采用尺寸大小為(P-(-P)+1)×(Q-(-Q)+1)的滑動窗口對Ilight對應的每幅第二子帶圖像進行局部歸一化處理;將中坐標位置為(u,v)的像素點的像素值記為其中,P∈[1,5],Q∈[1,5]且P=Q,在本實施例中取P=Q=3,即采用大小為7×7的滑動窗口進行局部歸一化,1≤u≤W,1≤v≤H,W和H對應表示Ilight,i,j的寬度和高度,Ilight,i,j(u,v)表示Ilight,i,j中坐標位置為(u,v)的像素點的像素值,Ilight,i,j(u+p,v+q)表示Ilight,i,j中坐標位置為(u+p,v+q)的像素點的像素值,-P≤p≤P,-Q≤q≤Q。④統(tǒng)計Ilight對應的每幅第二子帶圖像的歸一化圖像的灰度直方圖,將的灰度直方圖記為{Xlight,i,j(k)|1≤k≤256},其中,Xlight,i,j(k)表示中像素值屬于第k個像素值區(qū)間的像素點的總個數,對應的256個像素值區(qū)間的獲取過程為:將中像素值的最小值和最大值對應記為pixmin和pixmax,然后將區(qū)間[pixmin,pixmax]等間隔劃分為256個子區(qū)間,再將區(qū)間[pixmin,pixmax]中的第k個子區(qū)間作為對應的第k個像素值區(qū)間。⑤估計Ilight對應的每幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,將{Xlight,i,j(k)|1≤k≤256}的包絡曲線的四個分布參數依次記為分布參數用來確定包絡曲線的基本形狀,m×n幅第二子帶圖像共4×m×n個分布參數。在此具體實施例中,步驟⑤中的分布參數的估計采用現有的L矩估計方法;其中,⑥將Ilight對應的共4×m×n個分布參數按序排列構成的集合作為Ilight的自然統(tǒng)計特征集,記為F,,其中,表示Ilight的第1幅第一子帶圖像的第1幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,表示Ilight的第1幅第一子帶圖像的第n幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,表示Ilight的第2幅第一子帶圖像的第1幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數,表示Ilight的第m幅第一子帶圖像的第n幅第二子帶圖像的歸一化圖像的灰度直方圖的包絡曲線的四個分布參數。⑦采用d幅原始的無失真圖像,建立其在不同失真類型不同失真程度下的失真圖像集合,將該失真圖像集合作為訓練集,訓練集包括多幅失真圖像;然后利用現有的主觀質量評價方法評價出訓練集中的每幅失真圖像的平均主觀意見分,將訓練集中的第t幅失真圖像的平均主觀意見分記為MOSt;再按照步驟①至步驟⑥的過程,以相同的方式獲取訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集,將訓練集中的第t幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集記為Ft;其中,d≥1,1≤t≤T,T表示訓練集中包含的失真圖像的總幅數,MOSt∈[0,5]。⑧采用現有的深度學習中的堆棧自編碼器算法對訓練集中的所有失真圖像各自對應的自然統(tǒng)計特征集和平均主觀意見分進行訓練,使得經過訓練得到的預測質量值與對應的平均主觀意見分之間的誤差最小,訓練得到基于深度學習的回歸模型;其中,堆棧自編碼器由一個輸入層、三個稀疏自編碼層和一個線性回歸層構成,輸入層輸入的是訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集,輸入層有4×m×n個節(jié)點,三個稀疏自編碼層對輸入的自然統(tǒng)計特征集進行深度表達,三個稀疏自編碼層依次有200個節(jié)點、100個節(jié)點、100個節(jié)點,線性回歸層輸出的是訓練集中的每幅失真圖像的預測質量值,線性回歸層只有一個節(jié)點。在本實施例中,在堆棧自編碼器的預訓練過程中,每個稀疏自編碼層的學習率是0.01,學習率的調整因子是0.9,動量是0.9,訓練1000次;在堆棧自編碼器的微調訓練過程中,學習率為0.001,訓練500次。⑨將基于深度學習的回歸模型中的一個輸入層和三個稀疏自編碼層構成深度表達模型,該深度表達模型可以對輸入的自然統(tǒng)計特征集進行深度表達,得到與質量相關度更高的深度特征;然后利用深度表達模型對F進行深度表達,得到Ilight的深度特征集,記為Fd,Fd=MODSAE(F),并利用深度表達模型對訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集進行深度表達,得到訓練集中的每幅失真圖像的亮度分量圖像的深度特征集,將訓練集中的第t幅失真圖像的亮度分量圖像的深度特征集記為其中,MODSAE()為深度表達模型的函數表示形式。⑩采用現有的支持向量回歸(Supportvectorregression,SVR)算法,對訓練集中的所有失真圖像各自對應的深度特征集和平均主觀意見分進行訓練,使得經過訓練得到的回歸函數值與對應的平均主觀意見分之間的誤差最小,訓練得到支持向量回歸模型;然后利用支持向量回歸模型對Fd進行測試,預測得到Idis的客觀質量評價預測值,記為Qdis,Qdis=MODSVR(Fd),其中,MODSVR()為支持向量回歸模型的函數表示形式。為進一步說明本發(fā)明方法的可行性和有效性,對本發(fā)明方法進行試驗。采用LIVE圖像數據庫和TID2008圖像數據庫,LIVE圖像數據庫中包括29幅無失真圖像,5種失真類型有JPEG壓縮失真、JPEG2000壓縮失真、高斯白噪聲失真、高斯模糊失真和快衰落失真,總共779幅失真圖像;TID2008圖像數據庫中包括25幅無失真圖像,17種失真類型,總共1700幅失真圖像。試驗中,使用了LIVE圖像數據庫中的所有779幅失真圖像;使用了TID2008圖像數據庫中的25幅無失真圖像中的24幅自然圖像對應的四種常見失真類型的失真圖像,即JPEG壓縮失真、JPEG2000壓縮失真、高斯白噪聲失真和高斯模糊失真,總共384幅失真圖像。LIVE圖像數據庫和TID2008圖像數據庫都提供了每幅失真圖像的平均主觀意見分。分析利用本發(fā)明方法獲取的每幅失真圖像的客觀質量評價預測值與平均主觀意見分之間的相關性。這里,利用評估圖像質量評價方法的2個常用客觀參量作為評價指標,即線性相關性系數(LinearCorrelationCoefficients,LCC)和Spearman秩相關系數(SpearmanRankOrderCorrelationcoefficient,SROCC)。LCC和SROCC的取值范圍是[0,1],其值越接近1,表明圖像質量評價方法越好,反之,越差。試驗一:首先從LIVE圖像數據庫中的所有失真圖像中隨機抽取80%的失真圖像構成訓練集,剩余20%的失真圖像構成測試集;然后按照步驟①至步驟⑥的過程,以相同的方式獲取訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集;接著采用現有的深度學習中的堆棧自編碼器算法對訓練集中的所有失真圖像各自對應的自然統(tǒng)計特征集和平均主觀意見分進行訓練,使得經過訓練得到的預測質量值與對應的平均主觀意見分之間的誤差最小,訓練得到基于深度學習的回歸模型;之后將基于深度學習的回歸模型中的一個輸入層和三個稀疏自編碼層構成深度表達模型,利用深度表達模型對訓練集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集和測試集中的每幅失真圖像的亮度分量圖像的自然統(tǒng)計特征集進行深度表達,得到相應的深度特征集;再采用現有的支持向量回歸算法,對訓練集中的所有失真圖像各自對應的深度特征集和平均主觀意見分進行訓練,使得經過訓練得到的回歸函數值與對應的平均主觀意見分之間的誤差最小,訓練得到支持向量回歸模型;最后利用支持向量回歸模型對測試集中的每幅失真圖像的亮度分量圖像的深度特征集進行測試,預測得到測試集中的每幅失真圖像的客觀質量評價預測值。對TID2008圖像數據庫用同樣的方法進行測試。表示評價性能的LCC和SROCC系數如表1所列,從表1所列的數據可知,在兩個圖像數據庫上都有很高的預測準確性,說明利用本發(fā)明方法得到的失真圖像的客觀質量評價預測值與平均主觀意見分之間的相關性是很高的,表明客觀評價結果與人眼主觀感知的結果較為一致,足以說明本發(fā)明方法的有效性。表1按本發(fā)明方法計算得到的失真圖像的客觀質量評價預測值與平均主觀意見分之間的相關性LIVE圖像數據庫TID2008圖像數據庫SROCC0.95070.9576LCC0.94990.9653試驗二:將整個LIVE圖像數據庫中的所有失真圖像構成的集合作為訓練集,將整個TID2008圖像數據庫中的所有失真圖像構成的集合作為測試集,用與試驗一同樣的方法進行測試。表示評價性能的LCC和SROCC系數如表2所列,從表2所列的數據可知,訓練集與測試集完全獨立時,依然有很高的預測準確性,說明本發(fā)明方法具有很強的泛化能力,不受訓練集的影響。表2按本發(fā)明方法計算得到的失真圖像的客觀質量評價預測值與平均主觀意見分之間的相關性訓練集測試集SROCCLCCLIVE圖像數據庫TID2008圖像數據庫0.92450.9237
當前第1頁1 2 3 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
会东县| 安溪县| 自贡市| 辽宁省| 巧家县| 房山区| 四平市| 于田县| 奉节县| 射阳县| 靖远县| 和平区| 清苑县| 莱西市| 兴山县| 邹城市| 论坛| 富宁县| 靖边县| 汪清县| 屯昌县| 潼关县| 巴青县| 隆昌县| 日喀则市| 霍山县| 陇川县| 宜兴市| 九寨沟县| 麻栗坡县| 宁波市| 桐乡市| 文化| 中卫市| 遵义市| 子长县| 江达县| 广元市| 永宁县| 民乐县| 沽源县|