欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于nsct特征提取和監(jiān)督分類的視網膜圖像分割方法

文檔序號:6471395閱讀:177來源:國知局

專利名稱::基于nsct特征提取和監(jiān)督分類的視網膜圖像分割方法
技術領域
:本發(fā)明屬于圖像處理
技術領域
,涉及視網膜檢測的應用,可用于在醫(yī)學上從視網膜圖像提取視網膜血管。
背景技術
:醫(yī)學的發(fā)展與人類的健康密切相關,因此數字圖像處理技術從一開始就引起了生物醫(yī)學界的濃厚興趣。早在七十年代末就有文獻統(tǒng)計指出圖像處理的一個十分廣泛的應用場合是醫(yī)學圖像處理。醫(yī)學上不論在基礎學科還是臨床應用,都是圖像處理種類極多的領域。但是由于醫(yī)學圖像的處理技術難度大,使得很多處理很難達到臨床實用化程度。近年來,隨著數字圖像處理設備成本的降低,用數字圖像處理技術改善各類醫(yī)學圖像質量已達到實用階段。高血壓、腦血管硬化、冠狀動脈硬化等心腦血管疾病是目前我國老年人死亡和致殘的主要原因,此類疾病損傷的組織水平首先是在微循環(huán)和微血管層次的變化。眼底視網膜微血管是人體唯一可以非創(chuàng)傷性直接觀察的較深層的微血管,它的改變程度與高血壓等疾病的病程、嚴重程度及愈后情況密切相關。通過對視網膜血管系統(tǒng)的檢查可以發(fā)現高血壓,糖尿病,動脈硬化等疾病。在視網膜圖像中,血管占支配地位并且結構穩(wěn)定,因而可靠的血管提取是視網膜圖像分析和處理的先決條件?,F有的視網膜分割主要有兩種,一種是利用高斯濾波器,Hessian矩陣等來增強血管與背景的對比度,然后再進行進一步操作,或者進行閾值處理,或者采取區(qū)域生長。Jiang等人在2003年于Adaptivelocalthresholdingbyverification-basedmultithresholdprobingwithapplicationtovesseldetectioninretinalimages—文,提出了一種基于驗證的多閾值探査方案的自適應局部閾值分割,即先通過假定的閾值進行二值化得到假定的目標,然后通過驗證程序決定接受還是放棄該目標。另一種是利用分類器來分割血管。在這種方法中,關鍵問題是如何建立特征向量。J.Staal等人在2004年于Ridgebasedvesselsegmentationincolorimagesoftheretina—文,提出一種先利用脊檢測來獲取特征向量,然后分類分割血管的方法。Soares"a/.等人2006年于RetinalVesselSegmentationUsingthe2-DGaborWaveletandSupervisedClassification—文,提出了一種基于Gabor小波的多尺度和多方向特性進行特征提取,再通過監(jiān)督分類進行分割的方法。3在視網膜圖像血管分割中,最重要的就是血管檢測率的提高,但是由于視網膜圖像灰度全局不均衡,血管與背景對比度較差,存在噪聲以及各種病變區(qū)域的影響,因而上述這些方法對血管分割的結果均存在一定的誤差,其準確率還需要進一步提高。
發(fā)明內容本發(fā)明的目的是提供一種基于NonsubsampledContourletTransform(NSCT)和監(jiān)督分類的視網膜圖像分割方法。克服已有技術的不足,進一步提高分割的準確率。為實現上述目的,本發(fā)明的技術方案包括如下步驟一.特征提取步驟(1)對視網膜訓練圖像和待分割視網膜圖像,利用其紅色分量得到其感興趣區(qū)域ROI;(2)對視網膜訓練圖像和待分割視網膜圖像的綠色分量,分別進行感興趣區(qū)域邊緣迭代擴展;(3)對擴展后的視網膜訓練圖像和待分割視網膜圖像分別進行NSCT變換,將其分解為/層,每層有y個方向的子帶系數;(4)利用每層y個方向子帶系數提取一維特征,并逐層提取特征,組成特征向量,并進行歸一化;二.分類器的訓練與分割步驟1)對歸一化后的視網膜訓練圖像的特征向量建立訓練樣本;2)選用分類器,并利用訓練樣本對分類器進行訓練,將歸一化后的待分割視網膜圖像的特征向量輸入分類器中,對待分割視網膜圖像進行分割。上述的視網膜圖像分割方法中,步驟(3)所述的利用每層y個方向子帶系數提取一維特征,并逐層提取組成特征向量,按如下步驟進行(3a)對于每層分解的y'個方向子帶系數,將視網膜圖像中血管灰度與背景灰度的比較結果作為選取特征對象,如果視網膜圖像中血管灰度小于背景灰度,選取其中最小的系數作為特征,如果視網膜圖像中血管灰度大于背景灰度,選取其中最大的系數作為特征;(3b)按照步驟(3a),逐層進行相同特征提取操作,將得到的特征組成特征向量(3c)將視網膜訓練圖像和待分割視網膜圖像的綠色分量的灰度值作為一維特征加入特征向量,得到最終的特征向量v。本發(fā)明由于在NSCT的多尺度性,多方向性,平移不變性基礎上,結合視網膜圖像NSCT變換系數的具體表現形式,提出了一種新的特征提取方法,即用不同尺度上提取得特征描述不同寬度的視網膜血管,綜合若干尺度上獲得的特征組成特征向量,因而對視網膜圖像血管邊緣處的分割較為準確;同時由于本發(fā)明采取先訓練,后分類的監(jiān)督分類方法,在有監(jiān)督的情況下進行視網膜圖像分割,因而對視網膜圖像分割結果誤差較小。仿真結果表明,本發(fā)明比現有的視網膜圖像分割方法有較好的分割準確率。圖l是本發(fā)明的實現流程示意圖2是本發(fā)明中獲得視網膜圖像ROI區(qū)域的各個中間步驟結果示意圖;圖3是對視網膜綠色分量進行ROI邊沿擴展的結果示意圖;圖4是特征提取原理示意圖5是從對DRIVE數據庫進行實驗的結果中選出的兩幅圖像;圖6是從對STARE數據庫進行實驗的結果中選出的兩幅圖像;圖7是給出了對DRIVE數據庫進行測試的結果的ROC曲線圖8是本發(fā)明方法與現有Soares^&.方法仿真結果對比圖。具體實施方法參照圖l,本發(fā)明的具體實現過程如下步驟一,對視網膜訓練圖像和待分割視網膜圖像,利用其紅色分量得到其感興趣區(qū)域ROI,具體步驟參照圖2如下(1.1)對如圖2(a)所示的視網膜圖像的紅色分量除以255,如圖2(b),并通過高斯濾波器LOG對圖2(b)進行邊緣檢測,得到圖2(c);(L2)對圖2(c)進行先膨脹后腐蝕,使邊緣的斷裂處連接起來,得到圖2(d);(1.3)在圖2(d)中,沿著圖像邊緣添加一個輪廓;(1.4)通過閾值確定外部區(qū)域,在圖2(b)中,找到其灰度最大值max"t/,將灰度小于maxr^/X0.15的點標記為1,這樣就得到了一幅二值圖像,然后從其中將面積小于IO個像素的標記為1的部分去除,得到圖2(e);(1.5)在圖2(e)中,將步驟(3)中添加的輪廓去掉,然后對圖2(c)進行填充,填充起點是圖2(e)中標記為1的點,如圖2(f);(1.6)對圖2(f)進行取反操作,再對其進行腐蝕,得到圖2(g);(1.7)對圖2(g)進行取反操作,然后將面積小于5000像素的標記為1的物體去除,再取反,達到填充缺失區(qū)域的目的,結果如圖2(h);(1.8)對圖2(h)進行開操作,以去除虛假輪廓,再去除面積小于5000像素的標記為1的物體,最終得到感興趣區(qū)域ROI,如圖2(i)。步驟二,對視網膜訓練圖像和待分割視網膜圖像的綠色分量進行感興趣區(qū)域ROI邊沿擴展,以消除視網膜基底和孔徑外區(qū)域的強對比度,避免在孔徑邊緣處產生大量誤判。具體步驟如下(2.1)找到ROI的外部邊界的像素,這些像素位于ROI的外部,但是和區(qū)域內的像素是4鄰域;(2.2)對步驟(2.1)得到的外部邊界像素,其灰度值設為以該像素為中心,且屬于ROI的較小區(qū)域的均值,區(qū)域大小可以選為5X5;(2.3)將步驟(2.2)得到的外部邊界像素也加入ROI,迭代執(zhí)行一定次數.,通常進行80次迭代。圖3是對視網膜圖像綠色分量進行ROI邊沿擴展的結果示意圖。圖3(a)是圖2(a)所示視網膜圖像的綠色分量,圖3(b)是對圖3(a)進行ROI邊沿擴展的結果。步驟三,對擴展后的視網膜訓練圖像和待分割視網膜圖像分別進行NonsubsampledContourletTransfrom(NSCT)變換。NSCT是一種多分辨率、局域的、多方向的圖像表示方法。它不僅繼承了小波變換的多分辨率時頻分析特性,而且擁有良好的各向異性特征,能用比小波更少的系數來表示光滑的曲線。NSCT由非下采樣多級分解和非下采樣多級方向濾波器組成,具有平移不變性。非下采樣多級分解采取非下采樣拉普拉斯塔型分解來實現,非下采樣的多級方向濾波器采用非下采樣方向濾波器組實現。對擴展后的視網膜訓練圖像和待分割視網膜圖像進行NSCT分解,本發(fā)明分為4層,每層8個方向。步驟四,對視網膜圖像進行特征提取。特征的原理是在圖像的NSCT域中,選取第3層上任意一個方向的系數圖,如圖4(a)。在該系數圖中,血管的邊緣處是過零點,即系數正負發(fā)生變換的地方。假設血管的寬度很大,例如有成百個像素寬,則垂直血管方向上血管處的系數形狀如圖4(b)。這時,如果血管的寬度不斷減小,兩個過零點不斷靠近,最終圖4(b)就趨向于圖4(c)。在視網膜圖像中,血管的寬度最寬也就十幾個像素,所以它的NSCT系數表現就趨于為圖4(c)這種形式。特征提取的過程如下-(4.1)選取視網膜圖像NSCT分解的第2層,第3層和第4層產生特征向量;(4.2)對于每層分解的8個方向子帶系數,將視網膜圖像中血管灰度與背景灰度的比較結果作為選取特征對象,如果視網膜圖像中血管灰度小于背景灰度,選取其中最小的系數作為特征,如圖4(d);如果視網膜圖像中血管灰度大于背景灰度,選取其中最大的系數作為特征。(4.3)按照步驟(4.2),逐層進行相同特征提取操作,將得到的特征組成特征向量;(4.4)將視網膜訓練圖像和待分割視網膜圖像的綠色分量的灰度值作為一維特征加入特征向量,得到最終的特征向量v二{v,I/=1,2,3,4}。步驟五,選用分類器,并利用訓練樣本對分類器進行訓練,將歸一化后的待分割視網膜圖像的特征向量輸入分類器中,對待分割視網膜圖像進行分割。本發(fā)明選用貝葉斯分類器進行分類,其條件概率密度函數用高斯混合模型來表示,將視網膜圖像中的像素分為兩類(^={血管像素},(^={背景像素};貝葉斯決策規(guī)則如下<formula>formulaseeoriginaldocumentpage7</formula>其中,/(vlC,)是類條件概率密度函數,也稱為似然度,MC,)是C,的先驗概率,V是特征向量;估計p(C,)二iV,/A^,也就是C,.在訓練集中的樣本比率,類條件概率密度p(vlC,)由高斯混合模型表示,由若干高斯函數線性組合得到的,即<formula>formulaseeoriginaldocumentpage7</formula>其中,A,是表示p(vlC,)的高斯函數的個數,p01,C,)是多維高斯分布,c為權重;對每一類C,,給定it,個高斯分布,通過期望最大化EM算法估計每個高斯分布的參數和權重;在用分類器進行待分割圖像分割時,首先得到概率圖,其中各象素點的值為<formula>formulaseeoriginaldocumentpage7</formula>選擇閾值^=0.5將概率圖像素分為兩類,最終完成分類。本發(fā)明的效果通過以下仿真圖像和數據進一步說明。一,仿真圖像本發(fā)明所使用的視網膜圖像來自兩個公開彩色圖像數據庫,DRIVE禾tlSTARE。DRIVE數據庫有40幅彩色圖像組成,其中,7幅存在病變,并且有它們的人工分割結果。40幅圖像被分為兩組訓練集和測試集,每組包含20幅圖像,測試集含有3幅病變圖像。經過專業(yè)眼科醫(yī)生的訓練的人員人工分割了這些圖像。訓練集圖被第一組人員分割的結果保存在setA。測試集圖像被第一組人員分割的結果保存在setA,同時,測試集圖像也被第二組人員分割,保存在setB中。在setA中,12.7%的像素被標記為血管,而在setB中,12.3%的像素被標記為血管。S'1'ARE數據厙有20幅數字化的幻燈片組成。其中有十幅圖存在病變。由兩個觀察者分別分割這些圖像,分別保存在ahset和vkset中。在setA(ahset)中,也就是第一個觀察者的結果中,10.4%的像素被標記為血管,而在setB(vkset)中,也就是第二個觀察者的結果中,14.9%的像素被標記為血管。這兩個觀察者分割的結果的差別相當大。第二個觀察者比第一個觀察者標記出了更多的極細血管。這說明,第一個觀察者比第二個觀察者保守一些。對于DRIVE數據庫,訓練樣本由訓練集中的20幅標記的訓練圖像產生,然后訓練得到分類器,用它對測試集的20幅待分割圖像進行分類。對于STARE數據庫中的20幅圖,本發(fā)明用留一法進行測試,即用一幅圖像作為待分割圖像,其他圖像都作為訓練圖像。這兩個數據庫取訓練樣本集時,都是使用的setA。由于訓練樣本規(guī)模相當大,在所有的實驗中,隨機選取100萬樣本來訓練分類器。在測試中,對于GMM分類器的的類條件概率密度,血管和背景的高斯模型個數取為相同的值^:=盡=&。二,客觀評價指標給出兩個定量度量值ROC曲線下面積Az和準確率accuracy。ROC曲線是在分類器分類得到的概率圖C上,在閾值P從0到1變化時,正確檢測率與錯誤檢測率之比。正確檢測率是分類器分出的血管像素中屬于真正血管的像素的數量與實際血管像素總數之比。錯誤檢測率是指將非血管像素分為血管的像素的數量與實際非血管像素總數之比。對于ROC曲線來說,曲線越接近左上角,方法的性能就越好。也就是說,ROC曲線下面積Az值越接近1,方法的性能就越好。準確率是指在不考慮像素點是血管還是非血管的情況下,正確分類的像素的總數與視網膜圖像像素點的總數之比。三,仿真結果與分析圖5是從對DRIVE數據庫中選出的在]^20時兩幅圖的結果,以及它們的人工分割圖。圖5(a)為概率圖,圖5(b)為分割結果,圖5(c)為SetA中的人工分割圖,圖5(d)是SetB中的人工分割圖。圖6是從對STARE數據庫中選出的k=20時兩幅圖像的實驗結果,以及它們的人工分割圖像。第二行的圖像源自一幅病態(tài)視網膜圖像,第一行的圖像源自一幅正常的視網膜圖像。圖6(a)是概率圖,圖6(b)是分割結果,圖6(c)是setA中的人工分割圖,圖6(d)是SetB中的人工分割圖。圖7(a)給出了對DRIVE數據庫進行測試的結果的ROC曲線圖。圖7(b)給出了對STARE數據庫進行測試的結果的ROC曲線圖。為了比較setA和setB這兩個不同的人工分割的結果的差別,給出了概率圖在p二0.5時,分別以setA和setB作為標準分割結果時,得到的正確檢測率與錯誤檢測率之比。從圖6和圖7可直觀的看出本發(fā)明的分割方法能達到較好的效果。表1給出了本發(fā)明方法與現有方法性能的比較。在^:=10,15,20的情況下分別進行實驗,實驗結果見表l。同時,將本發(fā)明的結果與JiangWa/.,StaalW"/等提取的方法進行比較。<table>tableseeoriginaldocumentpage9</column></row><table>從表1的結果可以看出,本發(fā)明方法對DRIVE和STARE兩個數據庫都得到了很好的效果。通過比較,我們看出本發(fā)明方法的效果和SoaresW"/.方法相當,優(yōu)于Jiang"a/.StaalWa/.的方法。這說明了本發(fā)明所給出的利用NSCT提取的特征的有效性,給出了一種新的視網膜特征。圖8是對DRIVE數據庫中某幅圖像通過本發(fā)明分割的結果和Scares"/.的結果進行對比。圖8(a)是setA人工分割結果,圖8(b)是本發(fā)明血管分割結果,圖8(c)SoaresWa/.的結果,圖8(d)是SoaresWa/.的結果減去本文血管分割結果,圖8(e)是SoaresWfl/.的結果減去setA人工分割結果,圖8(f)本文分割結果減去setA人工分割結果。在圖8(d)中,灰色區(qū)域表示SoaresW"/.的結果和本文粗血管檢測結果的相同部分,白色區(qū)域表示SoaresWa/.方法檢測出來而本文粗血管方法未檢測出的區(qū)域,黑色區(qū)域表示Soares""/..方法未檢測出而本文方法檢測出的區(qū)域。從圖8(e)和圖8(f)中可以看出,用現有SoaresWa/.方法分割的結果比真實結果中的血管普遍偏粗,而本發(fā)明方法分割的結果對邊緣的定位效果要好于SoaresW"/.的方法。這說明SoaresWa/.方法中對粗血管的邊緣的定位不準確。從圖8(d)中也可以看出,本發(fā)明方法分割的結果和SoaresW"/.的結果的差別主要集中在粗血管邊緣處。比較圖8(b)(c)中圖8(a)中紅色橢圓區(qū)域的結果,可發(fā)現在Soares"a/.的結果中,兩條緊鄰的粗血管之間的空隙也被判斷為血管,而本發(fā)明方法的結果中則不存在這個問題。權利要求1、一種基于NSCT特征提取和監(jiān)督分類的視網膜圖像分割方法,包括如下步驟一.特征提取步驟(1)對視網膜訓練圖像和待分割視網膜圖像,利用其紅色分量得到其感興趣區(qū)域;(2)對視網膜訓練圖像和待分割視網膜圖像的綠色分量,分別進行感興趣區(qū)域邊緣迭代擴展;(3)對擴展后的視網膜訓練圖像和待分割視網膜圖像分別進行NSCT變換,將其分解為i層,每層有j個方向的子帶系數;(4)利用每層j個方向子帶系數提取一維特征,并逐層提取特征,組成特征向量,并進行歸一化;二.分類器的訓練與分割步驟1)對歸一化后的視網膜訓練圖像的特征向量建立訓練樣本;2)選用分類器,并利用訓練樣本對分類器進行訓練,將歸一化后的待分割視網膜圖像的特征向量輸入分類器中,對待分割視網膜圖像進行分割。2、根據權利要求1所述的方法,其中步驟(3)所述的利用每層_/個方向子帶系數提取一維特征,并逐層提取組成特征向量,按如下步驟進行(3a)對于每層分解的j'個方向子帶系數,將視網膜圖像中血管灰度與背景灰度的比較結果作為選取特征對象,如果視網膜圖像中血管灰度小于背景灰度,選取其中最小的系數作為特征,如果視網膜圖像中血管灰度大于背景灰度,選取其中最大的系數作為特征;(3b)按照步驟(3a),逐層進行相同特征提取操作,將得到的特征組成特征向量;(3c)將視網膜訓練圖像和待分割視網膜圖像的綠色分量的灰度值作為一維特征加入特征向量,得到最終的特征向量v。全文摘要本發(fā)明公開了一種基于NSCT特征提取和監(jiān)督分類的視網膜圖像分割方法,涉及醫(yī)學圖像處理。其步驟為(1)對視網膜訓練圖像和待分割視網膜圖像,利用其紅色分量得到其感興趣區(qū)域;(2)對視網膜訓練圖像和待分割視網膜圖像的綠色分量,分別進行感興趣區(qū)域邊緣迭代擴展;(3)對擴展后的圖像分別進行NSCT變換,將其分解為i層;(4)利用每層j個方向子帶系數提取一維特征,并逐層提取組成特征向量,并歸一化;(5)對歸一化后的視網膜訓練圖像的特征向量建立訓練樣本;(6)選用分類器,并利用訓練樣本對分類器訓練,將歸一化后的待分割視網膜圖像的特征向量輸入分類器中,對待分割視網膜圖像進行分割。本發(fā)明具有圖像分割邊緣清晰,準確率高的優(yōu)點,用于醫(yī)學圖像視網膜分割。文檔編號G06T7/00GK101667289SQ20081023233公開日2010年3月10日申請日期2008年11月19日優(yōu)先權日2008年11月19日發(fā)明者彪侯,鵬侯,公茂果,芳劉,焦李成,爽王,樺鐘,馬文萍申請人:西安電子科技大學
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
邯郸县| 清涧县| 高密市| 全南县| 裕民县| 镇平县| 乡宁县| 尖扎县| 枣庄市| 柳州市| 墨脱县| 纳雍县| 九龙城区| 开阳县| 汝阳县| 奉贤区| 西安市| 友谊县| 昌黎县| 祁东县| 伊金霍洛旗| 枣阳市| 青岛市| 镇康县| 台中市| 丰都县| 湖南省| 温州市| 通榆县| 宁晋县| 定边县| 库伦旗| 柘城县| 吉隆县| 惠安县| 湘阴县| 句容市| 旬邑县| 大悟县| 额尔古纳市| 类乌齐县|