欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于色選機的物料分類方法與流程

文檔序號:11666555閱讀:607來源:國知局

本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,具體涉及一種基于色選機的物料分類方法。



背景技術(shù):

傳統(tǒng)的塑料、礦石、小麥等分揀利用人工或操作半自動設(shè)備將異物或品質(zhì)較差的物體分揀出來。但是由于人眼對物體的選擇具有局限性,且衛(wèi)生質(zhì)量得不到保障,不能滿足人們對產(chǎn)品質(zhì)量和衛(wèi)生的追求,所以色選技術(shù)應(yīng)運產(chǎn)生。色選技術(shù)是指利用產(chǎn)品自身的光學(xué)特性,在光源的照射下,其反光特性或透光特性隨農(nóng)產(chǎn)品好壞的不同而不同,通過光學(xué)鏡頭后,產(chǎn)品的圖像信息被ccd或光電二極管接收,利用控制芯片及微處理器進行信號進行放大處理、轉(zhuǎn)換與傳輸?shù)?,并與標(biāo)準(zhǔn)信號進行對比,分析出該產(chǎn)品的品質(zhì)優(yōu)劣,再利用噴氣閥將不合格、劣質(zhì)產(chǎn)品進行分級剔除。

決策樹是一種應(yīng)用比較廣泛的數(shù)據(jù)挖掘分類方法,因其具有分類精度高、速度快、生成的決策規(guī)則易于理解等優(yōu)點而受到廣泛關(guān)注。決策樹的概念最早出現(xiàn)在概念學(xué)習(xí)系統(tǒng)(cls,conceptlearningsystem)中,后來許多決策樹算法都是對cls算法的改進,在決策樹的發(fā)展中,id3算法最有影響、作用最大,根據(jù)信息增益進行特征的選擇。以id3算法為基礎(chǔ),很多研究人員提出了對id3的更新的算法。

在1993年quinlan提出的c4.5算法是最有影響的一種決策樹生成算法,其思想是先把整個數(shù)據(jù)集作為樹的根節(jié)點,利用信息論中的信息增益率來尋找數(shù)據(jù)集中具有最大信息增益率的特征作為節(jié)點分裂的依據(jù),而后根據(jù)特征的不同取值進行分裂,建立節(jié)點的分枝,并在每個子節(jié)點中重復(fù)該操作,直至生成一棵完整的決策樹。

經(jīng)典的分類問題是在假設(shè)為各種分類錯誤所要付出的代價相同的情況下,要求達到高的分類正確率。然而這種假設(shè)在實際應(yīng)用中很難滿足,如在礦石分類問題中,將有價值的一類礦石判斷為無價值的二類礦石與將二類礦石判斷為一類礦石,這兩種錯誤的分類所要付出的代價一定是不相同的。



技術(shù)實現(xiàn)要素:

本發(fā)明所要解決的關(guān)鍵問題是,針對不同誤判代價的分類錯誤,在兩分類問題中,保證分類正確率不受到較大影響的前提下,盡可能的減少誤分類代價大的分類錯誤。為解決已有色選機系統(tǒng)的缺陷,本發(fā)明提出了一種基于色選機的物料分類方法,能夠自動確定分類錯誤的最優(yōu)誤判代價,在保證分類正確率不受到較大影響的前提下,減少誤分類代價較大的分類錯誤,也可以在人工模式下根據(jù)個人需求進行不同純度品級的產(chǎn)品篩選。

本發(fā)明的一種基于色選機的物料分類方法,包括如下步驟:

步驟一:向色選機中分別投入有價值的一類物料和無價值的二類物料,采集物料樣本圖像,并對圖像進行預(yù)處理,得到圖像特征以及特征值,將形成的樣本數(shù)據(jù)添加樣本類別標(biāo)簽,構(gòu)建訓(xùn)練集;

步驟二:選擇工作模式,根據(jù)上一步處理得到物料訓(xùn)練集,利用c4.5決策樹和代價敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型,具體步驟包括:

第1步、選擇工作模式:當(dāng)選擇自動模式時,執(zhí)行第2步至第12步;當(dāng)選擇人工模式時,手動輸入代價值cost后,執(zhí)行第13步到第14步;

第2步、假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價較大的錯誤,設(shè)定代價值c(i)表示將其他樣本類別誤判為樣本類別ui的代價,i=1,2;設(shè)定樣本類別u1的誤判代價初始值為;c(1)=1;樣本類別u2的誤判代價初始值為c(2)=1;

第3步、將訓(xùn)練集中的樣本數(shù)據(jù)作為決策樹當(dāng)前節(jié)點的數(shù)據(jù)集d;

第4步、計算第j個類別的類別權(quán)值w(j),j=1,2,公式如下:

其中,ni為訓(xùn)練集中樣本類別ui的個數(shù);

第5步、計算數(shù)據(jù)集d的熵info(d),公式如下:

info(d)=-∑ip(j)log2(p(j))

其中,p(j)的計算公式如下:

第6步、假設(shè)樣本數(shù)量為total,針對于樣本對應(yīng)的每個特征,將當(dāng)前節(jié)點上的對應(yīng)于該特征的數(shù)據(jù)樣本的特征值,按從小到大進行排序,得到特征的取值序列{a1,a2,...,atotal},分別以a1,a2,...,a(total-1)為分割點對數(shù)據(jù)集d進行分割,每一次分割均得到兩個數(shù)據(jù)子集d1和d2,計算每個分割點的熵,則第k個分割點ak的熵infoak(d)表示為:

其中,k=1,2,...,total-1,|d|為數(shù)據(jù)集d中的樣本個數(shù),|dj|為樣本子集dj中的樣本個數(shù),j=1,2;

第7步、計算分割點ak的信息增益率gainratio(ak),公式如下:

其中,

第8步、針對所有特征對應(yīng)的所有分割點,找到信息增益率最大的分割點,作為當(dāng)前層節(jié)點的分裂特征和分裂數(shù)值,將訓(xùn)練集按照該分裂特征并基于該分裂數(shù)值分為兩個子集;

第9步、對第8步產(chǎn)生的所述兩個子集分別進行判斷:

當(dāng)兩個子集的樣本個數(shù)過少或只有一類樣本時,當(dāng)前兩個子集即作為決策樹的最終分類結(jié)果,執(zhí)行步驟10;

當(dāng)其中一個子集的樣本個數(shù)過少或只有一類樣本,但另一個子集的樣本個數(shù)較多,判定該另一個子集需要繼續(xù)進行分裂,并將該另一個子集為新的訓(xùn)練集,形成決策樹當(dāng)前層節(jié)點的下一層節(jié)點,決策樹當(dāng)前節(jié)點的一個分支,重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

當(dāng)兩個子集的樣本個數(shù)均較多時,則兩個子集均需要繼續(xù)分裂,兩個子集分別形成新訓(xùn)練集,并形成決策樹當(dāng)前層節(jié)點的下一層的兩個節(jié)點,即當(dāng)前節(jié)點的兩個分支,該兩個節(jié)點分別重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

第10步、利用生成的決策樹模型對訓(xùn)練集進行測試,計算分類正確率accuracy和準(zhǔn)確率precision,綜合考慮兩個評估指標(biāo),并認(rèn)為準(zhǔn)確率precision的重要性為正確率accuracy的兩倍,計算該模型得分score:

第11步、令誤判代價c(1)增大0.1,c(2)保持不變,使用步驟一得到的訓(xùn)練集,執(zhí)行第3步到第10步,建立新的決策樹模型并獲得其得分score;

第12步、重復(fù)第3步到第11步,直到得分score較c(1)=1的得分score有明顯下降,取目前獲得的所有得分score中最大值對應(yīng)的決策樹模型為最終結(jié)果,執(zhí)行步驟三;

第13步、假設(shè)樣本數(shù)量為total,假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價較大的錯誤,設(shè)定代價值c(i)表示將其他樣本類別誤判為樣本類別ui的代價,i=1,2;設(shè)定樣本類別u1的誤判代價值為c(1)=cost;樣本類別u2的誤判代價初始值為c(2)=1;

第14步、執(zhí)行步驟3至步驟9,得到?jīng)Q策樹模型,執(zhí)行步驟三;

步驟三:根據(jù)上一步得到的決策樹模型,對后續(xù)的混合物料進行分類,分類篩選出有價值的一類物料和無價值的二類物料。

較佳的,步驟一具體步驟包括:

第1步、取部分物料,進行人工分類篩選,分為有價值的一類物料樣本和無價值的二類物料樣本;

第2步、將兩類物料樣本分別投入色選機中,采集圖像數(shù)據(jù);

第3步、將圖像的r、g、b三個通道的值作為特征,根據(jù)物料與背景色在r、g、b三個通道的較大差異,利用閾值法去除背景,并利用中值濾波去噪;

第4步、為得到的物料數(shù)據(jù)添加類別標(biāo)簽,構(gòu)建訓(xùn)練集。

較佳的,步驟三中,得到分類結(jié)果后,將分類結(jié)果傳輸給噴氣閥的控制電路,通過控制各個噴氣閥的開閉完成對物料的分類。

本發(fā)明具有如下有益效果:

本發(fā)明是基于色選機的物料分類方法,首先,向色選機中分別投入有價值的一類物料樣本和無價值的二類物料樣本,利用閾值法和中值濾波的方法,對色選機采集的圖像進行預(yù)處理,即消除背景和噪聲,有利于提高后續(xù)分類篩選的正確率。利用c4.5決策樹和代價敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型,能夠高效、實時地實現(xiàn)物料的分類,并且能夠在保證分類正確率不受到較大影響的前提下,盡可能的提高有價值的一類物料的純度,即其精確度,也可以在人工模式下根據(jù)個人需求進行不同純度品級的產(chǎn)品篩選。

本發(fā)明還具有較高的商業(yè)使用價值,實現(xiàn)了對有價值物料純度的提高,從而提高產(chǎn)品的質(zhì)量和價值,節(jié)省了大量人力資源和時間成本。

附圖說明

圖1為本發(fā)明實施例的分類方法流程示意圖。

具體實施方式

下面結(jié)合附圖并舉實施例,對本發(fā)明進行詳細(xì)描述。

本發(fā)明提供了一種基于色選機的物料分類方法,用于解決對物料的分類篩選問題,包含如下步驟:

步驟一:向色選機中分別投入有價值的一類物料和無價值的二類物料,采集集物料樣本圖像,利用閾值法和中值濾波的方法,對色選機的圖像進行預(yù)處理,即消除背景和噪聲,對兩類物料數(shù)據(jù)添加類別標(biāo)簽,構(gòu)建訓(xùn)練集,具體步驟包括:

第1步、取部分物料,進行人工分類篩選,分為有價值的一類物料樣本和無價值的二類物料樣本;

第2步、將兩類物料樣本分別投入色選機中,采集圖像數(shù)據(jù);

第3步、根據(jù)物料與背景色在r、g、b三個通道的較大差異,利用閾值法去除背景,并利用中值濾波去噪;

第4步、為得到的物料數(shù)據(jù)添加標(biāo)簽,構(gòu)建訓(xùn)練集。

步驟二:選擇工作模式,根據(jù)上一步處理得到物料訓(xùn)練集,利用c4.5決策樹和代價敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型,具體步驟包括:

第1步、選擇工作模式,共自動模式和人工模式兩種。自動模式可以自動完成代價值確定和決策樹模型構(gòu)建;人工模式手動輸入代價值,可根據(jù)需求更進一步地提高篩選純度,輸入代價值越高,獲得純度越高。例如,一千噸物料自動模式可篩選出一百噸有價值的一類物料,而在輸入高代價值時,人工模式僅能篩選出十噸有價值的一類物料,但純度更高,從而是篩選出的物料具有更高的價值。用戶可根據(jù)需求自行選擇。選擇自動模式進行第2步到第12步,選擇人工模式,手動輸入代價值cost,進行第13步到第14步;

第2步、假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價較大的錯誤,即不希望出現(xiàn)的錯誤,設(shè)定代價值c(i)(i=1,2)表示將其他樣本類別誤判為樣本類別ui的代價,設(shè)定初始值為c(1)=1,c(2)=1,即兩種誤判代價相同;

第3步、將訓(xùn)練集中的樣本數(shù)據(jù)作為決策樹的節(jié)點數(shù)據(jù)集d;

第4步、計算類別權(quán)值w(j),公式如下:

其中,ni為訓(xùn)練集中樣本類別ui的個數(shù),j=1,2;

第5步、計算d的熵info(d),公式如下:

info(d)=-∑ip(j)log2(p(j))

其中,p(j)的計算公式如下:

第6步、假設(shè)樣本數(shù)量為total,將該節(jié)點上的所有數(shù)據(jù)樣本按照該特征的具體數(shù)值,按從小到大進行排序,得到該特征的取值序列{a1,a2,...,atotal},分別以a1,a2,...,a(total-1)為分割點,將d分割為d1和d2,計算分割點ai(i=1,2,...,total-1)的熵infoai(d),公式如下:

其中,|d|為d中的樣本個數(shù),|dj|為dj中的樣本個數(shù),j=1,2;

第7步、計算分割點ai(i=1,2,...,total-1)的信息增益率gainratio(ai),公式如下:

其中,gain(ai)=info(d)-infoai(d),

第8步、針對所有特征對應(yīng)的所有分割點,找到信息增益率最大的分割點,作為當(dāng)前層節(jié)點的分裂特征和分裂數(shù)值,將訓(xùn)練集按照該分裂特征并基于該分裂數(shù)值分為兩個子集;如果最大分割點是特征r對應(yīng)的,確定特征值以后,對訓(xùn)練集中r值大于或等于該特征值的數(shù)據(jù)分成一個子集,r值小于該特征值的數(shù)據(jù)分成另一個子集,分裂時并不考慮另外兩個特征的特征值,即只按r特征進行分裂。

第9步、對第8步產(chǎn)生的所述兩個子集分別進行判斷:

當(dāng)兩個子集的樣本個數(shù)過少或只有一類樣本時,說明數(shù)據(jù)分裂到當(dāng)前程度時,已經(jīng)基本將兩類物料區(qū)分開來,不再需要繼續(xù)分裂了;則當(dāng)前兩個子集即作為決策樹的最終分類結(jié)果,執(zhí)行步驟10;

當(dāng)其中一個子集的樣本個數(shù)過少或只有一類樣本,說明該子集不再需要繼續(xù)分裂,但另一個子集的樣本個數(shù)較多,說明該子集中不止包含一種物料,還將其它物料錯誤分裂到該子集中,因此,判定該另一個子集需要繼續(xù)進行分裂,并將該另一個子集為新的訓(xùn)練集,形成決策樹當(dāng)前層節(jié)點的下一層節(jié)點,決策樹當(dāng)前節(jié)點的一個分支,重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

當(dāng)兩個子集的樣本個數(shù)均較多時,則兩個子集均需要繼續(xù)分裂,兩個子集分別形成新訓(xùn)練集,并形成決策樹當(dāng)前層節(jié)點的下一層的兩個節(jié)點,即當(dāng)前節(jié)點的兩個分支,該兩個節(jié)點分別重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

第10步、利用生成決策樹模型對訓(xùn)練集進行測試,計算分類正確率accuracy和準(zhǔn)確率precision,綜合考慮兩個評估指標(biāo),并認(rèn)為準(zhǔn)確率precision的重要性為正確率accuracy的兩倍,計算該模型得分score,公式如下:

第11步、令誤判代價c(1)增大0.1,c(2)不變,使用步驟一得到的訓(xùn)練集,重復(fù)第4步到第10步,建立新的決策樹模型并獲得其得分score;

第12步、重復(fù)第4步到第11步,直到得分score較c(1)=1時有明顯下降,取得分score最高的代價值對應(yīng)的決策樹模型為最終結(jié)果。

第12步、重復(fù)第3步到第11步,直到得分score較c(1)=1的得分score有明顯下降,取目前獲得的所有得分score中最大值對應(yīng)的決策樹模型為最終結(jié)果,執(zhí)行步驟三;

第13步、假設(shè)樣本數(shù)量為total,假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價較大的錯誤,設(shè)定代價值c(i)(i=1,2)表示將其他樣本類別誤判為樣本類別ui的代價,設(shè)定樣本類別u1的誤判代價值為c(1)=cost;樣本類別u2的誤判代價初始值為c(2)=1;

第14步、執(zhí)行步驟3至步驟9,得到?jīng)Q策樹模型,執(zhí)行步驟三;

步驟三:根據(jù)上一步得到的決策樹模型,對后續(xù)的混合物料進行分類,分類篩選出有價值的一類物料和無價值的二類物料。

實施例:

步驟一:向色選機中分別投入有價值的一類礦石樣本和無價值的二類礦石樣本,利用閾值法和中值濾波的方法,對色選機采集的圖像進行預(yù)處理,即消除背景和噪聲。

第1步、取部分混合石料,進行人工分類篩選,分為有價值的一類礦石樣本和無價值的二類礦石樣本;

第2步、將兩類礦石樣本分別投入色選機料斗中,采集圖像數(shù)據(jù);

第3步、調(diào)節(jié)背景板,取背景色為黑色,設(shè)定閾值寬度為50,利用閾值法去除背景,即r、g、b三個通道數(shù)值與平均值差異均小于50的像素點判斷為背景,否則為礦石,并利用中值濾波去噪;

第4步、為得到的礦石數(shù)據(jù)添加標(biāo)簽,以r、g、b三個通道數(shù)值為特征,構(gòu)建訓(xùn)練集。

步驟二:選擇自動模式,根據(jù)上一步處理得到礦石訓(xùn)練集,利用c4.5決策樹和代價敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型。

第1步、二類礦石u2誤判為一類礦石u1是誤判代價較大的錯誤,即不希望出現(xiàn)的錯誤,令c(1)=1,c(2)=1,即兩種誤判代價相同,c(1)為將二類礦石u2誤判為一類礦石u1的誤判代價,c(2)為將一類礦石u1誤判為二類礦石u2的誤判代價;

第2步、將訓(xùn)練集中的樣本數(shù)據(jù)作為決策樹的節(jié)點數(shù)據(jù)集d;

第3步、計算類別權(quán)值w(j),公式如下:

其中,ni為訓(xùn)練集中樣本類別ui的個數(shù);

第4步、計算d的熵info(d),公式如下:

info(d)=-∑ip(j)log2(p(j))

其中,p(j)的計算公式如下:

第5步、假設(shè)樣本數(shù)量為total,將該節(jié)點上的所有數(shù)據(jù)樣本按照該特征的具體數(shù)值,按從小到大進行排序,得到該特征的取值序列{a1,a2,...,atotal},分別以a1,a2,...,a(total-1)為分割點,將d分割為d1和d2,計算分割點ai(i=1,2,...,total-1)的熵infoai(d),公式如下:

其中,|d|為d中的樣本個數(shù),|dj|為dj中的樣本個數(shù),j=1,2;

第6步、計算分割點ai(i=1,2,...,total-1)的信息增益率gainratio(ai),公式如下:

其中,gain(ai)=info(d)-infoai(d),

第7步、取各特征各分割點中信息增益率最大的點為該節(jié)點的分裂特征和數(shù)值,將訓(xùn)練集分為兩個子集;

第8步、對產(chǎn)生的子集進行判斷,若其中樣本個數(shù)過少或只有一類樣本,則以個數(shù)較多的一類為該分支的分類結(jié)果,否則,以子集為新的訓(xùn)練集,形成新的葉節(jié)點,重復(fù)第2步到第7步。當(dāng)所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,進行第9步;

第9步、利用生成決策樹模型對訓(xùn)練集進行測試,計算分類正確率accuracy和準(zhǔn)確率precision,綜合考慮兩個評估指標(biāo),并認(rèn)為準(zhǔn)確率precision的重要性為正確率accuracy的兩倍,計算該模型得分score,公式如下:

第10步、令誤判代價c(1)增大0.1,c(2)不變,使用步驟一得到的訓(xùn)練集,重復(fù)第2步到第9步,建立新的決策樹模型并獲得其得分score;

第11步、重復(fù)第3步到第10步,直到得分score較c(1)=1時下降0.2,取得分score最高的代價值對應(yīng)的決策樹模型為最終結(jié)果。

步驟三:根據(jù)上一步得到的決策樹模型,對后續(xù)大量的混合石料進行分類,分類篩選出有價值的一類礦石和無價值的二類礦石,將分類結(jié)果傳輸給噴氣閥的控制電路,通過控制各個噴氣閥的開閉完成對石料的分類。

自此,就實現(xiàn)了色選機分類篩選礦石的全部過程。實驗驗證,本發(fā)明能夠高效、實時地實現(xiàn)混合的分類篩選,并且能夠在保證分類正確率不受到較大影響的前提下,盡可能的提高有價值的一類礦石的純度,從而提高產(chǎn)品的質(zhì)量和價值。

綜上所述,以上僅為本發(fā)明的較佳實施例而已,并非用于限定本發(fā)明的保護范圍。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
乐平市| 奎屯市| 法库县| 剑河县| 岑溪市| 泰顺县| 吕梁市| 绥化市| 金秀| 台前县| 尚志市| 江油市| 磐安县| 日喀则市| 仪陇县| 永登县| 马边| 玉田县| 台北市| 张北县| 黄山市| 宜兰市| 日土县| 水城县| 景德镇市| 高邑县| 茂名市| 曲周县| 涟源市| 寻甸| 长武县| 蒙自县| 台东市| 故城县| 福清市| 北京市| 崇州市| 肃南| 衡东县| 文昌市| 班戈县|