欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

信息處理裝置和方法、程序存儲介質(zhì)和程序的制作方法

文檔序號:6412829閱讀:72來源:國知局
專利名稱:信息處理裝置和方法、程序存儲介質(zhì)和程序的制作方法
技術(shù)領(lǐng)域
本發(fā)明涉及用于處理信息的方法和裝置、程序存儲介質(zhì)、以及程序。更具體地,本發(fā)明涉及用于處理信息的方法和裝置、程序存儲介質(zhì)、以及程序,其中,可提高學習效率并容易擴大規(guī)模。
背景技術(shù)
到目前為止,已經(jīng)研究作為與人腦或動物大腦有關(guān)的一個模型的神經(jīng)網(wǎng)絡。在神經(jīng)網(wǎng)絡中,在一開始學習預定運動圖案,以檢查輸入數(shù)據(jù)是否與學習的運動模型相對應。
對于識別運動圖案的模型,已經(jīng)知道借助局部表達方案的運動圖案學習模型和借助分布表達方案的運動圖案學習模型。
如圖1所示,利用借助局部表達方案的運動圖案學習模型,通過相關(guān)的門2-1至2-3互連獨立的局部模塊1-1至1-3。局部模塊1-1至1-3學習獨立的運動圖案。
在借助局部表達方案的運動圖案學習模型中,通過控制門2-1至2-3而確定全部輸出。
此借助局部表達方案的運動圖案學習模型在專利出版物1中公布。
如圖2所示,另一方面,在借助分布表達方案的運動圖案學習模型中,模塊21學習多個運動圖案。
日本特開專利出版號H-11-126198然而,在借助局部表達方案的運動圖案學習模型中,不考慮不同圖案中的關(guān)系,因而難以歸納用于學習的多個圖案。
在借助分布表達方案的運動圖案學習模型中,通過只有少量參數(shù)的單一模型而學習多個運動圖案,因而,學習效率較低,同時,遇到與規(guī)??蓴U展性有關(guān)的困難。

發(fā)明內(nèi)容
考慮到現(xiàn)有技術(shù)中的這些固有問題,本發(fā)明的目的是提供一種用于處理信息的裝置、程序存儲介質(zhì)和程序,其中,可提高學習效率并容易擴大規(guī)模。
在一個方面中,本發(fā)明提供一種用于處理時間序列圖案的信息處理裝置,包括用于學習時間序列圖案的借助分布表達方案的第一運動圖案學習模型;用于學習時間序列圖案的借助分布表達方案的第二運動圖案學習模型;借助局部表達方案的第三運動圖案學習模型,該模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
第一運動圖案學習模型和第二運動圖案學習模型每一個都計算學習誤差,基于學習誤差而計算學習參數(shù)的修正量的加權(quán)系數(shù),并且基于加權(quán)系數(shù)而修正學習參數(shù)。
在另一方面,本發(fā)明提供一種用于信息處理裝置的信息處理方法,該信息處理裝置用于處理時間序列圖案,該方法包括通過借助分布表達方案的第一運動圖案學習模型而學習多個第一時間序列圖案的步驟;通過借助分布表達方案的第二運動圖案學習模型而學習多個第二時間序列圖案的步驟;以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案的步驟,該模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
根據(jù)本發(fā)明的信息處理方法進一步包括第一計算步驟,該步驟用于計算第一運動圖案學習模型的學習誤差和第二運動圖案學習模型的學習誤差;第二計算步驟,該步驟基于學習誤差而計算第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于加權(quán)系數(shù)而修正第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)。
在又一方面中,本發(fā)明提供一種在其上儲存用于信息處理裝置的程序的程序存儲介質(zhì),該信息處理裝置配置為用于處理時間序列圖案,該程序允許計算機執(zhí)行以下處理,包括通過借助分布表達方案的第一運動圖案學習模型而學習多個第一時間序列圖案的步驟;通過借助分布表達方案的第二運動圖案學習模型而學習多個第二時間序列圖案的步驟;以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案的步驟,該模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
根據(jù)本發(fā)明的用于存儲介質(zhì)的程序進一步包括第一計算步驟,該步驟用于計算第一運動圖案學習模型的學習誤差和第二運動圖案學習模型的學習誤差;第二計算步驟,該步驟基于學習誤差而計算第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于加權(quán)系數(shù)而修正第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)。
在還一方面中,本發(fā)明提供一種用于計算機控制信息處理裝置的程序,該信息處理裝置配置為用于處理時間序列圖案,該程序允許計算機執(zhí)行以下處理,包括通過借助分布表達方案的第一運動圖案學習模型而學習多個第一時間序列圖案的步驟;通過借助分布表達方案的第二運動圖案學習模型而學習多個第二時間序列圖案的步驟;以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案的步驟,第三運動圖案學習模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
根據(jù)本發(fā)明的程序進一步包括第一計算步驟,該步驟用于計算第一運動圖案學習模型的學習誤差和第二運動圖案學習模型的學習誤差;第二計算步驟,該步驟基于學習誤差而計算第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于加權(quán)系數(shù)而修正第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)。
根據(jù)本發(fā)明,第一和第二運動圖案學習模型每一個都是借助分布表達方案的模型,并且借助局部表達方案的第三運動圖案學習模型由第一和第二運動圖案學習模型形成。
根據(jù)本發(fā)明,可學習運動圖案。具體地,有可能提高學習效率并極其容易地擴大規(guī)模。
以下解釋用于執(zhí)行本發(fā)明的最佳模式。然而,首先解釋在說明書中所公布的本發(fā)明各個方面與實施例之間的對應關(guān)系。如果在說明書中應該有實施例,但實施例的描述不與本發(fā)明的方面相對應,則這些實施例不被認為不與本發(fā)明的方面相對應。相反,如果在此描述的實施例應該與本發(fā)明的某個方面相對應,則這些實施例不被認為沒有與除本發(fā)明所述方面之外的方面相對應。
另外,公布的內(nèi)容不意味著表示在此公布的本發(fā)明的全部方面與在說明書中描述的實施例相對應。換句話說,公布的內(nèi)容被解釋為包括在將來由單獨的應用或修改所提供或增加的本發(fā)明方面。


圖1示出借助常規(guī)局部表達方案的運動圖案學習模型的實例。
圖2示出借助常規(guī)分布表達方案的運動圖案學習模型的實例。
圖3為示出體現(xiàn)本發(fā)明的處理裝置的示例性結(jié)構(gòu)的框圖。
圖4為用于說明圖3所示處理裝置的基本處理的流程圖。
圖5為示出體現(xiàn)本發(fā)明的處理裝置的另一示例性結(jié)構(gòu)的框圖。
圖6示出再生型神經(jīng)網(wǎng)絡的示例性結(jié)構(gòu)。
圖7為用于說明圖4中步驟S2的學習處理的流程圖。
圖8-16示出運動圖案的不同實例。
圖17示出具有圖5處理裝置所學習的運動圖案的狀態(tài)。
圖18為用于說明圖7中步驟S13的局部模塊學習處理的流程圖。
圖19為用于說明系數(shù)設(shè)定處理的流程圖。
圖20示出在具有圖5中處理裝置所學習的運動圖案的情況下的學習誤差。
圖21為用于說明運動圖案識別處理的流程圖。
圖22示出運動圖案識別處理。
圖23為用于說明運動圖案產(chǎn)生處理的流程圖。
圖24示出產(chǎn)生運動圖案的處理。
圖25為用于說明圖4中步驟S2的學習處理的另一實例的流程圖。
圖26為示出體現(xiàn)本發(fā)明的個人計算機的示例性結(jié)構(gòu)的框圖。
具體實施例方式
下面參照附圖詳細解釋本發(fā)明的一些優(yōu)選實施例。
本發(fā)明提供用于處理時間序列圖案的信息處理裝置,如圖3所示的處理裝置41。此信息處理裝置包括借助分布表達方案的第一運動圖案學習模型,該模型用于學習時間序列圖案(例如,圖3的局部模塊43-1);借助分布表達方案的第二運動圖案學習模型,該模型用于學習時間序列圖案(例如,圖3的局部模塊43-2);以及,借助局部表達方案的第三運動圖案學習模型,該模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件(例如,圖3的集成模塊42)。
此信息處理裝置的第一和第二運動圖案學習模型每一個都由再生型神經(jīng)網(wǎng)絡構(gòu)成,每個再生型神經(jīng)網(wǎng)絡都具有操作參數(shù)(如圖5的RNN61-1和61-2)。
而且,此信息處理裝置的第一和第二運動圖案學習模型每一個都能(例如通過圖5的步驟S114的處理)計算學習誤差(如公式(5)的學習誤差ei),從而,基于學習誤差而計算公式(7)的學習參數(shù)的修正值Δw′i的加權(quán)系數(shù),如公式(6)的加權(quán)系數(shù)gi(如圖25中步驟S115的處理),并且基于加權(quán)系數(shù)而修正學習參數(shù)(如圖25中步驟S117的處理)。
本發(fā)明還提供一種信息處理裝置(如,圖3的處理裝置41)。此方法包括以下步驟通過借助分布表達方案的第一運動圖案學習模型(如圖3的局部模塊43-1)而學習多個第一時間序列圖案(例如,在學習圖3中局部模塊43-1的情況下,為圖7的步驟S13);通過借助分布表達方案的第二運動圖案學習模型(如圖3的局部模塊43-2)而學習多個第二時間序列圖案(例如,在學習圖3中局部模塊43-2的情況下,為圖7的步驟S13);以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案(如圖4的步驟S3),其中,此模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
信息處理裝置的第一運動圖案學習模型和第二運動圖案學習模型每一個可由設(shè)置有操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
信息處理方法進一步包括第一計算步驟(如圖25中步驟S114的處理),該步驟計算第一運動圖案學習模型和第二運動圖案學習模型的學習誤差(公式(5)的學習誤差ei);第二計算步驟(如圖25中步驟S115的處理),該步驟基于學習誤差而計算第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)的修正值(如圖7的學習參數(shù)的修正值(Δw′i)的加權(quán)系數(shù))(如公式(6)的加權(quán)系數(shù)gi);以及,修正步驟(如圖25中步驟S117的處理),該步驟基于加權(quán)系數(shù)而修正第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)。
本發(fā)明還提供程序存儲介質(zhì)(如光盤172),該介質(zhì)中儲存用于處理時間序列圖案的程序。該程序包括以下步驟通過借助分布表達方案的第一運動圖案學習模型(如圖3的局部模塊43-1)而學習多個第一時間序列圖案(例如,在學習圖3中局部模塊43-1的情況下,為圖7的步驟S13);通過借助分布表達方案的第二運動圖案學習模型(如圖3的局部模塊43-2)而學習多個第二時間序列圖案(例如,在學習圖3中局部模塊43-2的情況下,為圖7的步驟S13);以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案(如圖4的步驟S3)。第三運動圖案學習模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
在程序存儲介質(zhì)的程序中的第一運動圖案學習模型和第二運動圖案學習模型每一個都可由設(shè)置有操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
所述程序進一步包括第一計算步驟(如圖25中步驟S114的處理),該步驟計算第一運動圖案學習模型和第二運動圖案學習模型的學習誤差(公式(5)的學習誤差ei);第二計算步驟(如圖25中步驟S115的處理),該步驟基于學習誤差而計算第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)的修正值(如圖7的學習參數(shù)的修正值(Δw′i)的加權(quán)系數(shù))(如公式(6)的加權(quán)系數(shù)gi);以及,修正步驟(如圖25中步驟S117的處理),該步驟基于加權(quán)系數(shù)而修正第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)。
本發(fā)明還提供用于處理時間序列圖案的程序。該程序包括以下步驟通過借助分布表達方案的第一運動圖案學習模型(如圖3的局部模塊43-1)而學習多個第一時間序列圖案(例如,在學習圖3中局部模塊43-1的情況下,為圖7的步驟S13);通過借助分布表達方案的第二運動圖案學習模型(如圖3的局部模塊43-2)而學習多個第二時間序列圖案(例如,在學習圖3中局部模塊43-2的情況下,為圖7的步驟S13);以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案(如圖4的步驟S3)。第三運動圖案學習模型具有第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
在程序中的第一運動圖案學習模型和第二運動圖案學習模型每一個都可由設(shè)置有操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
所述程序進一步包括第一計算步驟(如圖25中步驟S114的處理),該步驟計算程序中第一運動圖案學習模型和第二運動圖案學習模型的學習誤差(如公式(6)的學習誤差ei);第二計算步驟(如圖25中步驟S115的處理),該步驟基于學習誤差而計算第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)的修正值(如圖7的學習參數(shù)的修正值(Δw′i)的加權(quán)系數(shù))(如公式(6)的系數(shù)gi);以及,修正步驟(如圖25中步驟S117的處理),該步驟基于加權(quán)系數(shù)而修正第一運動圖案學習模型和第二運動圖案學習模型的學習參數(shù)。
以下解釋本發(fā)明的實施例。
圖3示出體現(xiàn)本發(fā)明的處理裝置41的示例性結(jié)構(gòu)。此處理裝置41由集成模塊42形成,集成模塊42是借助局部表達方案的運動圖案學習模型。集成模塊42由多個(在此為三個)局部模塊43-1至43-3以及相關(guān)的門44-1至44-3形成。對于門44-1至44-3,分別設(shè)定系數(shù)W1-W3。門的輸出用以下公式表達總輸出=∑Wi×modulei(pi)在以上公式中,I的值為1、2或3,并且代表局部模塊43-1至43-3中的一個。另外,modulei(pi)表示在參數(shù)值為pi的情況下局部模塊43-1至43-3的輸出。
參照圖4的流程圖,解釋圖3的處理裝置41的基本處理。
在步驟S1中,執(zhí)行由局部模塊43-1至43-3產(chǎn)生集成模塊42的處理。所產(chǎn)生的局部模塊43-1至43-3的輸出分別在門44-1至44-3中乘以系數(shù)W1-W3,接著綜合在一起,并且發(fā)送這樣綜合的輸出。
接著,在步驟S2中,執(zhí)行學習處理。通過此學習處理,在各個局部模塊43-1至43-3中學習并儲存多個運動圖案(時間序列圖案)。
后面結(jié)合圖7的流程圖詳細解釋步驟S2的學習處理。
在如上所述地學習運動圖案之后,執(zhí)行利用處理裝置41的處理,如向各個局部模塊43-1至43-3輸入所需的參數(shù)以便輸出相應圖案,或者,向各個局部模塊43-1至43-3輸入預定運動圖案以便輸出相應的系數(shù)。
后面結(jié)合圖21和23詳細解釋步驟S3的利用處理。
按此順序執(zhí)行步驟S1-S3的處理。然而,這些步驟不必連續(xù)執(zhí)行,從而,可在步驟S1和S2之間或在步驟S2和S3之間設(shè)置預定時間間隔。
在本實施例中,如圖5所示,局部模塊43-1至43-3由再生神經(jīng)網(wǎng)絡(RNN)61-1至61-3形成,每一個模塊都具有學習運動圖案的功能。在以下解釋中,如果不必個別地區(qū)分局部模塊43-1至43-3或RNN61-1至61-3,它們就分別簡稱為局部模塊43或RNN 61。
圖6示出RNN 61的例示性結(jié)構(gòu)。此RNN 61由輸入層111、中間層(隱藏層)112和輸出層113組成。輸入層111、中間層112和輸出層113每一個都由可選數(shù)量的神經(jīng)元組成。
神經(jīng)元111-1是輸入層111的一部分,它被提供與時間序列圖案有關(guān)的數(shù)據(jù)xt。具體地,提供與人體運動圖案有關(guān)的數(shù)據(jù),該數(shù)據(jù)在畫面處理中例如基于照相機圖象(如手指尖的運動軌跡)而獲得。
參數(shù)偏置節(jié)點111-2是一部分輸入層111的一神經(jīng)元,向該節(jié)點提供參數(shù)Pt。參數(shù)偏置節(jié)點的數(shù)量是一個或多個。與組成再生神經(jīng)網(wǎng)絡的神經(jīng)元的總數(shù)相比,節(jié)點數(shù)量優(yōu)選足夠小,上述總數(shù)決定權(quán)矩陣的數(shù)量并作為模型確定部件的參數(shù)。在本實施例中,神經(jīng)元的總數(shù)為50,同時,參數(shù)偏置節(jié)點的數(shù)量為1或2左右。應指出,這些數(shù)量僅僅是示例性的,并且不限制本發(fā)明。
參數(shù)偏置節(jié)點調(diào)整非線性機械系統(tǒng)中的機械結(jié)構(gòu),并且,在本實施例中,調(diào)整由再生神經(jīng)網(wǎng)絡所擁有的機械結(jié)構(gòu)。然而,本發(fā)明不局限于再生神經(jīng)網(wǎng)絡。
從輸出層113的神經(jīng)元113-2輸出的數(shù)據(jù)反饋回神經(jīng)元111-3,作為代表RNN 61內(nèi)部狀態(tài)的語境Ct,其中,神經(jīng)元111-3形成輸入層111的一部分。語境Ct是與再生神經(jīng)網(wǎng)絡有關(guān)的常規(guī)術(shù)語,并且例如在參考資料(Elman,J.L.(1990)。尋找時間結(jié)構(gòu)(Finding Structurein Time),認識科學(Cognitive Science),14.170-211)中闡述。
中間層112的神經(jīng)元對輸入數(shù)據(jù)執(zhí)行加權(quán)求和,以便向下游級順序地輸出所得到的數(shù)據(jù)。即,中間層的神經(jīng)元利用預定加權(quán)系數(shù)的計算處理(基于非線性函數(shù)的計算處理)來處理數(shù)據(jù)xt、Pt和Ct,以便向輸出層113輸出結(jié)果。在本實施例中,利用基于具有非線性輸出特征的函數(shù)如S形函數(shù)的計算,處理與數(shù)據(jù)xt、Pt和Ct的預定加權(quán)和相應的輸入,以向輸出層113輸出結(jié)果。
形成輸出層113一部分的神經(jīng)元113-1輸出與輸入數(shù)據(jù)有關(guān)的數(shù)據(jù)x*t+1。
RNN 61包括通過后向傳播而學習的計算單元121。計算單元122為RNN 61設(shè)置加權(quán)系數(shù)。
參照圖7的流程圖,解釋圖4中步驟S2的學習處理。
在步驟S11中,執(zhí)行用于在計算單元122中保存局部模塊61-1至61-3的學習參數(shù)(各個神經(jīng)元的加權(quán)系數(shù))的處理。在下一步驟S12中,執(zhí)行在每個局部模塊61-1至61-3中接收學習主題的運動圖案的處理。在下一步驟S13中,執(zhí)行局部模塊的學習處理。后面結(jié)合圖18的流程圖詳細解釋局部模塊的學習處理。通過此步驟S13的處理,由局部模塊61-1至61-3中的一個,如局部模塊61-1,學習運動圖案。
在下一步驟S14中,計算單元122獲得局部模塊61-1至61-3的學習誤差,以便互相比較誤差值。以此方式,計算單元122確定具有最小學習誤差值的局部模塊。
在下一步驟S15中,計算單元122執(zhí)行以下處理把在步驟S11的處理時保存的學習參數(shù)(加權(quán)系數(shù))返回給除具有最小學習誤差的局部模塊之外的局部模塊。例如,如果具有最小學習誤差的局部模塊是局部模塊61-1,局部模塊61-2和61-3的學習參數(shù)就恢復到學習前狀態(tài)。
在下一步驟S16中,計算單元122確定全部運動圖案的學習是否已經(jīng)結(jié)束。如果全部運動圖案未結(jié)束,計算單元122就返回到步驟S11,以重復執(zhí)行從此步驟開始的處理。
如果在步驟S16中確定全部運動圖案的學習已經(jīng)結(jié)束,學習處理就結(jié)束。
以此方式,由局部模塊43-1至43-3逐個學習如圖8-16所示的全部9種運動圖案。在此情況下,如圖8-10所示的運動圖案、如圖11-13所示的運動圖案和如圖14-16所示的運動圖案分別由如圖17所示的局部模塊43-1、43-2和43-3學習。在門44-1至44-3中,從器件設(shè)置預定值的系數(shù)W1-W3,該器件未示出。
在每一個局部模塊43-1至43-3中,學習具有可共同擁有機械結(jié)構(gòu)的運動圖案。這在后面結(jié)合圖20進行解釋。
現(xiàn)在參照圖18的流程圖,解釋圖7中步驟S13的局部模塊學習處理。
從一個將被學習運動圖案到另一個地執(zhí)行圖18流程圖所示的處理。換句話說,提供與將被學習運動圖案數(shù)量相應的虛擬RNN數(shù)量,并且從一個虛擬RNN到另一個地執(zhí)行圖18的處理。
在逐個虛擬RNN執(zhí)行圖18流程圖所示處理并逐個從虛擬RNN學習所述學習圖案之后,執(zhí)行設(shè)置實用RNN 61的系數(shù)的處理。然而,在以下解釋中,虛擬RNN被解釋為實際RNN 61。
首先,在步驟S31中,RNN 61的輸入層111的神經(jīng)元111-1在預定時間t接收輸入xt。在步驟S32中,RNN 61的中間層112對輸入xt的加權(quán)系數(shù)執(zhí)行計算處理,并且從輸出層113的神經(jīng)元113-1輸出在輸入時間序列圖案中時間序列的值t+1的預測值x*t+1。
在步驟S33中,計算單元121接收下一時間點t+1的輸入xt+1,作為教師數(shù)據(jù)。在步驟S32中,計算單元121在步驟S34中計算在步驟S33的處理所接收的教師輸入xt+1與步驟S32的處理所計算得到的預測值x*t+1之間的誤差。
在步驟S35中,從輸出層113的神經(jīng)元113-1向RNN 61提供步驟S34的處理所計算得到的誤差,并且向中間層112后向傳播輸入誤差,并因而后向傳播給輸入層111,以執(zhí)行學習處理,得到計算結(jié)果dXpt。
在步驟S36中,中間層112基于以下公式(1)獲得內(nèi)部狀態(tài)的修正值dXUdXUt=kbp·Σt-12t+12dXbpt+knb·(XUt+1-XUt+XUt-1-XUt)----(1)]]>
接著,中間層112基于以下公式(2)-(4)而修正所述修正值dXUd1XUt=ε·dXUt+monentum·d1XUt(2)XUt=XUt+d1XUt(3)Xt=sigmoid(XUt) (4)在步驟S37中,參數(shù)節(jié)點111-2執(zhí)行保存其內(nèi)部狀態(tài)值的處理。
在下一步驟S38中,RNN 61檢查學習處理是否將結(jié)束。如果學習處理未結(jié)束,參數(shù)節(jié)點就返回到步驟S31,以便重復執(zhí)行從此步驟開始的處理。
如果在步驟S38中確定學習處理將結(jié)束,就終止學習處理。
通過執(zhí)行以上的學習處理,虛擬RNN學習所述學習圖案。
在對與學習圖案數(shù)量相應的一定數(shù)量的虛擬RNN執(zhí)行學習處理之后,如上所述,執(zhí)行在實用RNN 61上設(shè)置加權(quán)系數(shù)的處理,其中,加權(quán)系數(shù)通過學習處理而獲得。圖19示出在此情況下的處理。
計算單元122在步驟S51中計算系數(shù)的綜合值,所述系數(shù)通過對每個虛擬RNN執(zhí)行圖18流程圖所示處理而獲得。對于此綜合值,例如可使用平均值。也就是說,在此計算虛擬RNN的加權(quán)系數(shù)的平均值。
在下一步驟S52中,計算單元122執(zhí)行設(shè)置綜合值(平均值)的處理,綜合值由步驟S51的處理計算,作為實用RNN 61的神經(jīng)元的加權(quán)系數(shù)。
這在實用RNN 61的中間層112的各個神經(jīng)元上設(shè)置所述系數(shù),所述系數(shù)在學習多個運動圖案時而獲得。
在中間層112的各個神經(jīng)元的加權(quán)系數(shù)中保存在產(chǎn)生多個教師運動圖案時與可共同擁有機械結(jié)構(gòu)有關(guān)的信息,同時,在參數(shù)偏置節(jié)點中保存用于把可共同擁有機械結(jié)構(gòu)切換到適于產(chǎn)生各個教師運動圖案的機械結(jié)構(gòu)所需的信息。
在圖8-10、11-13和14-16中,具有不同振幅和頻率并且波形基本相似的機械結(jié)構(gòu)被認為是‘可共同擁有的機械結(jié)構(gòu)’。
圖20示出局部模塊43-1至43-3正學習運動圖案時的中間狀態(tài)。在圖20所示狀態(tài)中,圖9和10所示的運動圖案已經(jīng)在局部模塊43-1中學習,圖12和13所示的運動圖案已經(jīng)在局部模塊43-2中學習,并且,圖14和15所示的運動圖案已經(jīng)在局部模塊43-3中學習。圖20示出已進一步學習圖11所示運動圖案的狀態(tài)。
局部模塊43-1的學習誤差為0.9,局部模塊43-2的學習誤差為0.1,并且局部模塊43-3的學習誤差為0.4。因而,是局部模塊43-3具有最小的學習誤差。
這意味著,在局部模塊43-1至43-3中,局部模塊43-2已經(jīng)學習與圖11所示運動圖案類似的運動圖案,即圖12和13所示的運動圖案。換句話說,如圖11-13所示的運動圖案設(shè)置有可共同擁有的機械結(jié)構(gòu)。
在此情況下,在圖7的步驟S14中確定局部模塊43-2的學習誤差是最小的,從而,在步驟S15中,在步驟S11的處理時在學習參數(shù)存儲緩沖器141中保存的學習參數(shù)返回給局部模塊43-1和43-3,學習參數(shù)存儲緩沖器141形成計算單元122。這防止通過學習不具有‘可共同擁有機械結(jié)構(gòu)’的運動圖案而實質(zhì)破壞局部模塊43-1和43-3的學習參數(shù)。
以下參照圖21的流程圖,解釋在學習之后在圖4的步驟S3中執(zhí)行的利用處理的實例。
如圖22所示,圖8-10所示的運動圖案已經(jīng)在局部模塊43-1中學習,圖11-13所示的運動圖案已經(jīng)在局部模塊43-2中學習,并且圖14-16所示的運動圖案已經(jīng)在局部模塊43-3中學習。
在此狀態(tài)下,如果在如圖21所示的步驟S71中輸入如圖11所示的運動圖案,各個局部模塊43-1至43-3就在步驟S72中對輸入到節(jié)點111-1中的運動圖案的數(shù)據(jù)執(zhí)行計算。在此情況下,局部模塊43-1中的識別誤差為0.9,局部模塊43-2中的識別誤差為0.1,并且局部模塊43-3中的識別誤差為0.4。由于局部模塊43-2已經(jīng)學習并記憶如圖11所示的運動圖案,因此識別誤差小于其它局部模塊中的識別誤差。
在步驟S73中,局部模塊43-1至43-3向門44-1至44-3輸出運動圖案的計算結(jié)果。因而,集成模塊42的輸出是這些計算結(jié)果與系數(shù)W1-W3相乘之和。
門44-1至44-3的系數(shù)W1-W3與識別誤差成反比地加權(quán),即,識別誤差越小,分配給局部模塊輸出的加權(quán)就越大。
而且,在此情況下,局部模塊43-1至43-3的參數(shù)分別為P1、P2和P3。在這些參數(shù)中,局部模塊43-2的參數(shù)基本與圖11所示的運動圖案相對應。
圖23示出用于產(chǎn)生運動圖案的處理的實例,該實例作為圖4的步驟S3中利用處理的典范。
首先,在步驟S91中,與學習時不同的預設(shè)值參數(shù)輸入到局部模塊43-1至43-3的參數(shù)偏置節(jié)點111-2中。在步驟S92中,中間層112基于在步驟S91的處理中輸入到參數(shù)偏置節(jié)點111-2的參數(shù)而執(zhí)行計算。在步驟S93中,RNN 61的神經(jīng)元113-1輸出與在步驟S91的處理中輸入的參數(shù)一致的圖案的數(shù)據(jù)。各個圖案的數(shù)據(jù)由門44-1至44-3分別乘以系數(shù)W1-W3,求和,并作為輸出而發(fā)送。
圖24示出以上述方式產(chǎn)生運動圖案的情形。在圖24的情形中,向局部模塊43-1至43-3輸入與迄今為止未學習的運動圖案保持一致的值的參數(shù)P11-P13。門44-1至44-3的系數(shù)W1-W3設(shè)定為與在各個局部模塊43-1至43-3中計算的識別誤差一致的值。結(jié)果是產(chǎn)生與迄今為止學習過的運動圖案類似并且還未學習的運動圖案,作為運動圖案。
還可基于與學習前學習圖案的相互關(guān)系而對運動圖案進行分類。
在前述中,局部模塊43的數(shù)量假設(shè)為三。如果需要,此數(shù)量可以增加,由此擴大規(guī)模。而且,由于局部模塊用RNN構(gòu)造,作為借助分布表達方案的運動圖案學習模型,因此,可有效地學習多個運動圖案。
在前述中,只有具有最小學習誤差的局部模塊執(zhí)行學習,即,根據(jù)所謂的勝者全贏系統(tǒng)而執(zhí)行學習。圖25示出此處理情形。
在圖25中,步驟S111-S113的處理與圖7的步驟S11-S13的處理相似。也就是說,通過此處理,保存局部模塊43-1至43-3的學習參數(shù),并且,通過局部模塊43-1至43-3接收學習主題的運動圖案。在這些局部模塊43-1至43-3中執(zhí)行學習處理。
在步驟S114中,局部模塊43-1至43-3計算學習誤差ei(I=1,2,3)。此學習誤差ei通過以下公式計算ei=Σt=1T(d(t)-oi(t))2----(5)]]>這里,d(t)代表將被學習的運動圖案,并且o(t)是在學習時獲得的輸出圖案。
在下一步驟S115中,各個局部模塊43-1至43-3基于各個學習誤差ei而計算各個學習參數(shù)修正值Δwi的加權(quán)系數(shù)gi。加權(quán)系數(shù)gi可用以下公式表達gi=exp(ei)Σi=1nexp(ei)----(6)]]>在下一步驟S116中,局部模塊43-1至43-3執(zhí)行以下處理把在步驟S111的處理時保存的學習前學習參數(shù)恢復為原始狀態(tài)。在步驟S117中,局部模塊43-1至43-3執(zhí)行以下處理根據(jù)以下公式,基于步驟S115的處理所找到的加權(quán)系數(shù)gi,修正通過步驟S116的處理而恢復為原始狀態(tài)的學習前學習參數(shù)。
Δw′i=(1-gi)Δwi...(7)即,對修正值Δwi的Δw′i的修正結(jié)果是學習誤差越小,執(zhí)行的學習就越多,并且學習誤差越大,執(zhí)行的學習就越少,其中,修正值Δwi通過步驟S113的學習處理而獲得。換句話說,通過本處理,在步驟S113中執(zhí)行的學習處理的目標是獲得學習誤差,并且在步驟S117中執(zhí)行實質(zhì)性學習。
在下一步驟S118中,檢查全部運動圖案的學習是否已經(jīng)結(jié)束。如果留有任何未學習的運動圖案,處理就回到步驟S111,并且重復地執(zhí)行從此步驟開始的處理。如果在步驟S118中確定全部運動圖案的學習已經(jīng)結(jié)束,就終止學習處理。
在局部模塊43-1至43-3所學習運動圖案的相關(guān)性較低以致于運動圖案相互獨立的情況下,通過圖7所示的勝者全贏系統(tǒng)的學習處理而提高學習效率。相反,如果運動圖案與多個局部模塊所學習運動圖案或多或少相關(guān),就可利用結(jié)合圖25所解釋的學習處理而改善學習處理。
在前述中,本發(fā)明還結(jié)合運動圖案進行解釋。然而,本發(fā)明可應用于一般的時間序列圖案。如果使用規(guī)定機器人動作的圖案作為運動圖案(時間序列圖案),本發(fā)明就可應用于控制自主型機器人。
可通過硬件或軟件而執(zhí)行上述處理操作序列。在此情況下,可使用個人計算機160,如圖26中所示。
在圖26中,CPU(中央處理單元)161根據(jù)儲存在ROM(只讀存儲器)162中的程序或從存儲單元168向RAM(隨機存取存儲器)163裝載的程序,而執(zhí)行各種處理操作。在RAM 163中,還儲存CPU161所需的數(shù)據(jù),以執(zhí)行各種處理操作。
CPU 161、ROM 162和RAM 163通過總線164互連。輸入/輸出接口165還連接到此總線164。
諸如鍵盤或鼠標的輸入單元166、諸如CRT或LCD的顯示器、諸如揚聲器的輸出單元167、諸如硬盤的存儲單元168、以及諸如終端適配器的通信單元169連接到輸入/輸出接口165。通信單元169在網(wǎng)絡上執(zhí)行通信處理。
如果需要,驅(qū)動器170連接到輸入/輸出接口165。磁盤171、光盤172、磁光盤173或半導體存儲器174裝入到適當位置,并且,如果需要,從其讀出的計算機程序安裝在存儲單元168上。
當通過軟件執(zhí)行處理操作序列時,形成軟件的程序從網(wǎng)絡或從記錄介質(zhì)安裝到個人計算機上。
記錄介質(zhì)可由與裝置主體單元分開的封裝介質(zhì)形成,所述介質(zhì)分發(fā)給用戶,用于提供程序,所述介質(zhì)例如為磁盤171(包括軟盤)、光盤172(包括CD-ROM(緊致盤只讀存儲器)或DVD(數(shù)字多用途盤))、或磁光盤(包括MD(小型盤))或半導體存儲器174。這些盤或存儲器包括記錄在其上的程序。另外,記錄介質(zhì)可由ROM 162或包括在存儲單元168中的硬盤形成,該介質(zhì)隨著預安裝在裝置的主體單元內(nèi)而提供給用戶并且具有記錄在其上的程序。
在本發(fā)明中,描述記錄在記錄介質(zhì)上的程序的步驟不僅包括根據(jù)本文規(guī)定的順序而按時間順序執(zhí)行的操作,而且包括分批或并行執(zhí)行的處理操作。
權(quán)利要求
1.一種用于處理時間序列圖案的信息處理裝置,包括用于學習時間序列圖案的借助分布表達方案的第一運動圖案學習模型;用于學習時間序列圖案的借助分布表達方案的第二運動圖案學習模型;借助局部表達方案的第三運動圖案學習模型,該模型具有所述第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
2.如權(quán)利要求1所述的信息處理裝置,其中,所述第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
3.如權(quán)利要求1所述的信息處理裝置,其中,所述第一運動圖案學習模型和第二運動圖案學習模型每一個都計算學習誤差,基于所述學習誤差而計算學習參數(shù)的修正量的加權(quán)系數(shù),并且基于所述加權(quán)系數(shù)而修正所述學習參數(shù)。
4.一種用于信息處理裝置的信息處理方法,該信息處理裝置用于處理時間序列圖案,所述方法包括通過借助分布表達方案的第一運動圖案學習模型而學習多個第一時間序列圖案的步驟;通過借助分布表達方案的第二運動圖案學習模型而學習多個第二時間序列圖案的步驟;以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案的步驟,該模型具有所述第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
5.如權(quán)利要求4所述的信息處理方法,其中,所述第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
6.如權(quán)利要求4所述的信息處理方法,進一步包括第一計算步驟,該步驟用于計算所述第一運動圖案學習模型的學習誤差和第二運動圖案學習模型的學習誤差;第二計算步驟,該步驟基于所述學習誤差而計算所述第一運動圖案學習模型和所述第二運動圖案學習模型的學習參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于所述加權(quán)系數(shù)而修正所述第一運動圖案學習模型和所述第二運動圖案學習模型的所述學習參數(shù)。
7.一種在其上儲存用于信息處理裝置的程序的程序存儲介質(zhì),該信息處理裝置配置為用于處理時間序列圖案,所述程序允許計算機執(zhí)行以下處理通過借助分布表達方案的第一運動圖案學習模型而學習多個第一時間序列圖案的步驟;通過借助分布表達方案的第二運動圖案學習模型而學習多個第二時間序列圖案的步驟;以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案的步驟,該模型具有所述第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
8.如權(quán)利要求7所述的程序,其中,所述第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
9.如權(quán)利要求7所述的程序,進一步包括第一計算步驟,該步驟用于計算所述第一運動圖案學習模型的學習誤差和第二運動圖案學習模型的學習誤差;第二計算步驟,該步驟基于所述學習誤差而計算所述第一運動圖案學習模型和所述第二運動圖案學習模型的學習參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于所述加權(quán)系數(shù)而修正所述第一運動圖案學習模型和所述第二運動圖案學習模型的所述學習參數(shù)。
10.一種用于計算機控制信息處理裝置的程序,該信息處理裝置配置為用于處理時間序列圖案,所述程序允許計算機執(zhí)行以下處理,包括通過借助分布表達方案的第一運動圖案學習模型而學習多個第一時間序列圖案的步驟;通過借助分布表達方案的第二運動圖案學習模型而學習多個第二時間序列圖案的步驟;以及通過借助局部表達方案的第三運動圖案學習模型而識別或產(chǎn)生時間序列圖案的步驟,所述第三運動圖案學習模型具有所述第一運動圖案學習模型和第二運動圖案學習模型,作為元件。
11.如權(quán)利要求10所述的程序,其中,所述第一運動圖案學習模型和第二運動圖案學習模型每一個都由設(shè)置操作參數(shù)的再生神經(jīng)網(wǎng)絡形成。
12.如權(quán)利要求10所述的程序,進一步包括第一計算步驟,該步驟用于計算所述第一運動圖案學習模型的學習誤差和第二運動圖案學習模型的學習誤差;第二計算步驟,該步驟基于所述學習誤差而計算所述第一運動圖案學習模型和所述第二運動圖案學習模型的學習參數(shù)修正值的加權(quán)系數(shù);以及修正步驟,該步驟基于所述加權(quán)系數(shù)而修正所述第一運動圖案學習模型和所述第二運動圖案學習模型的所述學習參數(shù)。
全文摘要
本發(fā)明涉及一種信息處理方法和信息處理裝置,其中,可提高學習效率并容易擴大規(guī)模。通過借助局部表達方案的運動圖案學習模型而形成集成模塊(42)。集成模塊(42)的局部模塊(43-1至43-3)每一個都由再生神經(jīng)網(wǎng)絡形成,作為借助分布表達方案的運動圖案學習模型。使局部模塊(43-1至43-3)學習多個運動圖案。向局部模塊(43-1至43-3)提供預定參數(shù)作為輸入,局部模塊(43-1至43-3)的輸出分別由門(44-1至44-3)乘以系數(shù)(W1-W3),并且,得到的乘積被求和并且輸出。
文檔編號G06K9/66GK1581143SQ20041005631
公開日2005年2月16日 申請日期2004年8月6日 優(yōu)先權(quán)日2003年8月7日
發(fā)明者伊藤真人, 谷淳 申請人:索尼株式會社, 獨立行政法人理化學研究所
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
汉川市| 敦化市| 砚山县| 邹平县| 兖州市| 长春市| 光泽县| 康马县| 大安市| 尤溪县| 乃东县| 恩平市| 临颍县| 大名县| 囊谦县| 景洪市| 江油市| 南丹县| 宜阳县| 长治市| 嵩明县| 庐江县| 威远县| 洱源县| 仁布县| 伊通| 三门县| 建瓯市| 舒兰市| 平顺县| 南木林县| 九龙城区| 依兰县| 沈阳市| 平昌县| 岱山县| 东方市| 闽清县| 英山县| 上犹县| 土默特右旗|