欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

說(shuō)話人識(shí)別方法及系統(tǒng)的制作方法

文檔序號(hào):2835847閱讀:478來(lái)源:國(guó)知局
專(zhuān)利名稱(chēng):說(shuō)話人識(shí)別方法及系統(tǒng)的制作方法
技術(shù)領(lǐng)域
本發(fā)明涉及身份識(shí)別技術(shù)領(lǐng)域,特別涉及一種說(shuō)話人識(shí)別方法及系統(tǒng)。
背景技術(shù)
說(shuō)話人識(shí)別即根據(jù)采集到的語(yǔ)音信號(hào)判斷說(shuō)話人身份,該技術(shù)主要有兩個(gè)方面的應(yīng)用,即說(shuō)話人確認(rèn)和說(shuō)話人識(shí)別。說(shuō)話人確認(rèn)是指判斷當(dāng)前輸入語(yǔ)音是否為其申明的目標(biāo)說(shuō)話人的發(fā)音,屬于一對(duì)一的判斷問(wèn)題;而說(shuō)話人識(shí)別是指從目標(biāo)說(shuō)話人集合中選定對(duì)應(yīng)于當(dāng)前語(yǔ)音輸入的發(fā)音人,屬于一對(duì)多的模型辨識(shí)問(wèn)題。說(shuō)話人識(shí)別技術(shù)在軍事、國(guó)家安全、刑偵領(lǐng)域和銀行、證券等金融領(lǐng)域有著廣泛的應(yīng)用。目前說(shuō)話人識(shí)別最為主流的技術(shù)路線是GMM-UBM算法,即分別采用混合高斯模型 (Gaussian Mixture Model, GMM)模擬各說(shuō)話人模型及單獨(dú)的通用背景模型(Universal Background Model, UBM),通過(guò)比較說(shuō)話人模型及背景模型相對(duì)于輸入語(yǔ)音信號(hào)的聲紋特征的似然比確定說(shuō)話人身份。具體地,在進(jìn)行說(shuō)話人確認(rèn)時(shí)根據(jù)說(shuō)話人模型及背景模型的似然比和預(yù)置閾值的大小判斷是否為目標(biāo)說(shuō)話人,而在進(jìn)行說(shuō)話人識(shí)別時(shí)則比較所有說(shuō)話人模型的似然比大小并選擇具有最大似然比的說(shuō)話人為識(shí)別結(jié)果。通常,對(duì)說(shuō)話人模型的模擬效果會(huì)隨著訓(xùn)練數(shù)據(jù)量的增多而得到進(jìn)一步的改善, 從而使說(shuō)話人識(shí)別系統(tǒng)的性能得到提高。然而在實(shí)際應(yīng)用中,實(shí)際檢測(cè)環(huán)境和模型訓(xùn)練環(huán)境往往不盡相同,語(yǔ)音通信中通信信道或通信工具的任何變化都會(huì)引起語(yǔ)音信號(hào)不同程度的畸變,進(jìn)而導(dǎo)致訓(xùn)練數(shù)據(jù)和測(cè)試采集信道不匹配,訓(xùn)練模型不能很好地模擬測(cè)試數(shù)據(jù),影響了系統(tǒng)性能。因此,如何改善說(shuō)話人識(shí)別系統(tǒng)在不同信道環(huán)境下的識(shí)別穩(wěn)定性,提高該系統(tǒng)的魯棒性和普適性已成為當(dāng)前亟待解決的實(shí)際問(wèn)題。

發(fā)明內(nèi)容
本發(fā)明實(shí)施例針對(duì)上述現(xiàn)有技術(shù)存在的問(wèn)題,提供一種說(shuō)話人識(shí)別方法及系統(tǒng), 以適應(yīng)不同的信道環(huán)境,提高系統(tǒng)性能。本發(fā)明實(shí)施例提供一種說(shuō)話人識(shí)別方法,包括采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào);從采集的所述語(yǔ)音信號(hào)中分別提取聲紋特征序列;利用所述聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型;根據(jù)所述說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。優(yōu)選地,所述采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào)包括利用選定的多個(gè)不同的麥克風(fēng)分別采集所述用戶注冊(cè)語(yǔ)音信號(hào)。優(yōu)選地,所述方法還包括檢測(cè)不同麥克風(fēng)與不同用戶端設(shè)備的信道相似度;根據(jù)得到的信道相似度選定多個(gè)不同的麥克風(fēng)。
優(yōu)選地,所述檢測(cè)不同麥克風(fēng)與不同用戶設(shè)備的信道相似度包括將所述不同麥克風(fēng)和所述不同用戶端設(shè)備置于音箱的同一波束面上;通過(guò)所述音箱播放用戶錄音;利用所述不同麥克風(fēng)和所述不同用戶端設(shè)備對(duì)所述用戶錄音進(jìn)行同步采集;對(duì)于每個(gè)麥克風(fēng)和用戶端設(shè)備,計(jì)算該麥克風(fēng)和該用戶端設(shè)備在采集到的語(yǔ)音信號(hào)上的主觀語(yǔ)音質(zhì)量評(píng)估PESQ值,將PESQ值作為該麥克風(fēng)和該用戶端設(shè)備的信道相似度。優(yōu)選地,所述根據(jù)得到的相似度選定多個(gè)不同的麥克風(fēng)包括利用線性函數(shù)D = S-PESQ將所述信道相似度映射到新的距離度量空間,其中,D表示映射距離,S為系統(tǒng)參數(shù);以各麥克風(fēng)為聚類(lèi)初始類(lèi)中心,采用自下而上的聚類(lèi)算法合并具有相似PESQ值分布的麥克風(fēng);根據(jù)聚類(lèi)結(jié)果選定多個(gè)不同的麥克風(fēng)??蛇x地,所述不同麥克風(fēng)包括以下任意一種或多種動(dòng)圈式麥克風(fēng)、電容式麥克風(fēng)、駐極體麥克風(fēng)、硅麥克風(fēng);所述不同用戶端設(shè)備包括以下任意一種或多種手機(jī)、錄音筆。優(yōu)選地,所述利用所述聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型包括對(duì)于每個(gè)信道采集到的所有聲紋特征序列,訓(xùn)練得到對(duì)應(yīng)該信道的聲紋模型;對(duì)得到的對(duì)應(yīng)不同信道的聲紋模型進(jìn)行合并,生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。優(yōu)選地,對(duì)得到的對(duì)應(yīng)不同信道的聲紋模型進(jìn)行合并包括
將對(duì)應(yīng)不同信道的聲紋模型加權(quán)平均。本發(fā)明實(shí)施例還提供一種說(shuō)話人識(shí)別系統(tǒng),包括采集單元,用于采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào);特征提取單元,用于從所述采集單元采集的所述語(yǔ)音信號(hào)中分別提取聲紋特征序列;模型訓(xùn)練單元,用于利用所述特征提取單元提取的聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型;識(shí)別單元,用于根據(jù)所述說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。優(yōu)選地,所述采集單元,具體用于利用選定的多個(gè)不同的麥克風(fēng)分別采集所述用
戶注冊(cè)語(yǔ)音信號(hào)。優(yōu)選地,所述系統(tǒng)還包括檢測(cè)子系統(tǒng),用于檢測(cè)不同麥克風(fēng)與不同用戶端設(shè)備的信道相似度;選擇單元,用于根據(jù)得到的信道相似度選定多個(gè)不同的麥克風(fēng)。優(yōu)選地,所述檢測(cè)子系統(tǒng)包括音箱,用于播放用戶錄音;多個(gè)不同麥克風(fēng)和多個(gè)不同用戶設(shè)備,用于在所述音箱的同一波束面上同步采集所述音箱播放的用戶錄音;計(jì)算單元,用于對(duì)每個(gè)麥克風(fēng)和用戶端設(shè)備,計(jì)算該麥克風(fēng)和該用戶端設(shè)備在采集到的語(yǔ)音信號(hào)上的主觀語(yǔ)音質(zhì)量評(píng)估PESQ值,將PESQ值作為該麥克風(fēng)和該用戶端設(shè)備的信道相似度。優(yōu)選地,所述選擇單元包括映射子單元,用于利用線性函數(shù)D = S-PESQ將所述信道相似度映射到新的距離度量空間,其中,D表示映射距離,S為系統(tǒng)參數(shù);聚類(lèi)子單元,用于以各麥克風(fēng)為聚類(lèi)初始類(lèi)中心,采用自下而上的聚類(lèi)算法合并具有相似PESQ值的麥克風(fēng);選擇子單元,用于根據(jù)所述聚類(lèi)子單元的聚類(lèi)結(jié)果選定多個(gè)不同的麥克風(fēng)??蛇x地,所述不同麥克風(fēng)包括以下任意一種或多種動(dòng)圈式麥克風(fēng)、電容式麥克風(fēng)、駐極體麥克風(fēng)、硅麥克風(fēng);所述不同用戶端設(shè)備包括以下任意一種或多種手機(jī)、錄音筆。優(yōu)選地,所述模型訓(xùn)練單元包括訓(xùn)練子單元,用于對(duì)每個(gè)信道采集到的所有聲紋特征序列,訓(xùn)練得到對(duì)應(yīng)該信道的聲紋模型;合并子單元,用于對(duì)所述訓(xùn)練子單元得到的對(duì)應(yīng)不同信道的聲紋模型進(jìn)行合并, 生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。優(yōu)選地,合并子單元,具體用于將對(duì)應(yīng)不同信道的聲紋模型加權(quán)平均,生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。本發(fā)明實(shí)施例提供的說(shuō)話人識(shí)別方法及系統(tǒng),針對(duì)檢測(cè)環(huán)境和模型訓(xùn)練環(huán)境不同情況下,由于測(cè)試語(yǔ)音和訓(xùn)練語(yǔ)音之間信道不匹配導(dǎo)致系統(tǒng)性能下降的問(wèn)題,通過(guò)采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào),并利用這些不同信道下的注冊(cè)語(yǔ)音信號(hào)訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型,根據(jù)該說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。相比于傳統(tǒng)基于加噪語(yǔ)音訓(xùn)練得到的說(shuō)話人模型對(duì)信道敏感的問(wèn)題,本發(fā)明實(shí)施例中得到的說(shuō)話人模型由于是基于多個(gè)不同信道數(shù)據(jù)訓(xùn)練得到的,因此能更好地覆蓋不同信道下的聲紋特點(diǎn),具有更高的魯棒性和針對(duì)性。即使在模型訓(xùn)練數(shù)據(jù)與信道空問(wèn)不匹配的情況下,也可以得到更魯棒的模型估計(jì),較好地改善信道差異導(dǎo)致的系統(tǒng)性能下降的問(wèn)題。


為了更清楚地說(shuō)明本發(fā)明實(shí)施的技術(shù)方案,下面將對(duì)實(shí)施例中所需要使用的附圖作簡(jiǎn)單地介紹,顯而易見(jiàn)地,下面描述中的附圖僅僅是本發(fā)明的一些實(shí)施例,對(duì)于本領(lǐng)域普通技術(shù)人員來(lái)講,在不付出創(chuàng)造性勞動(dòng)的前提下,還可以根據(jù)這些附圖獲得其他的附圖。圖1是本發(fā)明實(shí)施例說(shuō)話人識(shí)別方法的流程圖;圖2是本發(fā)明實(shí)施例中背景模型參數(shù)訓(xùn)練過(guò)程的一種流程圖;圖3是本發(fā)明實(shí)施例中選擇麥克風(fēng)的一種實(shí)現(xiàn)流程圖;圖4是本發(fā)明實(shí)施例說(shuō)話人識(shí)別系統(tǒng)的一種結(jié)構(gòu)示意圖;圖5是本發(fā)明實(shí)施例說(shuō)話人識(shí)別系統(tǒng)的另一種結(jié)構(gòu)示意圖。
具體實(shí)施例方式下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對(duì)本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例?;诒景l(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒(méi)有作出創(chuàng)造性勞動(dòng)前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。本發(fā)明實(shí)施例說(shuō)話人識(shí)別方法及系統(tǒng),針對(duì)檢測(cè)環(huán)境和模型訓(xùn)練環(huán)境不同情況下,由于測(cè)試語(yǔ)音和訓(xùn)練語(yǔ)音之間信道不匹配導(dǎo)致系統(tǒng)性能下降的問(wèn)題,通過(guò)采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào),并利用這些不同信道下的注冊(cè)語(yǔ)音信號(hào)訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型,根據(jù)該說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。如圖1所示,是本發(fā)明實(shí)施例說(shuō)話人識(shí)別方法的流程圖,包括以下步驟步驟101,采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào)。具體地,可以通過(guò)不同類(lèi)型的采集設(shè)備來(lái)模擬不同的信道,比如,利用K個(gè)麥克風(fēng)采集用戶輸入的每句注冊(cè)語(yǔ)音。步驟102,從采集的所述語(yǔ)音信號(hào)中分別提取聲紋特征序列。該聲紋特征序列包含一組聲紋特征,可以有效地區(qū)分不同的說(shuō)話人,且對(duì)同一說(shuō)話人的變化保持相對(duì)穩(wěn)定。所述聲紋特征主要有譜包絡(luò)參數(shù)語(yǔ)音特征,基音輪廓、共振峰頻率帶寬特征,線性預(yù)測(cè)系數(shù),倒譜系數(shù)等。步驟103,利用所述聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。本發(fā)明實(shí)施例中的每一個(gè)特定的信道都對(duì)應(yīng)了一組聲紋特征序列,因此可以首先對(duì)每個(gè)信道下的聲紋特征序列分別訓(xùn)練,得到對(duì)應(yīng)的聲紋模型;然后,對(duì)得到的對(duì)應(yīng)不同信道的多個(gè)聲紋模型進(jìn)行合并,比如加權(quán)平均,生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。在對(duì)注冊(cè)用語(yǔ)音樣本進(jìn)行訓(xùn)練時(shí),可以采用傳統(tǒng)聲紋認(rèn)證系統(tǒng)的自適應(yīng)算法,根據(jù)樣本統(tǒng)計(jì)量調(diào)整通用背景模型參數(shù)實(shí)現(xiàn)對(duì)說(shuō)話人模型的估計(jì),如目前最為常用的基于最大后驗(yàn)概率的自適應(yīng)算法等。自適應(yīng)算法根據(jù)少量說(shuō)話人數(shù)據(jù)將用戶聲紋共性自適應(yīng)為當(dāng)前說(shuō)話人個(gè)性,其具體訓(xùn)練流程大致如下1)從用戶注冊(cè)語(yǔ)音信號(hào)中提取聲紋特征。2)利用所述聲紋特征自適應(yīng)更新背景模型混合高斯的均值μ m 具體地,新高斯均值#計(jì)算為樣本統(tǒng)計(jì)量和原始高斯均值的加權(quán)平均,即
權(quán)利要求
1.一種說(shuō)話人識(shí)別方法,其特征在于,包括 采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào);從采集的所述語(yǔ)音信號(hào)中分別提取聲紋特征序列;利用所述聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型;根據(jù)所述說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。
2.如權(quán)利要求1所述的方法,其特征在于,所述采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào)包括利用選定的多個(gè)不同的麥克風(fēng)分別采集所述用戶注冊(cè)語(yǔ)音信號(hào)。
3.如權(quán)利要求2所述的方法,其特征在于,所述方法還包括 檢測(cè)不同麥克風(fēng)與不同用戶端設(shè)備的信道相似度; 根據(jù)得到的信道相似度選定多個(gè)不同的麥克風(fēng)。
4.如權(quán)利要求3所述的方法,其特征在于,所述檢測(cè)不同麥克風(fēng)與不同用戶設(shè)備的信道相似度包括將所述不同麥克風(fēng)和所述不同用戶端設(shè)備置于音箱的同一波束面上; 通過(guò)所述音箱播放用戶錄音;利用所述不同麥克風(fēng)和所述不同用戶端設(shè)備對(duì)所述用戶錄音進(jìn)行同步采集; 對(duì)于每個(gè)麥克風(fēng)和用戶端設(shè)備,計(jì)算該麥克風(fēng)和該用戶端設(shè)備在采集到的語(yǔ)音信號(hào)上的主觀語(yǔ)音質(zhì)量評(píng)估PESQ值,將PESQ值作為該麥克風(fēng)和該用戶端設(shè)備的信道相似度。
5.如權(quán)利要求4所述的方法,其特征在于,所述根據(jù)得到的相似度選定多個(gè)不同的麥克風(fēng)包括利用線性函數(shù)D = S-PESQ將所述信道相似度映射到新的距離度量空間,其中,D表示映射距離,S為系統(tǒng)參數(shù);以各麥克風(fēng)為聚類(lèi)初始類(lèi)中心,采用自下而上的聚類(lèi)算法合并具有相似PESQ值分布的麥克風(fēng);根據(jù)聚類(lèi)結(jié)果選定多個(gè)不同的麥克風(fēng)。
6.如權(quán)利要求4所述的方法,其特征在于所述不同麥克風(fēng)包括以下任意一種或多種動(dòng)圈式麥克風(fēng)、電容式麥克風(fēng)、駐極體麥克風(fēng)、硅麥克風(fēng);所述不同用戶端設(shè)備包括以下任意一種或多種手機(jī)、錄音筆。
7.如權(quán)利要求1至6任一項(xiàng)所述的方法,其特征在于,所述利用所述聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型包括對(duì)于每個(gè)信道采集到的所有聲紋特征序列,訓(xùn)練得到對(duì)應(yīng)該信道的聲紋模型; 對(duì)得到的對(duì)應(yīng)不同信道的聲紋模型進(jìn)行合并,生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。
8.如權(quán)利要求7所述的方法,其特征在于,對(duì)得到的對(duì)應(yīng)不同信道的聲紋模型進(jìn)行合并包括將對(duì)應(yīng)不同信道的聲紋模型加權(quán)平均。
9.一種說(shuō)話人識(shí)別系統(tǒng),其特征在于,包括采集單元,用于采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào);特征提取單元,用于從所述采集單元采集的所述語(yǔ)音信號(hào)中分別提取聲紋特征序列;模型訓(xùn)練單元,用于利用所述特征提取單元提取的聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型;識(shí)別單元,用于根據(jù)所述說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。
10.如權(quán)利要求9所述的系統(tǒng),其特征在于,所述采集單元,具體用于利用選定的多個(gè)不同的麥克風(fēng)分別采集所述用戶注冊(cè)語(yǔ)音信號(hào)。
11.如權(quán)利要求10所述的系統(tǒng),其特征在于,所述系統(tǒng)還包括 檢測(cè)子系統(tǒng),用于檢測(cè)不同麥克風(fēng)與不同用戶端設(shè)備的信道相似度; 選擇單元,用于根據(jù)得到的信道相似度選定多個(gè)不同的麥克風(fēng)。
12.如權(quán)利要求11所述的系統(tǒng),其特征在于,所述檢測(cè)子系統(tǒng)包括 音箱,用于播放用戶錄音;多個(gè)不同麥克風(fēng)和多個(gè)不同用戶設(shè)備,用于在所述音箱的同一波束面上同步采集所述音箱播放的用戶錄音;計(jì)算單元,用于對(duì)每個(gè)麥克風(fēng)和用戶端設(shè)備,計(jì)算該麥克風(fēng)和該用戶端設(shè)備在采集到的語(yǔ)音信號(hào)上的主觀語(yǔ)音質(zhì)量評(píng)估PESQ值,將PESQ值作為該麥克風(fēng)和該用戶端設(shè)備的信道相似度。
13.如權(quán)利要求12所述的系統(tǒng),其特征在于,所述選擇單元包括映射子單元,用于利用線性函數(shù)D = S-PESQ將所述信道相似度映射到新的距離度量空間,其中,D表示映射距離,S為系統(tǒng)參數(shù);聚類(lèi)子單元,用于以各麥克風(fēng)為聚類(lèi)初始類(lèi)中心,采用自下而上的聚類(lèi)算法合并具有相似PESQ值的麥克風(fēng);選擇子單元,用于根據(jù)所述聚類(lèi)子單元的聚類(lèi)結(jié)果選定多個(gè)不同的麥克風(fēng)。
14.如權(quán)利要求12所述的系統(tǒng),其特征在于所述不同麥克風(fēng)包括以下任意一種或多種動(dòng)圈式麥克風(fēng)、電容式麥克風(fēng)、駐極體麥克風(fēng)、硅麥克風(fēng);所述不同用戶端設(shè)備包括以下任意一種或多種手機(jī)、錄音筆。
15.如權(quán)利要求9至14任一項(xiàng)所述的系統(tǒng),其特征在于,所述模型訓(xùn)練單元包括訓(xùn)練子單元,用于對(duì)每個(gè)信道采集到的所有聲紋特征序列,訓(xùn)練得到對(duì)應(yīng)該信道的聲紋模型;合并子單元,用于對(duì)所述訓(xùn)練子單元得到的對(duì)應(yīng)不同信道的聲紋模型進(jìn)行合并,生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。
16.如權(quán)利要求15所述的系統(tǒng),其特征在于,合并子單元,具體用于將對(duì)應(yīng)不同信道的聲紋模型加權(quán)平均,生成對(duì)應(yīng)所述用戶的說(shuō)話人模型。
全文摘要
本發(fā)明涉及身份識(shí)別技術(shù)領(lǐng)域,公開(kāi)了一種說(shuō)話人識(shí)別方法及系統(tǒng),該方法包括采集不同信道下的用戶注冊(cè)語(yǔ)音信號(hào);從采集的所述語(yǔ)音信號(hào)中分別提取聲紋特征序列;利用所述聲紋特征序列訓(xùn)練生成對(duì)應(yīng)所述用戶的說(shuō)話人模型;根據(jù)所述說(shuō)話人模型及預(yù)先訓(xùn)練生成的通用背景模型對(duì)所述用戶進(jìn)行說(shuō)話人識(shí)別。本發(fā)明說(shuō)話人識(shí)別方法及系統(tǒng),可以適應(yīng)不同的信道環(huán)境,提高系統(tǒng)性能。
文檔編號(hào)G10L17/00GK102270451SQ20111023785
公開(kāi)日2011年12月7日 申請(qǐng)日期2011年8月18日 優(yōu)先權(quán)日2011年8月18日
發(fā)明者何婷婷, 劉慶峰, 吳曉如, 柳林, 胡國(guó)平, 胡郁, 魏思 申請(qǐng)人:安徽科大訊飛信息科技股份有限公司
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
巴彦淖尔市| 侯马市| 呼玛县| 普兰县| 井冈山市| 万年县| 阿尔山市| 郧西县| 扶沟县| 凌源市| 社会| 当雄县| 西昌市| 小金县| 周宁县| 凤山市| 梅河口市| 兰州市| 叶城县| 财经| 渝北区| 远安县| 邯郸市| 伊宁县| 黄大仙区| 南木林县| 顺义区| 红原县| 德清县| 宁国市| 高碑店市| 昌江| 五河县| 呈贡县| 杨浦区| 子洲县| 砀山县| 阿尔山市| 威信县| 肥城市| 三都|