欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種識別方位及身份的方法和電子設(shè)備的制作方法

文檔序號:6494242閱讀:344來源:國知局
一種識別方位及身份的方法和電子設(shè)備的制作方法
【專利摘要】本發(fā)明的實施例提供一種識別方位及身份的方法和電子設(shè)備,涉及計算機(jī)領(lǐng)域,能夠提高對講話者識別的精度,并且能夠提高識別的效率,實現(xiàn)實時反饋。其方法為:首先通過聲源定位獲取聲源的第一方位集合,再通過定位有嘴唇動作的人的獲取聲源的第二方位集合,并獲取有嘴唇動作的人的身份集合,而后根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集合,最后根據(jù)第三方位集合和身份集合確定講話者的方位及身份。本發(fā)明實施例用于聲源的定位和聲源身份的識別。
【專利說明】一種識別方位及身份的方法和電子設(shè)備
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及計算機(jī)領(lǐng)域,尤其涉及一種識別方位及身份的方法和電子設(shè)備。
【背景技術(shù)】
[0002]目前,隨著語音技術(shù)發(fā)展迅速,聲源定位可以被應(yīng)用到很多的領(lǐng)域。例如在有多人交流的場景中,通過適當(dāng)技術(shù)去判斷說話人的方位和說話人的身份;又例如在低成本的多人視屏?xí)h系統(tǒng)當(dāng)中,或者在移動的機(jī)器人平臺上,又或者在Smart TV上,甚至是舞臺的智能燈光控制等等。
[0003]以有多人交流的場景為例,在面對多個輸入聲源或者是多個說話者的時候,傳統(tǒng)的做法是:先通過一個麥克風(fēng)陣列(Mic Array)收集聲音信號,然后在陣列里面將不同通道的獲取的聲波進(jìn)行相互變換(由于方位不同,導(dǎo)致聲音有差異)從而分離出聲音,進(jìn)而可以辨別出大致方位。理論上來講,麥克風(fēng)通道聲音的數(shù)量要與聲源的數(shù)相同,而實際情況往往是麥克風(fēng)的通道數(shù)量要大于聲源數(shù)量,而在背景聲音復(fù)雜或者有多個人同時說話的時候,往往定位的效果不會很理想,比如看電視的時候。而且對于這種聲源定位,則對于聲源分離的要求則更加的苛刻,而且需要收集10s-20s以上的聲波信號,通過統(tǒng)計學(xué)上的比對,才可以得出一個相對精確的結(jié)果。
[0004]而且實際的環(huán)境往往是很復(fù)雜,各種噪音都會對最終的定位和身份識別的正確行造成很大影響,而且10-20S的聲音樣本收集過程過長,也使得整個系統(tǒng)無法實時的做出反饋。因此,如何準(zhǔn)確、高效的定位識別出講話者成為亟需解決的問題。

【發(fā)明內(nèi)容】

[0005]本發(fā)明的實施例提供一種識別方位及身份的方法和電子設(shè)備,能夠提高對講話者識別的精度,并且能夠提高識別的效率,實現(xiàn)實時反饋。
[0006]為達(dá)到上述目的,本發(fā)明的實施例采用如下技術(shù)方案:
[0007]—方面,提供一種識別方位及身份的方法,應(yīng)用于識別講話者的方位及身份,所述方法包括:
[0008]采集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合;
[0009]獲取有嘴唇動作的人的方位信息,獲得第二方位集合;
[0010]獲取所述有嘴唇動作的人的身份,得到所述有嘴唇動作的人的身份集合;
[0011]根據(jù)所述第一方位集合和所述第二方位集合確定包括講話者方位信息的第三方位集合;
[0012]根據(jù)所述第三方位集合和所述身份集合確定所述講話者的方位信息及身份。
[0013]另一方面,提供一種電子設(shè)備,所述電子設(shè)備包括:
[0014]第一定位單元,用于采集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合;
[0015]第二定位單元,用于獲取有嘴唇動作的人的方位信息,獲得第二方位集合;[0016]身份識別單元,用于獲取所述有嘴唇動作的人的身份,得到所述有嘴唇動作的人的身份集合;
[0017]第三定位單元,用于根據(jù)所述第一方位集合和所述第二方位集合確定包括講話者方位信息的第三方位集合;
[0018]身份匹配單元,用于根據(jù)所述第三方位集合和所述身份集合確定所述講話者的方位信息及身份。
[0019]本發(fā)明的實施例提供一種識別方位及身份的方法和電子設(shè)備,首先通過聲源定位獲取聲源的第一方位集合,再通過定位有嘴唇動作的人的獲取聲源的第二方位集合,并獲取有嘴唇動作的人的身份集合,而后根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集合,最后根據(jù)第三方位集合和身份集合確定講話者的方位及身份,能夠提聞對講話者識別的精度,并且能夠提聞識別的效率,實現(xiàn)實時反饋。
【專利附圖】

【附圖說明】
[0020]為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
[0021]圖1為本發(fā)明實施例提供的一種識別方位及身份的方法的流程示意圖;
[0022]圖2為本發(fā)明實施例提供的另一種識別方位及身份的方法的流程示意圖;
[0023]圖3為本發(fā)明實施例提供的一種電子設(shè)備的結(jié)構(gòu)示意圖;
[0024]圖4為本發(fā)明實施例提供的另一種電子設(shè)備的結(jié)構(gòu)示意圖;
[0025]圖5為本發(fā)明實施例提供的又一種電子設(shè)備的結(jié)構(gòu)示意圖。
【具體實施方式】
[0026]下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護(hù)的范圍。
[0027]本發(fā)明實施例提供一種識別方位及身份的方法,如圖1所示,方法包括:
[0028]101、米集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合。
[0029]102、獲取有嘴唇動作的人的方位信息,獲得第二方位集合。
[0030]103、獲取有嘴唇動作的人的身份,得到有嘴唇動作的人的身份集合。
[0031]104、根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集

口 ο
[0032]105、根據(jù)第三方位集合和身份集合確定講話者的方位信息及身份。
[0033]需要說明的是,步驟101、102和103之間沒有固定的執(zhí)行順序,這里不做限定。
[0034]本發(fā)明的實施例提供一種識別方位及身份的方法,首先通過聲源定位獲取聲源的第一方位集合,再通過定位有嘴唇動作的人的獲取聲源的第二方位集合,并獲取有嘴唇動作的人的身份集合,而后根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集合,最后根據(jù)第三方位集合和身份集合確定講話者的方位及身份,能夠提高對講話者識別的精度,并且能夠提高識別的效率,實現(xiàn)實時反饋。
[0035]本發(fā)明另一實施例提供另一種識別方位及身份的方法,如圖2所示,包括:
[0036]201、米集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合。
[0037]示例性的,可以通過一個麥克風(fēng)來采集聲音,并根據(jù)采集到的聲音進(jìn)行聲源定位(Sound Source Tracking),該麥克風(fēng)可以是一個麥克風(fēng)陣列,包括了多個通道,在接收到聲波信號時,該麥克風(fēng)陣列的不同通道將獲取的聲波進(jìn)行互相變換,由于每個通道的位置不同,導(dǎo)致接收到的聲音有差異,根據(jù)該差異就可以辨別出聲源的大致方位(而辨別方位的手法同主動式的聲納探測類似)。
[0038]其中,采用麥克風(fēng)陣列進(jìn)行聲音定位,一般情況下只能定位聲源的方向,并不能定位聲源的距離,因此,上述采用麥克風(fēng)陣列獲得的聲源方位信息一般可以為相對角度。
[0039]例如,該角度可以是聲源和麥克風(fēng)所在直線與麥克風(fēng)的某一基準(zhǔn)線的夾角,該麥克風(fēng)的基準(zhǔn)線可以是麥克風(fēng)的中軸線,或者可以是麥克風(fēng)的水平線,麥克風(fēng)的水平線為經(jīng)過麥克風(fēng)的中心且垂直于麥克風(fēng)的中軸線的直線。
[0040]當(dāng)然,上述聲源可能是一個聲源,也可能是多個聲源,因此這里得到的聲源的方位信息是一個方位集合,可以稱為聲源的第一方位集合,可以用D1表不。
[0041]202、偵測出可偵測范圍內(nèi)的人臉。
[0042]示例性的,可以利用支持人臉偵測(Face Detection)技術(shù)的攝像頭在可偵測范圍內(nèi)偵測出所有人臉。
[0043]203、在已偵測出的人臉中識別有嘴唇動作的人臉,以確定有嘴唇動作的人。
[0044]示例性的,可以對已偵測出的所有人臉進(jìn)行唇部動作識別(LipMovementDetection),在這些人臉中識別出有嘴唇動作的人臉,從而確定有嘴唇動作的人。
[0045]204、獲取有嘴唇動作的人的方位信息,獲得第二方位集合。
[0046]示例性的,通過攝像頭可以獲取有嘴唇動作的人和攝像頭所在直線與該攝像頭的某一基準(zhǔn)線的夾角,該攝像頭的基準(zhǔn)線可以是攝像頭的中軸線,或攝像頭的水平線,該攝像頭的水平線可以為經(jīng)過攝像頭的中心且垂直于攝像頭中軸線的直線。
[0047]需要注意的是,麥克風(fēng)的中軸線與攝像頭的中軸線重合,且麥克風(fēng)的中心與攝像頭的中心重合,這樣就使得麥克風(fēng)和攝像頭在獲取相對角度時,參考的標(biāo)準(zhǔn)線是相同的,避免了不必要的誤差。
[0048]當(dāng)然,上述有嘴唇動作的人可能是一個,也可能是多個,因此這里得到的有嘴唇動作的人的方位信息是一個方位集合,可以稱為聲源的第二方位集合,用D2表示。
[0049]進(jìn)一步的,采用深度攝像頭還可以獲取有嘴唇動作的人與攝像頭的距離,將有嘴唇動作的人與攝像頭的距離也作為有嘴唇動作的人的方位信息,這樣根據(jù)角度和距離就可以獲得更加精確的方位息。
[0050]205、獲取有嘴唇動作的人的身份,得到有嘴唇動作的人的身份集合。
[0051]具體的,可以將有嘴唇動作的人的面部特征與預(yù)存的面部特征進(jìn)行匹配,并根據(jù)面部特征與身份的對應(yīng)關(guān)系獲取有嘴唇動作的人的身份,得到有嘴唇動作的人的身份集
口 ο
[0052]需要說明的是,步驟204與步驟205沒有固定的順序,這里不做限定。[0053]206、根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集
口 O
[0054]將第一方位集合和聲源的第二方位集合取交集,以獲取被的第一集合和第二集合同時包括的方位信息,獲得第三方位集合。
[0055]具體的,可以將第一方位集合中的聲源和麥克風(fēng)所在直線與麥克風(fēng)的基準(zhǔn)線的夾角,與的第二方位集合中的有嘴唇動作的人和攝像頭所在直線與攝像頭的基準(zhǔn)線的夾角進(jìn)行對比,若存在大小相同的夾角,則將該夾角的角度確定為講話者方位信息,獲得第三方位集合。其中,關(guān)于麥克風(fēng)的基準(zhǔn)線以及攝像頭的基準(zhǔn)線的選取方法可參照步驟201和步驟204,這里不再贅述。
[0056]或者,可以利用加權(quán)平均公式根據(jù)第一方位集合和第二方位集合確定講話者方位信息,獲得第三方位集合;
[0057]其中,加權(quán)平均公式包括:D= Q1D1+GJ2D2,其中,D為第三方位集合,D1為第一方位集合,D2為第二方位集合,CJ1和ω2為系數(shù),且(0< ω1 < 1,0 < ω2 < I, ωι+ω2=1)。
[0058]其中,Co1和ω2的值可以根據(jù)實際的算法及測試來選取最佳值,本實施例不做限定。
[0059]這樣,在使用聲源定位的同時,加入了人臉偵測和識別技術(shù)來確定講話者的方位,比單純使用聲源定位更加精確,而且人臉偵測和識別的速度相當(dāng)快,相比通過使用聲紋識別技術(shù)來識別講話者的身份而言,具有更高的識別速度,所以上述方法能夠明顯提高對講話者的方位和身份的識別精度,并且能夠提高講話者方位及身份的識別效率,實現(xiàn)實時反饋。
[0060]本發(fā)明的實施例提供一種識別方位及身份的方法,首先通過聲源定位獲取聲源的第一方位集合,再通過定位有嘴唇動作的人的獲取聲源的第二方位集合,并獲取有嘴唇動作的人的身份集合,而后根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集合,最后根據(jù)第三方位集合和身份集合確定講話者的方位及身份,能夠提高對講話者識別的精度,并且能夠提高識別的效率,實現(xiàn)實時反饋。
[0061]本發(fā)明的又一實施例提供一種電子設(shè)備01,如圖3所示,電子設(shè)備包括:
[0062]第一定位單兀011,用于米集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合;
[0063] 第二定位單元012,用于獲取有嘴唇動作的人的方位信息,獲得第二方位集合;
[0064]身份識別單元013,用于獲取有嘴唇動作的人的身份,得到有嘴唇動作的人的身份集合;
[0065]第三定位單元014,用于根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集合;
[0066]身份匹配單元015,用于根據(jù)第三方位集合和身份集合確定講話者的方位信息及身份。
[0067]可選的,第一定位單元011可以具體用于:
[0068]獲取每個聲源和麥克風(fēng)所在直線與麥克風(fēng)的基準(zhǔn)線的夾角作為該聲源方位的方位信息,獲得第一方位集合;
[0069]麥克風(fēng)的基準(zhǔn)線包括麥克風(fēng)的中軸線,或麥克風(fēng)的水平線,麥克風(fēng)的水平線為經(jīng)過麥克風(fēng)的中心且垂直于麥克風(fēng)的中軸線的直線。
[0070]可選的,如圖4所示,第二定位單元012可以包括:
[0071]人臉識別單元0121,用于偵測出可偵測范圍內(nèi)的人臉;
[0072]唇部運(yùn)動識別單元0122,用于在已偵測出的人臉中識別有嘴唇動作的人臉,以確定有嘴唇動作的人;
[0073]角度獲取單元0123,用于獲取每個有嘴唇動作的人和攝像頭所在直線與攝像頭的基準(zhǔn)線的夾角作為該有嘴唇動作的人的方位信息,獲得第二方位集合;
[0074]攝像頭的基準(zhǔn)線包括攝像頭的中軸線,或攝像頭的水平線,攝像頭的水平線為經(jīng)過攝像頭的中心且垂直于攝像頭中軸線的直線;
[0075]其中,麥克風(fēng)的中軸線與攝像頭的中軸線重合,且麥克風(fēng)的中心與攝像頭的中心重合。
[0076]可選的,如圖5所示,第二定位單元012還可以包括:
[0077]距離獲取單元0124,用于獲取每個有嘴唇動作的人與攝像頭的距離,將有嘴唇動作的人與攝像頭的距離也作為有嘴唇動作的人的方位信息。
[0078]可選的,身份識別單元013可以具體用于:
[0079]將有嘴唇動作的人的面部特征與預(yù)存的面部特征進(jìn)行匹配,并根據(jù)面部特征與身份的對應(yīng)關(guān)系獲取有嘴唇動作的人的身份,得到有嘴唇動作的人的身份集合。
[0080]可選的,第三定位單元014可以具體用于:
[0081]將第一集合和第二集合取交集,以獲取被的第一集合和第二集合同時包括的方位信息,獲得第三方位集合;或
[0082]利用加權(quán)平均公式根據(jù)第一集合和第二集合確定第三方位集合;
[0083]其中,加權(quán)平均公式包括:D= Q1D1+GJ2D2,其中,D為第三方位集合,D1為第一方位集合,D2為第二方位集合,CJ1和ω2為系數(shù),且(0< ω1 < 1,0 < ω2 < I, ωι+ω2=1)。
[0084]這樣,在使用聲源定位的同時,加入了人臉偵測和識別技術(shù)來確定講話者的方位,比單純使用聲源定位更加精確,而且人臉偵測和識別的速度相當(dāng)快,相比通過使用聲紋識別技術(shù)來識別講話者的身份而言,具有更高的識別速度,所以上述方法能夠明顯提高對講話者的方位和身份的識別精度,并且能夠提高講話者方位及身份的識別效率,實現(xiàn)實時反饋。
[0085]本發(fā)明的實施例提供一種電子設(shè)備,首先通過聲源定位獲取聲源的第一方位集合,再通過定位有嘴唇動作的人的獲取聲源的第二方位集合,并獲取有嘴唇動作的人的身份集合,而后根據(jù)第一方位集合和第二方位集合確定包括講話者方位信息的第三方位集合,最后根據(jù)第三方位集合和身份集合確定講話者的方位及身份,能夠提高對講話者識別的精度,并且能夠提高識別的效率,實現(xiàn)實時反饋。
[0086]本發(fā)明各個實施例中的電子設(shè)備的各功能單元可以集成在一個處理單元中,也可以是各個單元單獨物理包括,也可以兩個或兩個以上單元集成在一個單元中。且上述的各單元既可以采用硬件的形式實現(xiàn),也可以采用硬件加軟件功能單元的形式實現(xiàn)。
[0087]實現(xiàn)上述方法實施例的全部或部分步驟可以通過程序指令相關(guān)的硬件來完成,前述的程序可以存儲于一計算機(jī)可讀取存儲介質(zhì)中,該程序在執(zhí)行時,執(zhí)行包括上述方法實施例的步驟;而前述 的存儲介質(zhì)包括:U盤、移動硬盤、只讀存儲器(Read Only Memory,簡稱ROM)、隨機(jī)存取存儲器(Random Access Memory,簡稱RAM)、磁碟或者光盤等各種可以存儲程序代碼的介質(zhì)。
[0088]以上所述,僅為本發(fā)明的【具體實施方式】,但本發(fā)明的保護(hù)范圍并不局限于此,任何熟悉本【技術(shù)領(lǐng)域】的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),可輕易想到變化或替換,都應(yīng)涵蓋在本發(fā)明的保護(hù)范圍之內(nèi)。因此,本發(fā)明的保護(hù)范圍應(yīng)以所述權(quán)利要求的保護(hù)范圍為準(zhǔn)。
【權(quán)利要求】
1.一種識別方位及身份的方法,應(yīng)用于識別講話者的方位及身份,其特征在于,所述方法包括: 采集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合; 獲取有嘴唇動作的人的方位信息,獲得第二方位集合; 獲取所述有嘴唇動作的人的身份,得到所述有嘴唇動作的人的身份集合; 根據(jù)所述第一方位集合和所述第二方位集合確定包括講話者方位信息的第三方位集合; 根據(jù)所述第三方位集合和所述身份集合確定所述講話者的方位信息及身份。
2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述獲取聲音所在聲源的方位信息,獲得第一方位集合包括: 獲取每個聲源和麥克風(fēng)所在直線與所述麥克風(fēng)的基準(zhǔn)線的夾角作為該聲源方位的方位信息,獲得所述第一方位集合; 所述麥克風(fēng)的基準(zhǔn)線包括所述麥克風(fēng)的中軸線,或所述麥克風(fēng)的水平線,所述麥克風(fēng)的水平線為經(jīng)過所述麥克風(fēng)的中心且垂直于所述麥克風(fēng)的中軸線的直線。
3.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述獲取有嘴唇動作的人的方位信息,獲得第二方位集合包括: 偵測出可偵測范圍內(nèi)的人臉; 在已偵測出的人臉中識別有嘴唇動作的人臉,以確定有嘴唇動作的人; 獲取每個有嘴唇動作的人和攝像頭所在直線與所述攝像頭的基準(zhǔn)線的夾角作為該有嘴唇動作的人的方位信息,獲得所述獲得第二方位集合; 所述攝像頭的基準(zhǔn)線包括所述攝像頭的中軸線,或所述攝像頭的水平線,所述攝像頭的水平線為經(jīng)過所述攝像頭的中心且垂直于所述攝像頭中軸線的直線; 其中,所述麥克風(fēng)的中軸線與所述攝像頭的中軸線重合,且所述麥克風(fēng)的中心與所述攝像頭的中心重合。
4.根據(jù)權(quán)利要求3所述的方法,其特征在于,所述獲取有嘴唇動作的人的方位信息包括: 獲取每個有嘴唇動作的人與所述攝像頭的距離,將所述有嘴唇動作的人與所述攝像頭的距離也作為有嘴唇動作的人的方位信息。
5.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述獲取所述有嘴唇動作的人的身份,得到所述有嘴唇動作的人的身份集合包括: 將所述有嘴唇動作的人的面部特征與預(yù)存的面部特征進(jìn)行匹配,并根據(jù)面部特征與身份的對應(yīng)關(guān)系獲取所述有嘴唇動作的人的身份,得到所述有嘴唇動作的人的身份集合。
6.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述根據(jù)所述第一方位集合和所述第二方位集合確定包括講話者方位信息的第三方位集合包括: 將所述第一集合和所述第二集合取交集,以獲取被所述的第一集合和所述第二集合同時包括的方位信息,獲得所述第三方位集合;或 利用加權(quán)平均公式根據(jù)所述第一集合和所述第二集合確定所述第三方位集合; 其中,所述加權(quán)平均公式包括:D = ω1D1+ω2D2,其中,其中,D為所述第三方位集合,D1為第一方位集合,D2為第二方位集合,O1和ω2為系數(shù),且(0< ω1 < 1,0 < ω2 <1,ω j+q2 = I)。
7.—種電子設(shè)備,其特征在于,所述電子設(shè)備包括: 第一定位單元,用于采集聲音,獲取聲音所在聲源的方位信息,獲得第一方位集合; 第二定位單元,用于獲取有嘴唇動作的人的方位信息,獲得第二方位集合; 身份識別單元,用于獲取所述有嘴唇動作的人的身份,得到所述有嘴唇動作的人的身份集合; 第三定位單元,用于根據(jù)所述第一方位集合和所述第二方位集合確定包括講話者方位信息的第三方位集合; 身份匹配單元,用于根據(jù)所述第三方位集合和所述身份集合確定所述講話者的方位信息及身份。
8.根據(jù)權(quán)利要求6所述的電子設(shè)備,其特征在于,所述第一定位單元具體用于: 獲取每個聲源和麥克風(fēng)所在直線與所述麥克風(fēng)的基準(zhǔn)線的夾角作為該聲源方位的方位信息,獲得所述第一方位集合; 所述麥克風(fēng)的基準(zhǔn)線包括所述麥克風(fēng)的中軸線,或所述麥克風(fēng)的水平線,所述麥克風(fēng)的水平線為經(jīng)過所述麥克風(fēng)的中心且垂直于所述麥克風(fēng)的中軸線的直線。
9.根據(jù)權(quán)利要求7所述的電子設(shè)備,其特征在于,所述第二定位單元包括: 人臉識別單元,用于偵測出可偵測范圍內(nèi)的人臉; 唇部運(yùn)動識別單元,用于在已偵測出的人臉中識別有嘴唇動作的人臉,以確定有嘴唇動作的人; 角度獲取單元,用于獲取每個有嘴唇動作的人和攝像頭所在直線與所述攝像頭的基準(zhǔn)線的夾角作為該有嘴唇動作的人的方位信息,獲得所述獲得第二方位集合; 所述攝像頭的基準(zhǔn)線包括所述攝像頭的中軸線,或所述攝像頭的水平線,所述攝像頭的水平線為經(jīng)過所述攝像頭的中心且垂直于所述攝像頭中軸線的直線; 其中,所述麥克風(fēng)的中軸線與所述攝像頭的中軸線重合,且所述麥克風(fēng)的中心與所述攝像頭的中心重合。
10.根據(jù)權(quán)利要求9所述的電子設(shè)備,其特征在于,所述第二定位單元包括還包括: 距離獲取單元,用于獲取每個有嘴唇動作的人與所述攝像頭的距離,將所述有嘴唇動作的人與所述攝像頭的距離也作為有嘴唇動作的人的方位信息。
11.根據(jù)權(quán)利要求7所述的電子設(shè)備,其特征在于,所述第三定位單元具體用于: 將所述第一集合和所述第二集合取交集,以獲取被所述的第一集合和所述第二集合同時包括的方位信息,獲得所述第三方位集合;或 利用加權(quán)平均公式根據(jù)所述第一集合和所述第二集合確定所述第三方位集合; 其中,加權(quán)平均公式包括:D = ω ^1+ ω 2D2,其中,D為所述第三方位集合,D1為第一方位集合,D2為第二方位集合,CJ1和ω2為系數(shù),且(0< ω1 < 1,0 < ω2 < I, ωι+ω2=1)。
【文檔編號】G06K9/00GK103902963SQ201210589531
【公開日】2014年7月2日 申請日期:2012年12月28日 優(yōu)先權(quán)日:2012年12月28日
【發(fā)明者】薛蘇葵 申請人:聯(lián)想(北京)有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
衡水市| 赣州市| 和静县| 靖州| 云和县| 宁晋县| 桐梓县| 施甸县| 射阳县| 台北市| 信阳市| 华宁县| 古交市| 长泰县| 麻栗坡县| 营口市| 当雄县| 东莞市| 鱼台县| 女性| 罗甸县| 青州市| 金寨县| 哈密市| 应城市| 乌苏市| 论坛| 庆城县| 张掖市| 会理县| 梁河县| 博罗县| 延寿县| 苍梧县| 贺州市| 象州县| 铁岭市| 瓦房店市| 河间市| 东丽区| 连南|