欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

頭戴式可穿戴設備及其信息處理方法、裝置的制造方法_3

文檔序號:9432000閱讀:來源:國知局
說謊(正向結果);瞳孔分析時瞳孔變大分析為說謊(負向結果),行為分析結時談話對象靠近使用者則分析為沒有說謊(正向結果),這樣則可以分析出此時談話對象是沒有說謊的,避免了單獨使用面部圖像分析或肢體圖像進行分析而造成的誤判?;蛘撸梢愿鶕?jù)各分析結果的權重系數(shù)的不同進行誤判的排除,原理和上述類似,在此處不再贅述。
[0102]本實施例的智能眼鏡還可以實現(xiàn)拍照、導航等功能。本實施例的智能眼鏡可為智能社交眼鏡,該智能眼鏡的硬件可包括:眼鏡支架即眼鏡本體;以及眼鏡支架上安裝的雙目攝像頭、控制器/處理器、無線模塊和GPS模塊、電源模塊等。
[0103]本發(fā)明的頭戴式可穿戴設備攜帶方便、成本低廉。此外,頭戴式可穿戴設備僅通過獲取談話對象的圖像信息,確定談話對象的心率變化、眼球動作、瞳孔變化等的分析結果,進而獲得該談話對象的談話可信度或談話興趣度,操作非常方便,能夠較好的推廣使用,提高了用戶的使用體驗。
[0104]在另一應用場景中,前述圖1中所述的圖像獲取器可包括:用于采集談話對象的肢體圖像的第二攝像頭,和用于接收談話對象的頭戴式可穿戴設備發(fā)送的談話對象的面部圖像的接收器;如圖2所示,圖2示出了另一頭戴式可穿戴設備的結構示意圖。
[0105]圖2中示出的頭戴式可穿戴設備包括:第二攝像頭21、與第二攝像頭21連接的控制器22,以及與該控制器22連接的輸出模塊23,以及與控制器連接的接收模塊24 ;
[0106]其中,該第二攝像頭21可采集談話對象的肢體圖像,接收模塊24接收談話對象的頭戴式可穿戴設備發(fā)送的談話對象的面部圖像;控制器22用于對談話對象的面部圖像和肢體圖像進行分析,獲取分析結果,輸出模塊23用于將分析結果輸出。
[0107]應說明的是,本實施例中的接收模塊24可接收的是談話對象的頭戴式可穿戴設備發(fā)送的談話對象的面部圖像。在其他實施例中,該接收模塊24還可用于接收任一智能設備發(fā)送的談話對象的面部圖像,該任一智能設備只要能夠實時獲取談話對象的面部圖像,且能夠發(fā)送談話對象的面部圖像即可。
[0108]另外,本實施例的第二攝像頭優(yōu)選使用雙目攝像頭,該雙目攝像頭具有較高的像素,可從不同方向/位置獲取談話對象的肢體的兩幅圖像,以便控制器進行后續(xù)分析。
[0109]可選地,本實施例的頭戴式可穿戴設備還可包括下述的圖像采集器(如圖2所示的第三攝像頭25)和發(fā)送模塊26(如發(fā)送器);圖像采集器和發(fā)送模塊26均與控制器連接。
[0110]該圖像采集器即對應的第三攝像頭25可用于采集頭戴式可穿戴設備的使用者的面部圖像,發(fā)送模塊26可將使用者的面部圖像的發(fā)送至談話對象的頭戴式可穿戴設備。
[0111]也就是說,在雙方談話時,可各使用一個上述圖2所示的頭戴式可穿戴設備,以確定對方對當前談話內容的興趣值如興趣指數(shù),或者確定對方當前說話的可信度等信息。
[0112]例如,A和B談話時,A和B均帶上圖2所示的可穿戴設備,此時,A戴的可穿戴設備a獲取B的肢體圖像和A的面部圖像,B戴的可穿戴設備b獲取B的面部圖像和A的肢體圖像,進而A戴的可穿戴設備a接收B戴的可穿戴設備b發(fā)送的B的面部圖像,分析B的面部圖像和B的肢體圖像,以便獲取B是否對當前談話內容感興趣的結果,或者,獲取B當前說話的可信度的信息等。
[0113]在實際應用中,圖2所示的頭戴式可穿戴設備可為智能眼鏡(如圖5所示的場景示意圖)。該智能眼鏡換包括眼鏡本體,前述的第二攝像頭21、圖像采集器、所述控制器22和所述輸出模塊23、發(fā)送模塊26、接收模塊24均位于所述眼鏡本體上。
[0114]當然,圖2所示的頭戴式可穿戴設備也可包括:與控制器連接的選擇模塊(圖中未示出),該選擇模塊用于接收使用者的選擇指令,以使控制器獲取與選擇指令對應的分析結果O
[0115]舉例來說,上述的選擇模塊可為選擇性的按鈕,例如,所述眼鏡本體上設置有用于供使用者選擇分析方向的按鈕,所述按鈕連接控制器;
[0116]其中,在使用者觸發(fā)所述按鈕之后,所述控制器根據(jù)觸發(fā)的按鈕所屬的分析方向獲取該分析方向的分析結果。
[0117]當然,眼鏡本體上還可設置有開啟或關閉智能模式的按鈕,在使用者選擇開啟智能模式按鈕之后,所述控制器按照默認分析方向獲取分析結果。
[0118]本實施例的智能眼鏡能夠對談話對象的談話內容進行定性分析,該智能眼鏡結構緊湊,且攜帶方便,成本低廉,能夠較好的推廣使用,提高了用戶的使用體驗。
[0119]圖3示出了本發(fā)明一實施例提供的頭戴式可穿戴設備的信息處理方法的流程示意圖,如圖3所示,本實施例的頭戴式可穿戴設備如下所述。
[0120]301、獲取談話對象的圖像信息,所述圖像信息包括:談話對象的面部圖像和肢體圖像。
[0121]舉例來說,若使用者使用的圖1所示的頭戴式可穿戴設備,則步驟301可具體為:采用圖像獲取器如雙目攝像頭實時采集談話對象的圖像信息。
[0122]若使用者使用的圖2所示的頭戴式可穿戴設備,則步驟301可具體為:采用第一圖像采集器實時采集談話對象的肢體圖像,以及接收模塊接收所述談話對象的頭戴式可穿戴設備發(fā)送的談話對象的面部圖像。
[0123]302、對所述肢體圖像進行分析,獲取行為分析結果;以及對所述面部圖像進行分析,獲取心率分析結果和瞳孔分析結果。
[0124]在圖3所示的方法為前述圖1和圖2所示的頭戴式可穿戴設備時,該步驟302和下述的步驟303可通過頭戴式可穿戴設備的控制器進行處理。舉例來說,控制器可通過非接觸式脈搏血氧定量法,獲得心率分析結果。
[0125]在本實施例中,使用者選擇的是興趣分析方向,則行為分析結果為對所述談話內容是否感興趣的行為分析結果;所述心率分析結果為對所述談話內容是否感興趣的心率分析結果,所述瞳孔分析結果為,對所述談話內容是否感興趣的瞳孔分析結果;
[0126]如果使用者選擇的是可信度分析方向,則行為分析結果為該談話內容的可信率的行為分析結果;所述心率分析結果為該談話內容的可信率的心率分析結果,所述瞳孔分析結果為該談話內容的可信率的瞳孔分析結果。
[0127]303、根據(jù)所述行為分析結果、心率分析結果和瞳孔分析結果,確定所述談話對象的談話內容輸出結果;
[0128]304、將所述談話內容輸出結果輸出至所述頭戴式可穿戴設備的使用者。
[0129]在圖3所示的方法為前述圖1和圖2所示的頭戴式可穿戴設備時,該步驟304可通過頭戴式可穿戴設備的輸出模塊輸出。
[0130]通常,人在說謊時,手勢及言語使用等方面存在顯著變化,為此,上述實施例中可針對面部圖像中眼球區(qū)域和瞳孔區(qū)域進行分析,獲得分析結果。
[0131]本實施例的頭戴式可穿戴設備可為前述的智能眼鏡,該智能眼鏡可通過獲取談話對象的圖像信息,確定談話對象的心率變化、眼球動作、瞳孔變化等的分析結果,進而獲得該談話對象的談話可信度或談話興趣度。
[0132]圖4示出了本發(fā)明一實施例提供的智能眼鏡的信息處理方法的流程示意圖,如圖4所示,本實施例的智能眼鏡的信息處理方法如下所述。應說明的是,本實施例的智能眼鏡可為前述圖1或圖2所示的頭戴式可穿戴設備。
[0133]401、智能眼鏡的選擇模塊接收選擇指令。
[0134]當然,在實際應用中,選擇指令可為興趣分析指令或可信度分析指令。另外,在其他實施例中,該選擇模塊還可為接收單元等,本實施例中不對接收選擇指令的模塊/單元名稱進行限定,其實現(xiàn)功能均為接收選擇指令即可。
[0135]402、智能眼鏡的圖像獲取器實時獲取談話對象的圖像信息,該圖像信息包括談話對象的肢體圖像和面部圖像。
[0136]也就是說,使用者在佩戴該智能眼鏡時,開啟社交功能按鈕(如上舉例的按鈕),兩個以上的攝像頭會自動拍攝談話對象的面部圖像集肢體圖像。
[0137]403、智能眼鏡的控制器對所述肢體圖像進行分析,獲取行為分析結果。
[0138]舉例來說,步驟403可包括如下子步驟:
[0139]4031、智能眼鏡的控制器將當前時間點的肢體圖像與第一
當前第3頁1 2 3 4 5 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
镇平县| 凤城市| 读书| 南通市| 长垣县| 连城县| 乡城县| 佳木斯市| 永城市| 丽水市| 长沙县| 南涧| 逊克县| 钦州市| 固始县| 香格里拉县| 古丈县| 宜城市| 遵化市| 瑞昌市| 沾益县| 津南区| 永泰县| 青铜峡市| 天等县| 安康市| 乐亭县| 杂多县| 扬中市| 江孜县| 黔西县| 安宁市| 扶绥县| 东台市| 乐山市| 东乡| 伊通| 太湖县| 进贤县| 永丰县| 巴林右旗|