本發(fā)明涉及虛擬現(xiàn)實領(lǐng)域,更具體地涉及一種基于虛擬現(xiàn)實的肢體教學(xué)方法與教學(xué)系統(tǒng)。
背景技術(shù):
在復(fù)雜肢體動作輔助教學(xué)領(lǐng)域,例如舞蹈教學(xué),使用了動作捕捉器采集學(xué)員肢體動作,并進行事后數(shù)據(jù)分析對比,這種方式還停留在單純數(shù)據(jù)層面的分析,缺乏實時性且不夠形象,學(xué)員無法實時看到哪里做的不到位從而進行實時調(diào)整,缺乏一個循環(huán)正反饋的閉環(huán)過程,體驗和效果都不好。
在社交應(yīng)用中,很多有特殊肢體動作技能(例如街舞)的業(yè)余人士找不到專業(yè)的渠道學(xué)習(xí)發(fā)展自己的特長,很多想學(xué)習(xí)特殊肢體動作的人士找不到好的或者有名的教練指導(dǎo);同樣的,很多專業(yè)水平很高的教練員因找不到合適的學(xué)員,而浪費其專業(yè)技能資源。從而使得供需兩端的信息不對稱,而不能很好的滿足供需兩端的需求。
因此,有必要提供一種在教練者與學(xué)習(xí)者之間實現(xiàn)信息對稱、實現(xiàn)教學(xué)資源有效利用的基于虛擬現(xiàn)實的肢體教學(xué)方法與教學(xué)系統(tǒng)。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的是提供一種基于虛擬現(xiàn)實的肢體教學(xué)方法與教學(xué)系統(tǒng),使教學(xué)者與學(xué)習(xí)者兩端的需求信息實時對等,讓學(xué)習(xí)者在虛擬場景中通過自我對比學(xué)習(xí)調(diào)整,且無需教學(xué)者監(jiān)督指導(dǎo)即可完美匹配教學(xué)者的肢體動作,該方式更加形象,更加簡單,且更易推廣。
為實現(xiàn)上述目的,本發(fā)明提供一種基于虛擬現(xiàn)實的肢體教學(xué)方法,其包括如下步驟:
a.捕捉教學(xué)者的肢體動作信息,并將教學(xué)者的肢體動作映射至第一虛擬主體;
b.將所述第一虛擬主體的動作信息上傳至網(wǎng)絡(luò)服務(wù)器;
c.學(xué)習(xí)者從網(wǎng)絡(luò)服務(wù)器上下載所述第一虛擬主體的動作信息;
d.學(xué)習(xí)者根據(jù)下載的第一虛擬主體的動作信息學(xué)習(xí)教學(xué)者的肢體動作。
較佳地,所述步驟學(xué)習(xí)者根據(jù)下載的第一虛擬主體的動作信息學(xué)習(xí)教學(xué)者的肢體動作,具體地還包括:
d01.學(xué)習(xí)者根據(jù)第一虛擬主體的動作信息做出相應(yīng)的肢體動作;
d02.捕捉學(xué)習(xí)者的肢體動作信息,并將學(xué)習(xí)者的肢體動作信息映射至第二虛擬主體;
d03.學(xué)習(xí)者對比第二虛擬主體與第一虛擬主體的動作差異,并調(diào)整學(xué)習(xí)者的肢體動作;
d04.重復(fù)步驟d02與步驟d03,直到第二虛擬主體與第一虛擬主體的動作相同。
較佳地,所述步驟將所述第一虛擬主體的動作信息上傳至網(wǎng)絡(luò)服務(wù)器,具體地為:
將所述第一虛擬主體的動作信息編碼壓縮形成數(shù)據(jù)包,并將所述數(shù)據(jù)包上傳至網(wǎng)絡(luò)服務(wù)器。
較佳地,對所述數(shù)據(jù)包進行加密,以使所述數(shù)據(jù)包攜帶有使用權(quán)限狀態(tài)信息,且所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài)。
較佳地,當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時,在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息。
較佳地,本發(fā)明的基于虛擬現(xiàn)實的肢體教學(xué)方法還包括步驟:
根據(jù)學(xué)習(xí)者的關(guān)節(jié)位置調(diào)整所述第一虛擬主體對應(yīng)的關(guān)節(jié)位置,以使所述第一虛擬主體的關(guān)節(jié)位置信息與所述第二虛擬主體的關(guān)節(jié)位置信息完全相同。
相應(yīng)地,本發(fā)明還提供了一種基于虛擬現(xiàn)實的肢體教學(xué)系統(tǒng),其包括:
肢體動作捕捉器,用以捕捉教學(xué)者與學(xué)習(xí)者的肢體動作信息;
第一控制處理器,用以接收所述肢體動作捕捉器獲得的教學(xué)者的肢體動作信息,且將所述教學(xué)者的肢體動作信息映射至第一虛擬主體,并形第一成虛擬現(xiàn)實場景;
網(wǎng)絡(luò)服務(wù)器,用以接收并存儲所述第一控制處理器形成的第一虛擬現(xiàn)實場景;
第二控制處理器,用以接收所述肢體動作捕捉器獲得的學(xué)習(xí)者的肢體動作信息,將所述學(xué)習(xí)者的肢體動作信息映射至第二虛擬主體,以形成第二虛擬現(xiàn)實場景,且,從所述網(wǎng)絡(luò)服務(wù)器下載并存儲所述第一虛擬現(xiàn)實場景;
顯示器,用以顯示所述第二虛擬現(xiàn)實場景與存第一虛擬現(xiàn)實場景;
虛擬現(xiàn)實眼鏡,佩戴于學(xué)習(xí)者的眼睛上,用以向?qū)W習(xí)者顯示所述顯示器上的第一虛擬現(xiàn)實場景與第二虛擬現(xiàn)實場景。
較佳地,所述第一控制處理器包括一編碼單元,用以將所述第一虛擬主體的動作信息編碼壓縮形成數(shù)據(jù)包,并對所述數(shù)據(jù)包進行加密,以形成所述數(shù)據(jù)包的使用權(quán)限狀態(tài)信息。
較佳地,所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài)。
較佳地,當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時,在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息。
較佳地,所述肢體動作捕捉器由多個傳感器構(gòu)成,且佩戴于教學(xué)者與學(xué)習(xí)者設(shè)定的關(guān)節(jié)表面,用以獲取各關(guān)節(jié)的三維空間位置信息及運動軌跡信息。
較佳地,所述肢體動作捕捉器還包括多個角度傳感器,所述角度傳感器用以獲取當(dāng)前關(guān)節(jié)的角度翻轉(zhuǎn)信息。
較佳地,所述肢體動作捕捉器為攝像器件,所述攝像器件拍攝教學(xué)者或?qū)W習(xí)者的肢體動作,并通過所述第一控制處理器或第二控制處理器的視覺算法處理,識別教學(xué)者或?qū)W習(xí)者的肢體動作信息。
較佳地,所述虛擬現(xiàn)實眼鏡還包括一角度檢測單元,用以獲取佩戴有所述虛擬現(xiàn)實眼鏡的學(xué)習(xí)者的頭部轉(zhuǎn)動角度信息,所述虛擬現(xiàn)實眼鏡根據(jù)獲取的學(xué)習(xí)者的頭部轉(zhuǎn)動角度信息而調(diào)整顯示的第一虛擬現(xiàn)實場景與第二虛擬現(xiàn)實場景的角度,以使學(xué)習(xí)者從360°觀看第一虛擬主體與第二虛擬主體的對應(yīng)肢體動作。
較佳地,所述虛擬現(xiàn)實眼鏡還包括一控制單元,所述控制單元用以控制所述控制處理器中虛擬現(xiàn)實場景的播放顯示。
與現(xiàn)有技術(shù)相比,與現(xiàn)有技術(shù)相比,本發(fā)明的基于虛擬現(xiàn)實的的肢體教學(xué)方法與教學(xué)系統(tǒng)突破傳統(tǒng)肢體運動教學(xué)中,學(xué)習(xí)者看教學(xué)者動作然后自己模仿,或者教學(xué)者手把手糾正學(xué)習(xí)者的動作的模式,通過本發(fā)明的方式可以讓學(xué)習(xí)者在虛擬場景中無需教學(xué)者監(jiān)督指導(dǎo)即可完美地與教學(xué)者的肢體動作進行匹配,實現(xiàn)了自我學(xué)習(xí),而教學(xué)者通過上傳自己的肢體動作信息至網(wǎng)絡(luò)服務(wù)器而獲得預(yù)期的回報,使得教學(xué)者能更好的發(fā)揮并利用其自身的技能;而且本發(fā)明的方式更加形象,更加簡單,且更易推廣。
通過以下的描述并結(jié)合附圖,本發(fā)明將變得更加清晰,這些附圖用于解釋本發(fā)明的實施例。
附圖說明
圖1為本發(fā)明基于虛擬現(xiàn)實的肢體教學(xué)方法的流程圖。
圖2為本發(fā)明一實施例的流程圖。
具體實施方式
現(xiàn)在參考附圖描述本發(fā)明的實施例,附圖中類似的元件標(biāo)號代表類似的元件。如上所述,本發(fā)明提供了一種基于虛擬現(xiàn)實的肢體教學(xué)方法與教學(xué)系統(tǒng),使教學(xué)者與學(xué)習(xí)者兩端的需求信息實時對等,教學(xué)者能更好的發(fā)揮與利用其自身的技能,學(xué)習(xí)者在虛擬場景中通過自我對比學(xué)習(xí)調(diào)整,且無需教學(xué)者監(jiān)督指導(dǎo)即可完美匹配教學(xué)者的肢體動作,該方式更加形象,更加簡單,且更易推廣。
請參考圖1,描述本發(fā)明基于虛擬現(xiàn)實的肢體教學(xué)方法的具體過程。圖1為本發(fā)明基于虛擬現(xiàn)實的肢體教學(xué)方法的流程圖,如圖所示,本發(fā)明基于虛擬現(xiàn)實的肢體教學(xué)方法包括如下步驟:
步驟S101:捕捉教學(xué)者的肢體動作信息,并將教學(xué)者的肢體動作映射至第一虛擬主體;在本步驟中,所述肢體動作信息具體表現(xiàn)為教學(xué)者的各關(guān)節(jié)的動作信息,即教學(xué)者的各關(guān)節(jié)在某一連續(xù)時間范圍內(nèi)的具體動作,且各關(guān)節(jié)的所述動作信息包括該關(guān)節(jié)的三維空間位置信息及運動軌跡信息;例如,教學(xué)者的手臂進行一個平擺動作,則所述動作信息包括肩關(guān)節(jié)在三維空間的轉(zhuǎn)動角度信息、腕關(guān)節(jié)或肘關(guān)節(jié)在水平位置上的位置移動信息,而肩關(guān)節(jié)與腕關(guān)節(jié)之間整個手臂在三維空間的運動即形成該手臂的運動軌跡信息。
另外,作為本發(fā)明的一個優(yōu)選的具體實施例,所述第一虛擬主體可具體為高度仿真為人形的布娃娃或提線木偶,所述布娃娃或提線木偶根據(jù)映射關(guān)系做出與教學(xué)者完全相同的肢體動作,也即實現(xiàn)對教學(xué)者肢體動作的錄制;當(dāng)然所述第一虛擬主體并不限于布娃娃或提線木偶,其它可仿真成人形并能在虛擬現(xiàn)實場景中根據(jù)映射關(guān)系做出與教學(xué)者完全相同的肢體動作的物件均可。
步驟S102:將所述第一虛擬主體的動作信息上傳至網(wǎng)絡(luò)服務(wù)器;在本步驟中,可通過使用有線傳輸方式或無線傳輸方式將第一虛擬主體的動作信息傳送至網(wǎng)絡(luò)服務(wù)器;而且教學(xué)者可以通過有償?shù)姆绞缴蟼髋c其肢體動作對應(yīng)的第一虛擬主體的動作信息,從而獲得教學(xué)者預(yù)期的回報,使得教學(xué)者能更好的發(fā)揮并利用其自身的技能。
另外,在本發(fā)明中,本步驟具體地體現(xiàn)為:將所述第一虛擬主體的動作信息編碼壓縮形成數(shù)據(jù)包,并將所述數(shù)據(jù)包上傳至網(wǎng)絡(luò)服務(wù)器;形成數(shù)據(jù)包后,以方便教學(xué)者上傳其肢體動作信息,同時也方便后續(xù)學(xué)習(xí)者從所述網(wǎng)絡(luò)服務(wù)器上下載教學(xué)者的肢體動作信息并進行學(xué)習(xí)。更進一步地,對所述數(shù)據(jù)包進行打包,以使所述數(shù)據(jù)包攜帶有使用權(quán)限狀態(tài)信息,且所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài);從而教學(xué)者通過在所述數(shù)據(jù)包加密形成使用權(quán)限狀態(tài)信息而限定當(dāng)前學(xué)習(xí)者是否可以無償使用該數(shù)據(jù)包,進而教學(xué)者可以從中獲得預(yù)期的回報,使得教學(xué)者能更好的發(fā)揮并利用其自身的技能。例如,可設(shè)置注冊登錄機制,讓某些平臺的注冊會員可以無償獲得該數(shù)據(jù)包,即該平臺上的學(xué)習(xí)者可通過注冊的特定平臺而免費下載所述數(shù)據(jù)包,當(dāng)然該數(shù)據(jù)包的使用權(quán)限狀態(tài)為授權(quán)狀態(tài),從而學(xué)習(xí)者可免費學(xué)習(xí)教學(xué)者的肢體動作;當(dāng)然,這種方式教學(xué)者不能直接從學(xué)習(xí)者側(cè)獲得有償回報,但可通過與這些特定的平臺協(xié)議而從平臺上獲得有償回報,具體方式教學(xué)者可自行設(shè)定。而當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時,在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息;除上述特定平臺的注冊學(xué)習(xí)者以外,其他學(xué)習(xí)者則只能有償使用教學(xué)者上傳的肢體動作信息,有償使用的學(xué)習(xí)者通過有償獲取所述數(shù)據(jù)包的解壓密碼信息,學(xué)習(xí)者通過所述密碼信息將該數(shù)據(jù)包成功解壓后即可正常利用數(shù)據(jù)包內(nèi)的肢體動作信息;其中,為了保證教學(xué)者的回報率及防止資源被濫用并提高學(xué)習(xí)者的自我監(jiān)督意識,還設(shè)置有限定使用的次數(shù),學(xué)習(xí)者將數(shù)據(jù)包解壓后即獲得具體的使用次數(shù)信息,解壓后,學(xué)習(xí)者每使用一次所述數(shù)據(jù)包內(nèi)的肢體動作信息次數(shù)即減1,直到最后次數(shù)信息變?yōu)?。
步驟S103:學(xué)習(xí)者從網(wǎng)絡(luò)服務(wù)器上下載所述第一虛擬主體的動作信息;在本步驟中,學(xué)習(xí)者通過所述網(wǎng)絡(luò)服務(wù)器下載包含有教學(xué)者肢體動作信息的數(shù)據(jù)包,也即是所述第一虛擬主體的動作信息。且在本步驟中,學(xué)習(xí)者通過有償下載包含有教學(xué)者肢體動作信息的數(shù)據(jù)包進行學(xué)習(xí),使得其學(xué)習(xí)的時間場合更靈活,而且獲得學(xué)習(xí)資源的途徑更為廣泛;另外由于設(shè)置了使用次數(shù)的限定,學(xué)習(xí)者在學(xué)習(xí)的過程中會更認(rèn)真,自我監(jiān)督意識也會相應(yīng)加強,其體驗感更真實。
步驟S104:學(xué)習(xí)者根據(jù)下載的第一虛擬主體的動作信息學(xué)習(xí)教學(xué)者的肢體動作;在本步驟中,學(xué)習(xí)者根據(jù)第一虛擬主體的動作信息進行自我學(xué)習(xí),其具體的包括如下步驟,請結(jié)合參考圖2:
步驟S401.學(xué)習(xí)者根據(jù)第一虛擬主體的動作信息做出相應(yīng)的肢體動作;在本步驟中,即為學(xué)習(xí)者通過觀察第一虛擬主體的動作而學(xué)習(xí)做出與第一虛擬主體相同的動作。
步驟S402.捕捉學(xué)習(xí)者的肢體動作信息,并將學(xué)習(xí)者的肢體動作信息映射至第二虛擬主體;在本步驟中,具體的操作過程與步驟S101相同,不同僅在于捕捉的是學(xué)習(xí)者的肢體動作信息,第二虛擬主體的動作表現(xiàn)為學(xué)習(xí)者的具體肢體動作。其中,所述第二虛擬主體與第一虛擬主體相同地,可為布娃娃或提線木偶,或其它可仿真成人形并能在虛擬現(xiàn)實場景中根據(jù)映射關(guān)系做出與學(xué)習(xí)者完全相同的肢體動作的物件;另外,對學(xué)習(xí)者肢體動作的具體捕捉過程,與對教學(xué)者肢體動作的捕捉過程完全相同,在此不再細述.
步驟S403.學(xué)習(xí)者對比第二虛擬主體與第一虛擬主體的動作差異,并調(diào)整學(xué)習(xí)者的肢體動作;在本步驟中,學(xué)習(xí)者通過對比第二虛擬主體(學(xué)習(xí)者自己的肢體動作)與第一虛擬主體之間的動作差異,而發(fā)現(xiàn)學(xué)習(xí)者與教學(xué)者之間的肢體動作差異,進而學(xué)習(xí)者對有差異的肢體動作進行調(diào)整改進,以達到學(xué)習(xí)的目的。從而在本發(fā)明中,學(xué)習(xí)者可從第三方的角度通過觀察兩個虛擬主體之間動作的差異,而發(fā)現(xiàn)自己在學(xué)習(xí)過程中存在的問題,并相應(yīng)作出動作的改進,從而不需要通過教學(xué)者或其他第三方來輔助認(rèn)識到問題所在并進行改進,因此學(xué)習(xí)效果更直觀,且學(xué)習(xí)成本也大大降低了。
步驟S404.重復(fù)步驟S402與步驟S403,直到第二虛擬主體與第一虛擬主體的動作相同。在本步驟中,學(xué)習(xí)者每練習(xí)一次肢體動作即可與教學(xué)者對應(yīng)的第二虛擬主體的動作進行對比,通過對比學(xué)習(xí)者發(fā)現(xiàn)自己肢體動作(第一虛擬主體的動作)與教學(xué)者肢體動作之間存在的差異,進而學(xué)習(xí)者在下一次練習(xí)中對自己的肢體動作進行改進,如此重復(fù)多次練習(xí),直到學(xué)習(xí)者完成的肢體動作與教學(xué)者的肢體動作完全一致,也即第二虛擬主體與第一虛擬主體的動作相同,從而完成學(xué)習(xí)過程。
另外,由上述可知,在本發(fā)明的具體實際應(yīng)用中,教學(xué)者的動作信息已事先錄制映射至所述第一虛擬主體上,而不同的學(xué)習(xí)者的體型、關(guān)節(jié)位置可能均與教學(xué)者不一樣,為了讓學(xué)習(xí)者更好的達到學(xué)習(xí)的效果,學(xué)習(xí)者可在開始學(xué)習(xí)之前對所述第一虛擬主體進行初始化設(shè)置。因此,作為本發(fā)明的優(yōu)選實施例,所述基于虛擬現(xiàn)實的肢體教學(xué)方法還包括步驟:根據(jù)學(xué)習(xí)者的關(guān)節(jié)位置調(diào)整所述第一虛擬主體對應(yīng)的關(guān)節(jié)位置,以使所述第一虛擬主體的關(guān)節(jié)位置信息與所述第二虛擬主體的關(guān)節(jié)位置信息完全相同;通過調(diào)整設(shè)置所述第一虛擬主體對應(yīng)的關(guān)節(jié)位置,以使其與學(xué)習(xí)者對應(yīng)的第二虛擬主體的關(guān)節(jié)位置完全相同,從而也間接使得教學(xué)者的關(guān)節(jié)位置匹配了學(xué)習(xí)者的關(guān)節(jié)位置,因此,學(xué)習(xí)者可以更直觀形象地發(fā)現(xiàn)自己的肢體動作與教學(xué)者的肢體動作之間的差別,以達到更好的學(xué)習(xí)效果。由上述可知,該初始化設(shè)置是學(xué)習(xí)者在開始學(xué)習(xí)之前進行設(shè)置的,因此,在具體流程中可設(shè)置在步驟S101與步驟S102之間。
同時,本發(fā)明還提供了一種基于虛擬現(xiàn)實的肢體教學(xué)系統(tǒng),該系統(tǒng)包括:
肢體動作捕捉器,用以捕捉教練者與學(xué)習(xí)者的肢體動作信息;
第一控制處理器,用以接收所述肢體動作捕捉器獲得的教學(xué)者的肢體動作信息,且將所述教學(xué)者的肢體動作信息映射至第一虛擬主體,并形第一成虛擬現(xiàn)實場景;
網(wǎng)絡(luò)服務(wù)器,用以接收并存儲所述第一控制處理器形成的第一虛擬現(xiàn)實場景;
第二控制處理器,用以接收所述肢體動作捕捉器獲得的學(xué)習(xí)者的肢體動作信息,將所述學(xué)習(xí)者的肢體動作信息映射至第二虛擬主體,以形成第二虛擬現(xiàn)實場景,且,從所述網(wǎng)絡(luò)服務(wù)器下載并存儲所述第一虛擬現(xiàn)實場景;
顯示器,用以顯示所述第第二虛擬現(xiàn)實場景與第一虛擬現(xiàn)實場景;
虛擬現(xiàn)實眼鏡,佩戴于學(xué)習(xí)者的眼睛上,用以向?qū)W習(xí)者顯示所述顯示器上的第一虛擬現(xiàn)實場景與第二虛擬現(xiàn)實場景。
如上所述,本發(fā)明的基于虛擬現(xiàn)實的肢體教學(xué)系統(tǒng),教學(xué)者與學(xué)習(xí)者的肢體動作信息通過所述肢體動作捕捉器捕捉后分別映射至所述第一虛擬主體與第二虛擬主體上,并通過所述第一控制處理器與第二控制處理器而分別形成第一虛擬現(xiàn)實場景與第二虛擬現(xiàn)實場景,且所述第一控制處理器將第一虛擬現(xiàn)實場景上傳至網(wǎng)絡(luò)服務(wù)器,學(xué)習(xí)者可有償從所述網(wǎng)絡(luò)服務(wù)器上下載所述第一虛擬現(xiàn)實場景并進行學(xué)習(xí),從而教學(xué)者可從中獲得應(yīng)有的回報,使得教學(xué)者更好的發(fā)揮與利用其自身的技能。學(xué)習(xí)者從所述網(wǎng)絡(luò)服務(wù)器下載所述第一虛擬現(xiàn)實場景并佩戴上虛擬現(xiàn)實眼鏡即可在所述顯示器上觀看包含有教學(xué)者肢體動作信息的第一虛擬現(xiàn)實場景及與包含有學(xué)習(xí)者自身肢體動作信息的的第二虛擬現(xiàn)實場景,從而學(xué)習(xí)者在學(xué)習(xí)過程中的體驗效果更直觀形象,且學(xué)習(xí)者能夠以第三方的視角來觀看體現(xiàn)自己肢體動作的第二虛擬主體與體現(xiàn)教學(xué)者肢體動作的第一虛擬主體兩者之間的動作差異,而發(fā)現(xiàn)自己在學(xué)習(xí)過程中存在的問題,并相應(yīng)作出動作的改進,從而不需要通過教學(xué)者或其他第三方來輔助認(rèn)識到問題所在并進行改進,因此學(xué)習(xí)效果更直觀,且學(xué)習(xí)成本也大大降低了。
具體地,在本發(fā)明基于虛擬現(xiàn)實的肢體教學(xué)系統(tǒng)的具體實施方式中:
所述肢體動作捕捉器有兩種實現(xiàn)方案:第一種,由多個傳感器構(gòu)成,且佩戴于教學(xué)者與學(xué)習(xí)者設(shè)定的關(guān)節(jié)表面,用以獲取對應(yīng)關(guān)節(jié)的三維空間位置信息及運動軌跡信息。根據(jù)設(shè)定的動作要求在教學(xué)者和學(xué)習(xí)者對應(yīng)的關(guān)節(jié)處佩戴所述傳感器,所述傳感器用以獲取當(dāng)前關(guān)節(jié)的動作信息;例如,教學(xué)者或?qū)W習(xí)者的手臂進行一個平擺動作,則只需要在教學(xué)者或?qū)W習(xí)者的肩關(guān)節(jié)與腕關(guān)節(jié)/肘關(guān)節(jié)處佩戴有傳感器即可,其它各關(guān)節(jié)可以不用佩戴。當(dāng)然在實際應(yīng)用過程中,為了動作的連貫體現(xiàn),通常會在所有需要用到的關(guān)節(jié)處均佩戴傳感器,以獲取各關(guān)節(jié)實時的三維空間位置信息及運動軌跡信息,從而以使教學(xué)者與學(xué)習(xí)者的肢體動作更好的映射至所述第一虛擬主體與第二虛擬主體上。其中,基于傳感器的肢體動作捕捉,可以使用慣性傳感器二次積分獲取位移技術(shù),或者使用UWB定位技術(shù)。優(yōu)選地,所述肢體動作捕捉器還包括多個角度傳感器,所述角度傳感器用以獲取當(dāng)前關(guān)節(jié)的角度翻轉(zhuǎn)信息;當(dāng)某些肢體動作中需要頻繁地使某一關(guān)節(jié)進行角度翻轉(zhuǎn)時,則需要使用所述角度傳感器來獲取當(dāng)前關(guān)節(jié)的角度翻轉(zhuǎn)信息;從而以更真實而準(zhǔn)確地獲取學(xué)習(xí)者與教學(xué)者的肢體動作。第二種,無需佩戴傳感器設(shè)備,所述肢體動作捕捉器為攝像器件,所述攝像器件拍攝教學(xué)者或?qū)W習(xí)者的肢體動作,并通過所述第一控制處理器或第二控制處理器的視覺算法處理,識別教學(xué)者或?qū)W習(xí)者的肢體動作信息;通過這種方式,直接通過攝像器件拍攝教學(xué)者或?qū)W習(xí)者的肢體動作,經(jīng)過所述控制處理器的視覺算法技術(shù)識別為肢體關(guān)節(jié)動作信息;且在該方式的具體應(yīng)用中,攝像器件的動作捕捉,可以使用微軟的kinect技術(shù)。
所述第一控制處理器包括一編碼單元,用以將所述第一虛擬主體的動作信息編碼壓縮形成數(shù)據(jù)包,并對所述數(shù)據(jù)包進行加密,以形成所述數(shù)據(jù)包的使用權(quán)限狀態(tài)信息;將所述第一虛擬主體的動作信息編碼壓縮形成數(shù)據(jù)包,不僅方便教學(xué)者將其自身的肢體動作信息上傳到所述網(wǎng)絡(luò)服務(wù)器,同時也方便學(xué)習(xí)者從所述網(wǎng)絡(luò)服務(wù)器上載教學(xué)者的肢體動作信息并進行學(xué)習(xí)。其中,所述使用權(quán)限狀態(tài)為授權(quán)狀態(tài)或未授權(quán)狀態(tài);通過設(shè)置所述使用權(quán)限狀態(tài)信息,而使不同的學(xué)習(xí)者獲得不同的使用權(quán)限,例如,可設(shè)置注冊登錄機制,讓某些平臺的注冊會員可以無償獲得該數(shù)據(jù)包,即該平臺上的學(xué)習(xí)者可通過注冊的特定平臺而免費下載所述數(shù)據(jù)包,明顯地,該數(shù)據(jù)包的使用權(quán)限狀態(tài)為授權(quán)狀態(tài),從而學(xué)習(xí)者可免費學(xué)習(xí)教學(xué)者的肢體動作;當(dāng)所述使用權(quán)限狀態(tài)為未授權(quán)狀態(tài)時,在所述使用權(quán)限狀態(tài)信息內(nèi)設(shè)置有用于解壓的密碼信息與限定使用的次數(shù)信息;也即,除上述特定平臺的注冊學(xué)習(xí)者以外,其他學(xué)習(xí)者則只能有償使用教學(xué)者上傳的肢體動作信息,有償使用的學(xué)習(xí)者通過有償獲取所述數(shù)據(jù)包的解壓密碼信息,學(xué)習(xí)者通過所述密碼信息將該數(shù)據(jù)包成功解壓后即可正常利用數(shù)據(jù)包內(nèi)的肢體動作信息;其中,為了保證教學(xué)者的回報及防止資源被濫用,還設(shè)置有限定使用的次數(shù),學(xué)習(xí)者將數(shù)據(jù)包解壓后即獲得具體的使用次數(shù)信息,解壓后,學(xué)習(xí)者每使用一次所述數(shù)據(jù)包內(nèi)的肢體動作信息次數(shù)即減1,直到最后次數(shù)信息變?yōu)?。
所述虛擬現(xiàn)實眼鏡還包括一角度檢測單元,用以獲取佩戴有所述虛擬現(xiàn)實眼鏡的學(xué)習(xí)者的頭部轉(zhuǎn)動角度信息,所述虛擬現(xiàn)實眼鏡根據(jù)獲取的學(xué)習(xí)者的頭部轉(zhuǎn)動角度信息而調(diào)整顯示的第一虛擬現(xiàn)實場景和第二虛擬現(xiàn)實場景的角度,以使學(xué)習(xí)者從360°觀看第一虛擬主體與第二虛擬主體的對應(yīng)肢體動作。其中,學(xué)習(xí)者的頭部轉(zhuǎn)后,其視角信息也對應(yīng)發(fā)生了變化,所述角度檢測單元檢測到學(xué)習(xí)者頭部的轉(zhuǎn)動角度信息后,虛擬現(xiàn)實眼鏡將學(xué)習(xí)者的視角變動信息發(fā)送給虛擬現(xiàn)實引擎,對應(yīng)視角會隨之運動。具體地,當(dāng)學(xué)習(xí)者當(dāng)前觀看第二虛擬主體的動作時,視角朝向始終面向第二虛擬主體的三維中心位置,視角位置可以在以第二虛擬主體的中心為圓心,視角當(dāng)前位置到圓心距離為半徑的球面上運動;其控制指令即由所述虛擬現(xiàn)實眼鏡的視角變動信息控制;當(dāng)學(xué)習(xí)者當(dāng)前觀看第一虛擬主體的動作時,視角的調(diào)整過程與觀看第二虛擬主體的動作的調(diào)整過程相同,不同僅在于,此時是以第一虛擬主體的三維中心為圓心,在此不再細述;方便學(xué)習(xí)者觀看第一虛擬主體與第二虛擬主體的各個部位的匹配情況。其中,虛擬現(xiàn)實引擎采用U3D引擎,其支持的平臺包括但不限于web瀏覽器,android系統(tǒng),ios系統(tǒng)等。優(yōu)選地,所述虛擬現(xiàn)實眼鏡還包括一控制單元,所述控制單元用以控制所述控制處理器中虛擬現(xiàn)實場景的播放顯示;從而學(xué)習(xí)者在學(xué)習(xí)過程中可通過所述虛擬現(xiàn)實眼鏡實時地控制所述第一虛擬現(xiàn)實場景與第二虛擬現(xiàn)實場景的呈現(xiàn),使用更加靈活,且更有利于及時地發(fā)現(xiàn)動作存在的差異,能進一步提高學(xué)習(xí)效率。
綜上所述,本發(fā)明的基于虛擬現(xiàn)實的的肢體教學(xué)方法與教學(xué)系統(tǒng)突破傳統(tǒng)肢體運動教學(xué)中,學(xué)習(xí)者看教學(xué)者動作然后自己模仿,或者教學(xué)者手把手糾正學(xué)習(xí)者的動作的模式,通過本發(fā)明的方式可以讓學(xué)習(xí)者在虛擬場景中無需教學(xué)者監(jiān)督指導(dǎo)即可完美地與教學(xué)者的肢體動作進行匹配,實現(xiàn)了自我學(xué)習(xí),而教學(xué)者通過上傳自己的肢體動作信息至網(wǎng)絡(luò)服務(wù)器而獲得預(yù)期的回報,使得教學(xué)者能更好的發(fā)揮并利用其自身的技能;而且本發(fā)明的方式更加形象,更加簡單,且更易推廣。
以上結(jié)合最佳實施例對本發(fā)明進行了描述,但本發(fā)明并不局限于以上揭示的實施例,而應(yīng)當(dāng)涵蓋各種根據(jù)本發(fā)明的本質(zhì)進行的修改、等效組合。