本公開涉及數(shù)據(jù)處理領(lǐng)域,尤其涉及深度學(xué)習(xí)、人機(jī)交互等人工智能。
背景技術(shù):
1、大型語言模型(llm,large?language?model,其本質(zhì)是生成式模型),如chatgpt(chat?generative?pre-trained?transformer,是openai機(jī)構(gòu)研發(fā)的聊天機(jī)器人程序),能夠?yàn)樵S多下游任務(wù)(例如面向任務(wù)的對(duì)話和問題解答)生成類似人類的流暢響應(yīng)。其中,大語言模型通過特定領(lǐng)域的問答數(shù)據(jù)進(jìn)行訓(xùn)練,以使得大語言模型可以在特定領(lǐng)域的下游任務(wù)上獲得較好的效果。
2、但是,不同領(lǐng)域?qū)?yīng)的問答數(shù)據(jù)不同,特定領(lǐng)域的大語言模型僅適用于該領(lǐng)域的人機(jī)交互,適用范圍局限,并且不同領(lǐng)域的大語言模型需要進(jìn)行分別部署,增加了資源成本。因此,亟需一種適用于多領(lǐng)域的大語言模型,以使得大語言模型適用范圍更加廣泛。
技術(shù)實(shí)現(xiàn)思路
1、為克服相關(guān)技術(shù)中存在的問題,本公開提供一種基于語言模型的人機(jī)交互方法和基于語言模型的人機(jī)交互方法,以及對(duì)應(yīng)的裝置、電子設(shè)備及計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)。
2、根據(jù)本公開實(shí)施例的第一方面,提供一種語言模型的訓(xùn)練方法,所述方法包括:
3、獲取訓(xùn)練數(shù)據(jù)集,其中,所述訓(xùn)練數(shù)據(jù)集包括多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù);
4、確定待訓(xùn)練的多領(lǐng)域大語言模型,所述待訓(xùn)練的多領(lǐng)域大語言模型包括基礎(chǔ)模型和不同領(lǐng)域的第一初始微調(diào)參數(shù),所述基礎(chǔ)模型的參數(shù)為預(yù)訓(xùn)練好的;
5、利用所述多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù)對(duì)所述待訓(xùn)練的多領(lǐng)域大語言模型進(jìn)行微調(diào)訓(xùn)練,對(duì)所述不同領(lǐng)域的第一初始微調(diào)參數(shù)進(jìn)行更新,以得到目標(biāo)多領(lǐng)域大語言模型。
6、根據(jù)本公開實(shí)施例的第二方面,提供一種基于語言模型的人機(jī)交互方法,所述方法包括:
7、獲取用戶輸入的需要回答的問題數(shù)據(jù),并確定所述問題數(shù)據(jù)所屬目標(biāo)領(lǐng)域;
8、基于所述目標(biāo)領(lǐng)域和目標(biāo)多領(lǐng)域大語言模型,確定所述目標(biāo)領(lǐng)域?qū)?yīng)的目標(biāo)大語言模型,其中,所述目標(biāo)多領(lǐng)域大語言模型基于上述第一方面描述的語言模型的訓(xùn)練方法得到;
9、將所述問題數(shù)據(jù)輸入至所述目標(biāo)大語言模型,以得到所述問題數(shù)據(jù)的目標(biāo)答案并輸出。
10、根據(jù)本公開實(shí)施例的第三方面,提供一種語言模型的訓(xùn)練裝置,所述裝置包括:
11、獲取模塊,用于獲取訓(xùn)練數(shù)據(jù)集,其中,所述訓(xùn)練數(shù)據(jù)集包括多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù);
12、確定模塊,用于確定待訓(xùn)練的多領(lǐng)域大語言模型,所述待訓(xùn)練的多領(lǐng)域大語言模型包括基礎(chǔ)模型和不同領(lǐng)域的第一初始微調(diào)參數(shù),所述基礎(chǔ)模型的參數(shù)為預(yù)訓(xùn)練好的;
13、訓(xùn)練模塊,用于利用所述多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù)對(duì)所述待訓(xùn)練的多領(lǐng)域大語言模型進(jìn)行微調(diào)訓(xùn)練,對(duì)所述不同領(lǐng)域的第一初始微調(diào)參數(shù)進(jìn)行更新,以得到目標(biāo)多領(lǐng)域大語言模型。
14、根據(jù)本公開實(shí)施例的第四方面,提供一種基于語言模型的人機(jī)交互裝置,所述裝置包括:
15、獲取模塊,用于獲取用戶輸入的需要回答的問題數(shù)據(jù),并確定所述問題數(shù)據(jù)所屬目標(biāo)領(lǐng)域;
16、確定模塊,用于基于所述目標(biāo)領(lǐng)域和目標(biāo)多領(lǐng)域大語言模型,確定所述目標(biāo)領(lǐng)域?qū)?yīng)的目標(biāo)大語言模型,其中,所述目標(biāo)多領(lǐng)域大語言模型基于上述第三方面描述的語言模型的訓(xùn)練裝置得到;
17、輸出模塊,用于將所述問題數(shù)據(jù)輸入至所述目標(biāo)大語言模型,以得到所述問題數(shù)據(jù)的目標(biāo)答案并輸出。
18、根據(jù)本公開實(shí)施例的第五方面,提供了一種電子設(shè)備,包括:
19、處理器;
20、用于存儲(chǔ)處理器可執(zhí)行指令的存儲(chǔ)器;
21、其中,所述處理器被配置為實(shí)現(xiàn)前述第一方面或第二方面中任一項(xiàng)所述的方法。
22、根據(jù)本公開實(shí)施例的第六方面,提供了一種非臨時(shí)性計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),所述計(jì)算機(jī)存儲(chǔ)介質(zhì)存儲(chǔ)有計(jì)算機(jī)可執(zhí)行指令;所述計(jì)算機(jī)可執(zhí)行指令被處理器執(zhí)行后,能夠?qū)崿F(xiàn)前述第一方面或第二方面中任一項(xiàng)所述的方法。
23、本公開的實(shí)施例提供的技術(shù)方案可以包括以下有益效果:
24、本公開提出的一種語言模型的訓(xùn)練方法中,該方法包括:獲取訓(xùn)練數(shù)據(jù)集,其中,訓(xùn)練數(shù)據(jù)集包括多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù);確定待訓(xùn)練的多領(lǐng)域大語言模型,待訓(xùn)練的多領(lǐng)域大語言模型包括基礎(chǔ)模型和不同領(lǐng)域的第一初始微調(diào)參數(shù),基礎(chǔ)模型的參數(shù)為預(yù)訓(xùn)練好的;利用多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù)對(duì)待訓(xùn)練的多領(lǐng)域大語言模型進(jìn)行微調(diào)訓(xùn)練,對(duì)不同領(lǐng)域的第一初始微調(diào)參數(shù)進(jìn)行更新,以得到目標(biāo)多領(lǐng)域大語言模型。由此,本公開通過多種不同領(lǐng)域的訓(xùn)練對(duì)待訓(xùn)練的多領(lǐng)域大語言模型進(jìn)行訓(xùn)練,得到目標(biāo)多領(lǐng)域大語言模型,從而使得目標(biāo)多領(lǐng)域大語言模型可以適用于多種不同領(lǐng)域,適用范圍較廣。同時(shí),目標(biāo)多領(lǐng)域大語言模型可以同時(shí)部署和動(dòng)態(tài)加載不同領(lǐng)域的目標(biāo)大語言模型,無需對(duì)不同領(lǐng)域的大語言模型需要進(jìn)行分別部署,降低了資源成本。
25、應(yīng)當(dāng)理解的是,以上的一般描述和后文的細(xì)節(jié)描述僅是示例性和解釋性的,并不能限制本公開。
1.一種語言模型的訓(xùn)練方法,其特征在于,所述方法包括:
2.如權(quán)利要求1所述的方法,其特征在于,所述獲取訓(xùn)練數(shù)據(jù)集,包括:
3.如權(quán)利要求1所述的方法,其特征在于,所述基礎(chǔ)模型包括:embedding層、n層轉(zhuǎn)換transformer層和預(yù)測層,其中,所述n為正整數(shù)。
4.如權(quán)利要求3所述的方法,其特征在于,所述訓(xùn)練數(shù)據(jù)包括問題數(shù)據(jù)和真實(shí)答案;所述利用所述多種不同領(lǐng)域的訓(xùn)練數(shù)據(jù)對(duì)所述待訓(xùn)練的多領(lǐng)域大語言模型進(jìn)行微調(diào)訓(xùn)練,對(duì)所述不同領(lǐng)域的第一初始微調(diào)參數(shù)進(jìn)行更新,以得到目標(biāo)多領(lǐng)域大語言模型,包括:
5.如權(quán)利要求4所述的方法,其特征在于,所述第一初始微調(diào)參數(shù)包括n層transformer層中每層transformer層對(duì)應(yīng)的第二初始微調(diào)參數(shù);所述將所述問題數(shù)據(jù)的第一向量表示與所述領(lǐng)域?qū)?yīng)的第一初始微調(diào)參數(shù)輸入至所述n層transformer層中,得到所述問題數(shù)據(jù)的目標(biāo)向量表示,包括:
6.如權(quán)利要求4所述的方法,其特征在于,所述將所述目標(biāo)向量表示輸入至所述預(yù)測層,得到預(yù)測答案概率數(shù)據(jù),并基于所述預(yù)測答案概率數(shù)據(jù)和所述真實(shí)答案得到對(duì)應(yīng)的損失值,包括:
7.一種基于語言模型的人機(jī)交互方法,其特征在于,所述方法包括:
8.如權(quán)利要求7所述的方法,其特征在于,所述基于所述目標(biāo)領(lǐng)域和目標(biāo)多領(lǐng)域大語言模型,確定所述目標(biāo)領(lǐng)域?qū)?yīng)的目標(biāo)大語言模型,包括:
9.如權(quán)利要求8所述的方法,其特征在于,所述基礎(chǔ)模型包括:embedding層、n層轉(zhuǎn)換transformer層和預(yù)測層,其中,所述n為正整數(shù)。
10.如權(quán)利要求9所述的方法,其特征在于,所述將所述問題數(shù)據(jù)輸入至所述目標(biāo)大語言模型,以得到所述問題數(shù)據(jù)的目標(biāo)答案并輸出,包括:
11.一種語言模型的訓(xùn)練裝置,其特征在于,所述裝置包括:
12.一種基于語言模型的人機(jī)交互裝置,其特征在于,所述裝置包括:
13.一種電子設(shè)備,其特征在于,包括:
14.一種非臨時(shí)性計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),所述計(jì)算機(jī)存儲(chǔ)介質(zhì)存儲(chǔ)有計(jì)算機(jī)可執(zhí)行指令;所述計(jì)算機(jī)可執(zhí)行指令被處理器執(zhí)行后,能夠?qū)崿F(xiàn)權(quán)利要求1至10中任一項(xiàng)所述的方法。