本申請涉及計算機技術領域,尤其涉及一種標準問題數(shù)據(jù)的確定方法及裝置。
背景技術:
伴隨著計算機技術的飛速發(fā)展,用戶與計算機之間的交互成為計算機領域不可或缺的一部分,用戶享受計算機帶來的各種便利的同時,會在使用過程中遇到一些問題。
比如,當用戶在使用某網(wǎng)站提供的服務時,可能會遇到關于該服務的相關問題。這些相關問題包括但不限于:手機校驗碼沒有收到、登錄密碼忘記怎么辦,等等。
按照現(xiàn)有技術,用戶獲取問題答案的方法主要有兩種:
1、用戶通過電話或在線咨詢工具向網(wǎng)站的客服進行咨詢。
當面對大量用戶的詢問時,由于客服數(shù)量有限,會導致用戶獲取問題答案的效率較低。
2、用戶通過自行瀏覽網(wǎng)站的常見問題及其答案,尋找問題的答案。
當常見問題數(shù)量較多時,用戶需要花費大量時間瀏覽頁面上展示的常見問題及相應的問題答案,導致用戶獲取問題答案的效率較低。
技術實現(xiàn)要素:
本申請實施例提供一種標準問題數(shù)據(jù)的確定方法,用以解決現(xiàn)有技術獲取問題答案效率低的問題。
本申請實施例還提供一種標準問題數(shù)據(jù)的確定裝置,用以解決現(xiàn)有技術獲 取問題答案效率低的問題。
本申請實施例采用下述技術方案:
一種標準問題數(shù)據(jù)的確定方法,包括:
根據(jù)獲得的個性化問題數(shù)據(jù),從與預設的標準問題數(shù)據(jù)相關聯(lián)的特征中,獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征;
將所述個性化問題數(shù)據(jù)和獲取的特征,輸入訓練好的標準問題概率模型;所述標準問題概率模型,是根據(jù)所述預設的標準問題數(shù)據(jù)和與所述預設的標準問題數(shù)據(jù)相關聯(lián)的特征樣本訓練的;
根據(jù)標準問題概率模型輸出的概率分布,從所述預設的標準問題數(shù)據(jù)中確定標準問題數(shù)據(jù)。
一種標準問題數(shù)據(jù)的確定裝置,包括:
獲取單元:根據(jù)獲得的個性化問題數(shù)據(jù),從與預設的標準問題數(shù)據(jù)相關聯(lián)的特征中,獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征;
解碼單元:將所述個性化問題數(shù)據(jù)和獲取的特征,輸入訓練好的標準問題概率模型;所述標準問題概率模型,是根據(jù)所述預設的標準問題數(shù)據(jù)和與所述預設的標準問題數(shù)據(jù)相關聯(lián)的特征樣本訓練的;
標準問題數(shù)據(jù)確定單元:根據(jù)標準問題概率模型輸出的概率分布,從所述預設的標準問題數(shù)據(jù)中確定標準問題數(shù)據(jù)。
本申請實施例采用的上述至少一個技術方案能夠達到以下有益效果:
相對于現(xiàn)有技術中用戶向客服咨詢和自行查找問題答案的問題解決方式,本方案通過根據(jù)用戶輸入的個性化問題數(shù)據(jù)獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征,并通過標準問題概率模型獲取概率分布,從而確定用戶個性化問題數(shù)據(jù)對應的標準問題數(shù)據(jù),以便獲取個性化問題數(shù)據(jù)對應的問題答案數(shù)據(jù),無需用戶向客服咨詢或自行查找問題答案,提高了獲取問題答案的效率。
附圖說明
此處所說明的附圖用來提供對本申請的進一步理解,構成本申請的一部分,本申請的示意性實施例及其說明用于解釋本申請,并不構成對本申請的不當限定。在附圖中:
圖1為本申請實施例提供的一種標準問題數(shù)據(jù)的確定方法的實現(xiàn)流程示意圖;
圖2為本申請實施例構建的一種深度神經(jīng)網(wǎng)絡模型的結構示意圖;
圖3a為本實施例2提供的一種標準問題數(shù)據(jù)的確定方法的一種實現(xiàn)流程示意圖;
圖3b為本實施例提供的一種根據(jù)與標準問題數(shù)據(jù)相關聯(lián)的特征構建的查找樹的結構示意圖;
圖3c為本實施例提供的一種標準問題數(shù)據(jù)展示效果圖;
圖4為本申請實施例提供的標準問題數(shù)據(jù)的確定裝置的結構示意圖。
具體實施方式
為使本申請的目的、技術方案和優(yōu)點更加清楚,下面將結合本申請具體實施例及相應的附圖對本申請技術方案進行清楚、完整地描述。顯然,所描述的實施例僅是本申請一部分實施例,而不是全部的實施例。基于本申請中的實施例,本領域普通技術人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本申請保護的范圍。
以下結合附圖,詳細說明本申請各實施例提供的技術方案。
實施例1
本申請實施例提供的標準問題數(shù)據(jù)的確定方法的執(zhí)行主體可以是服務器,所述的執(zhí)行主體并不構成對本申請的限定,為了便于描述,本申請實施例均以執(zhí)行主體是服務器為例進行說明。
該方法的實現(xiàn)流程示意圖如圖1所示,包括下述步驟:
步驟11:根據(jù)獲得的個性化問題數(shù)據(jù),獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征;
本申請實施例中,所述個性化問題數(shù)據(jù),一般為用戶通過個性化問題數(shù)據(jù)輸入框輸入的詞語特征,所述詞語特征比如可以是“開通”這樣的文本數(shù)據(jù)。所述個性化問題數(shù)據(jù),為用戶實時輸入的個性化問題數(shù)據(jù)。
本申請實施例中,可以根據(jù)獲得的個性化問題數(shù)據(jù),從與預設的標準問題數(shù)據(jù)相關聯(lián)的特征中,獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征。
本申請實施例中,所述標準問題數(shù)據(jù),為預先設置并保存的問題。這里所說的問題,比如可以是通過對用戶咨詢的各種問題進行統(tǒng)計和/或預測,而確定出的一些常見的問題。這些常見的問題包括但不限于:手機校驗碼沒有收到、賬戶如何開通、登錄密碼忘記怎么辦,等等。
本申請實施例中,每一個標準問題數(shù)據(jù),都關聯(lián)有相應的標準答案(即標準答案數(shù)據(jù))。即,根據(jù)標準問題數(shù)據(jù),可以獲取到與標準問題數(shù)據(jù)對應的標準答案數(shù)據(jù)。
本申請實施例中,與所述標準問題數(shù)據(jù)相關聯(lián)的特征,是指與所述標準問題數(shù)據(jù)之間存在關聯(lián)性的特征。比如,標準問題數(shù)據(jù)包含的詞語特征,或者沒有包含在標準問題數(shù)據(jù)中、但與標準問題數(shù)據(jù)包含的詞語特征語義類似的詞語特征,都可以是與標準問題數(shù)據(jù)相關聯(lián)的特征。需要說明的是,所述與標準問題數(shù)據(jù)相關聯(lián)的數(shù)據(jù)也可以是預先獲取的與標準問題數(shù)據(jù)相關聯(lián)的特征,比如可以是步驟II(如后文所述)中從獲取的訓練特征集中選取的樣本特征(比如第一樣本特征和/或第二樣本特征),比如可以是用戶在個性化問題輸入框中輸入的位置相鄰的詞語作為與標準問題數(shù)據(jù)相關聯(lián)的特征。
比如,標準問題數(shù)據(jù)包含的詞語特征“開通”、“賬戶”和“流程”,可以為與標準問題數(shù)據(jù)相關聯(lián)的一種特征。
需要說明的是,同一標準問題數(shù)據(jù)中的不同詞語特征,是彼此之間具有關聯(lián)關系的詞語特征。比如標準問題數(shù)據(jù)“賬戶開通流程”中出現(xiàn)的三個詞語特 征(“賬戶”、“開通”、“流程”),它們彼此之間具有關聯(lián)關系。
本申請實施例中,可以預先利用與標準問題數(shù)據(jù)相關聯(lián)的特征構建查找樹。在獲得個性化問題數(shù)據(jù)后,可以根據(jù)個性化問題數(shù)據(jù)獲得所述查找樹中包含的、與所述個性化問題數(shù)據(jù)相關聯(lián)的問題數(shù)據(jù)特征。這樣就可以保證,獲得的問題數(shù)據(jù)特征是既與個性化問題數(shù)據(jù)相關聯(lián)的特征,又是與至少一個標準問題數(shù)據(jù)相關聯(lián)的特征。
獲得的問題數(shù)據(jù)特征,可以作為個性化問題數(shù)據(jù)的補充,以便后續(xù)可以以獲得的問題數(shù)據(jù)特征和個性化問題數(shù)據(jù),共同作為確定標準問題數(shù)據(jù)的依據(jù),保證確定出的標準問題數(shù)據(jù)的準確性。
步驟12:將所述個性化問題數(shù)據(jù)和獲取的與所述個性化問題數(shù)據(jù)相關聯(lián)的特征,輸入訓練好的標準問題概率模型。
所述標準問題概率模型,是根據(jù)所述預設的標準問題數(shù)據(jù)和與所述預設的標準問題數(shù)據(jù)相關聯(lián)的特征樣本訓練的。
本申請實施例中,可以利用所述特征樣本,對預先構建的模型進行訓練,從而得到所述標準問題概率模型。在實際應用中,所述標準問題概率模型比如可以是深度神經(jīng)網(wǎng)絡模型。所述深度神經(jīng)網(wǎng)絡模型是通過深度學習方法對預先構建的待訓練神經(jīng)網(wǎng)絡模型進行訓練得到的。
本申請實施例中,利用所述標準問題概率模型,可以根據(jù)個性化問題數(shù)據(jù)和獲取的特征,確定出與所述個性化問題數(shù)據(jù)和獲取的特征對應的標準問題數(shù)據(jù)。因此,在對深度神經(jīng)網(wǎng)絡模型進行訓練時,可以將詞語特征和標準問題數(shù)據(jù)作為所述標準問題概率模型的樣本特征對所述標準問題概率模型進行訓練。
本申請實施例提供的標準問題概率模型的構建和訓練過程,可以包括以下步驟I~步驟III。為了便于描述標準問題概率模型的訓練過程,我們將樣本特征中的標準問題數(shù)據(jù)稱為問題特征。
步驟I:獲取用于訓練標準問題概率模型的訓練特征集;
本申請實施例中,所述訓練特征集為用于對標準問題概率模型進行訓練的 特征集,所述訓練特征集除了包含所述問題特征外,還可以包括點擊特征和詞語特征中的至少一種。
本申請實施例中,由于用戶個性化問題的來源為用戶在使用網(wǎng)站產(chǎn)品時產(chǎn)生的,因此,為了使得訓練好的標準問題概率模型能夠基于用戶在使用網(wǎng)站產(chǎn)品時的行為(比如輸入個性化問題數(shù)據(jù)),識別出用戶可能期望咨詢的標準問題,本方法中的訓練特征集可以是用戶在使用網(wǎng)站產(chǎn)品時的行為特征。
所述用戶的行為特征包括詞語特征,所述詞語特征比如可以是用戶輸入的詞語,用戶通過熱線和客服交互的文本類型的內(nèi)容,等等。所述用戶輸入的詞語比如可以是用戶通過個性化問題數(shù)據(jù)輸入框輸入的詞語,用戶以在線咨詢的方式和客服交互時輸入的詞語,等等。通過將上述內(nèi)容進行分詞,可以得到不同的文本詞語(即詞語特征),這些不同的詞語特征可以構成訓練特征集。
所述用戶的行為特征還可以包括點擊特征。比如,以熱門的產(chǎn)品為例,考慮到往往會有較多用戶前來咨詢所述熱門產(chǎn)品的相關問題,因此,可以根據(jù)產(chǎn)品被展示的次數(shù)確定產(chǎn)品是否是熱門產(chǎn)品,產(chǎn)品被展示的次數(shù)可以通過用戶行為中的點擊行為(即點擊特征)來確定,所述點擊特征比如可以是產(chǎn)品所在頁面被訪問的次數(shù),與產(chǎn)品相關的應用程序界面某個位置(比如產(chǎn)品詳情頁面的訪問入口所在位置)被點擊的次數(shù),等等。
通過所述點擊特征,可以反映不同網(wǎng)頁的熱門程度,進而反映不同標準問題數(shù)據(jù)可能被咨詢的概率。
步驟II:根據(jù)預設的特征選擇算法,從獲取的訓練特征集中選取樣本特征;
在通過執(zhí)行步驟1獲取訓練特征集后,考慮到訓練特征集中除問題特征外的其他樣本特征可能沒有利用價值,因此需要對訓練特征集中的所述其他樣本特征進行篩選,得到樣本特征。
本申請實施例中,可以通過選取與標準問題數(shù)據(jù)相關的詞語特征的方式,對訓練特征集中的詞語特征進行篩選。
比如,可以根據(jù)標準問題預先設置分類,不同的標準問題對應不同的分類, 分類中預設有與所述分類相關的文檔。例如:根據(jù)標準問題“如何開通賬戶”設置分類“賬戶開通”,在所述“賬戶開通”分類中預設有與該分類相關的文檔。基于設置的分類和與分類相關的文檔,進一步地,可以通過對訓練特征集中的詞語特征和分類中的文檔進行比對,確定詞語特征和分類的相關性,根據(jù)詞語特征和類別之間的相關性,選取符合預定相關性條件的詞語特征作為樣本特征。例如,按詞語特征和分類的相關性從大到小的順序?qū)υ~語特征進行排序,選取前1000個詞語特征作為樣本特征。
在實際應用中,確定詞語特征和分類的相關性,并根據(jù)詞語特征和類別之間的相關性,選取符合預定相關性條件的詞語特征作為樣本特征,可以通過特征選擇算法來實現(xiàn)。所述特征選擇算法,比如可以但不限于包括基于奇異值分解的主成分分析算法、基于奇異值分解的潛在語義索引算法、基于互信息的特征選擇算法、基于信息增益的特征選擇算法以及基于卡方的特征選擇算法等中的至少一種。
比如,本申請實施例中,可以根據(jù)基于信息增益的特征選擇算法,從所述訓練特征集中選取樣本特征(后稱第一樣本特征)。
信息增益是判斷詞語特征能夠為分類帶來的信息量的方法,詞語特征為分類帶來的信息越多,即信息增益越大,表明所述詞語特征對于所述分類越重要。
在實際應用中,按照下述公式[1]計算信息增益IG(c,t):
IG(c,t)=H(c)-H(c|t) [1]
其中,c指的分類,t是詞語特征,H(c)為分類c原本的信息熵,H(c|t)為分類c在固定詞語特征t后的條件熵。則IG(c,t)表示詞語特征t給分類c帶來的信息增益。
利用公式[1],計算訓練特征集中的所有詞語特征和分類的信息增益,選擇信息增益符合預定信息增益條件的詞語特征作為第一樣本特征。例如:按詞語特征和分類的信息增益從大到小的順序?qū)υ~語特征進行排序,選取前1000個詞語特征作為樣本特征。
由于基于信息增益的特征選擇方法在對詞語特征進行選擇時,只考慮了詞語特征和分類的相關性,而沒有考慮到詞語特征與所述分類相關的其它分類的相關性,從而可能導致漏選一些重要的詞語特征。為了彌補基于信息增益的特征選擇方法存在的該漏洞,因此,本申請實施例中,還可以根據(jù)基于卡方的特征選擇算法,從所述訓練特征集中選取第二樣本特征。
卡方檢驗是判斷詞語特征和類別之間相關性的方法,這種方法假設各個詞語特征之間是服從高斯分布的,且假設詞語特征和類別直接是無關的。通過判斷卡方值,判斷詞語特征和類別直接的相關性。
下面通過舉例來說明,本申請實施例中如何基于卡方的特征選擇算法實現(xiàn)從所述訓練特征集中選取第二樣本特征。
例如,在獲取詞語特征“開通”和類別“賬戶開通”之間的相關性時,假設各個詞語特征之間是服從高斯分布的,假設詞語特征和類別直接是無關的。假設詞語特征“開通”在“賬戶開通”類文檔中出現(xiàn)100次,在“非賬戶開通”類文檔中出現(xiàn)10次,“賬戶開通”類文檔總計1000個,“非賬戶開通”類文檔總計也是1000個。詞語特征“開通”和類別“賬戶開通”的關系如表一所示。
表一:
如表一所示,t代表詞語特征“開通”,c代表類別“賬戶開通”。包含t且屬于賬戶開通類別的文檔數(shù),表示為A;包含詞語特征開通但不屬于賬戶開通類別的文檔上,表示為B;不包含特征開通且屬于賬戶開通類別的文檔數(shù),表示為C;不包含詞語特征開通單不屬于賬戶開通類別的文檔上,表示為D。按照相關技術,我們可以得到詞語特征開通和類別賬戶開通的開方值χ2(t,c):
利用公式[2],計算樣本特征集中的所有詞語特征和分類的卡方值,選擇卡方值符合預定卡方值條件的詞語特征作為第二樣本特征。例如,按詞語特征和分類的卡方值從小到大的順序?qū)υ~語特征進行排序,選取前1000個詞語特征作為樣本特征。
考慮到基于卡方檢驗的特征選擇方法存在低頻詞缺陷,即通過卡方檢驗的特征選擇方法可能會選取某些出現(xiàn)頻率很低的詞語特征,利用出現(xiàn)頻率很低的詞語特征對訓練器的訓練意義不大。因此,本申請實施例中,將第一樣本特征和第二樣本特征中都包含的詞語特征作為樣本特征。
在實際應用中,比如可以采用基于投票的特征選取方法,利用公式[3]對第一樣本特征Schi和第二樣本特征Sinfo進行投票,選取在第一樣本特征和第二樣本特征中都出現(xiàn)過的詞語特征S(w)final(即Score(w)>1的特征)作為樣本特征。
Score(w)w∈W=[x∈Schi]+[x∈Sinfo]
S(w)final={w|w∈W,Score(w)>1} [3]
其中,w表示詞語特征,W表示Schi和Sinfo的合集。
步驟III:獲取樣本特征對應的標準問題數(shù)據(jù);
本申請實施例中,在獲取到樣本特征和標準問題數(shù)據(jù)后,可以為樣本特征和與所述樣本特征匹配的標準問題數(shù)據(jù)建立對應關系,例如:為詞語特征“開通”和標準問題數(shù)據(jù)“開通賬戶”建立對應關系,為詞語特征“注銷”和標準問題數(shù)據(jù)“注銷賬戶”建立對應關系。
步驟IV:將所述預設的標準問題數(shù)據(jù)以及選取的樣本特征作為標準問題概率模型的輸入,將所述樣本特征對應的標準問題數(shù)據(jù)作為標準問題概率模型的預設輸出,對所述標準問題概率模型進行訓練,得到所述標準問題概率模型。即,利用樣本特征集中的問題特征,以及通過上述方法選擇的樣本特征(比如第一樣本特征和/或第二樣本特征)對待訓練的標準問題概率模型進行訓練,得到訓練好的標準問題概率模型。
在本申請實施例中,所述待訓練的標準問題概率模型可以是深度神經(jīng)網(wǎng)絡 模型,如圖2所示,所述深度神經(jīng)網(wǎng)絡模型可以包括:輸入層(即深度神經(jīng)網(wǎng)絡模型的第1層)、輸出層(即深度神經(jīng)網(wǎng)絡模型的第L層)和隱層(即深度神經(jīng)網(wǎng)絡模型的第2層~第L-1層)。其中,所述輸入層可以包括點擊特征輸入層、詞語特征輸入層和問題特征輸入層。每一層均由多個節(jié)點組成。
本申請實施例中,所述標準問題數(shù)據(jù)可作為問題特征,為便于舉例說明,假設所述選取的樣本特征包括點擊特征和詞語特征。用于訓練待訓練的深度神經(jīng)網(wǎng)絡模型的問題特征以及選取的樣本特征中的各特征,均可稱為輸入特征。
在實際應用中,可以通過一位有效編碼(one hot encoding)方式對輸入特征進行編碼,即將每個輸入特征編碼為向量,編碼得到的該向量的每一維分量,分別作為待訓練的深度神經(jīng)網(wǎng)絡模型輸入層節(jié)點的輸入。本申請實施例中,假設問題特征的數(shù)量有n1個,則對問題特征編碼得到的向量維數(shù)可以設置為n1,相應的輸入層節(jié)點數(shù)為n1;點擊特征的數(shù)量有n2個,則對點擊特征編碼得到的向量維數(shù)可以設置為n2,相應的輸入層節(jié)點數(shù)為n2;詞語特征的數(shù)量有n3個,則對詞語特征編碼得到的向量維數(shù)可以設置為n3,相應的輸入層節(jié)點數(shù)為n3。即,輸入層節(jié)點的總數(shù)據(jù)為n1+n2+n3。
以詞語特征為例,可以將第一個詞語特征“開通”,編碼為n3維向量[1,0,…,0],將第二個詞語特征“賬戶”編碼為n3維向量[0,1,…,0],以此類推,將第n3個詞語特征編碼為n3維向量[0,0,…,1]。在對待訓練的深度神經(jīng)網(wǎng)絡模型時,每次可以將維數(shù)分別為n1、n2、n3的三個向量作為輸入。
在本申請實施例中,輸出層節(jié)點數(shù)量可以設置為1。輸出層節(jié)點的輸出為輸入特征對應于單個標準問題數(shù)據(jù)的概率,即輸入特征與單個標準問題數(shù)據(jù)相匹配的概率。
需要說明的是,在輸入特征維數(shù)較高的情況下,會降低深度神經(jīng)網(wǎng)絡模型的計算效率以及深度神經(jīng)網(wǎng)絡模型輸出值的準確度,因此需要對輸入特征進行降維,所以可以在神經(jīng)網(wǎng)絡模型中設置與輸入層相連接的第一隱層來對輸入特征降維。如圖2所示,所述與輸入層相連接的隱層可以包括點擊特征隱層、詞 語特征隱層和問題特征隱層。其中,針對各個第一隱層的節(jié)點數(shù)量而言,比如問題特征隱層的節(jié)點數(shù)量可以設置為p1,點擊特征隱層的節(jié)點數(shù)量可以設置為p2,詞語特征隱層的節(jié)點數(shù)量可以設置為p3。
第二隱層可以對第一隱層輸出的降維后的特征進行加權計算,并將結果傳遞給輸出層。其中,第二隱層的節(jié)點數(shù)量假設為q。
基于本申請實施例構建的所述神經(jīng)網(wǎng)絡模型,可以將點擊特征、詞語特征和問題特征作為所述神經(jīng)網(wǎng)絡模型的輸入,對所述神經(jīng)網(wǎng)絡模型進行訓練。
在本申請實施例中,判斷網(wǎng)絡神經(jīng)模型輸出值和預設輸出值偏差的方法可以是最小二乘法,即計算網(wǎng)絡神經(jīng)模型輸出值S1L與預設輸出值y的差的平方和Ein,如公式[4]所示:
Ein=(y-S1L)2 [4]
理論上,當Ein為零時,即可判定為輸出值S1L和預設輸出值y相同,即表明神經(jīng)網(wǎng)絡模型的輸出誤差為0。但是,在機器學習時,Ein只能無限接近于0,所以,當Ein小于預設Ein閾值時,即可判斷神經(jīng)網(wǎng)絡模型的誤差在可接受范圍內(nèi),即可停止對神經(jīng)網(wǎng)絡模型的訓練。
在本申請實施例中,將第l層第i個節(jié)點到第j個節(jié)點之間的權重設置為隨機權重wij(l),其中l(wèi)表示神經(jīng)網(wǎng)絡模型中層數(shù)的編號,具體地,若神經(jīng)網(wǎng)絡模型的最大層數(shù)為L,那么,l=L表示神經(jīng)網(wǎng)絡的輸出層,而l=1表示神經(jīng)網(wǎng)絡模型的輸入層,以此類推。則每個節(jié)點的輸入xj(l)和輸出Sj(l)可用公式[5]表示:
xj(l)=tanh(Sj(l)),1≤l≤L [5]
在實際應用中,求公式[4]中Ein最小的方法是通過求公式[4]中wij(l)的導數(shù),然后利用梯度下降算法,不斷修正wij(l),直至wij(l)收斂為止。
在求導的過程中,可以通過鏈式法則進行求導,下面對求導過程做簡要說明:
從第L層開始,按照下述公式[6]計算公式[4]中S1L的導數(shù)
按照下述公式[7]計算第L層的wij(l)的導數(shù):
按照下述公式[8]計算第L-1層S1L-1的導數(shù)δj(L-1):
……
按照上述方法,計算各權重的導數(shù)。
根據(jù)公式[9]更新所有的權重(公式左側(cè)的wij(l)),得到更新后的權重(公式右側(cè)的wij(l))。按照公式[9],更新后的權重仍然記為wij(l):
其中,α為學習速率,即每次迭代的步長,α值可以根據(jù)情況進行調(diào)整。
重復上述過程,再對更新后的權重wij(l)進行更新,直至滿足循環(huán)結束條件。一般地,通過所述反向傳播算法對神經(jīng)網(wǎng)絡模型進行訓練時,權重會隨著迭代次數(shù)的增加,逐漸接近理論上的最優(yōu)權重,但是無法等于理論最優(yōu)權重。因此,在實際應用中,當?shù)拇螖?shù)達到預設迭代次數(shù)時,便可以確定滿足循環(huán)結束條件,從而停止迭代,即完成了對所述神經(jīng)網(wǎng)絡模型的訓練。所述預設迭代次數(shù)可以根據(jù)實際情況進行調(diào)整。
由于如何通過對神經(jīng)網(wǎng)絡模型模型的訓練調(diào)整權重,直至滿足循環(huán)結束條件,已是比較成熟的相關結束,本說明書中對此不再進一步贅述。
本申請實施例中,訓練好所述神經(jīng)網(wǎng)絡模型后,便可以通過所述神經(jīng)網(wǎng)絡模型對個性化問題數(shù)據(jù)對應的標準問題數(shù)據(jù)進行預測。預測的過程與訓練的過 程類似,具體而言,可以將所述個性化問題數(shù)據(jù)和獲取的特征作為詞語特征,輸入到所述訓練好的神經(jīng)網(wǎng)絡模型中。為了得到個性化問題數(shù)據(jù)和獲取的特征對應于標準問題數(shù)據(jù)的概率分布,標準問題數(shù)據(jù)包含的問題特征,也作為所述訓練好的神經(jīng)網(wǎng)絡模型的輸入。
步驟13:根據(jù)標準問題概率模型輸出的概率分布,從所述預設的標準問題數(shù)據(jù)中確定標準問題數(shù)據(jù)。
本申請實施例中,在將個性化問題數(shù)據(jù)、獲取的特征以及問題特征作為輸入特征,輸入到訓練好的標準問題概率模型之后,標準問題概率模型中的各隱層可以對所述輸入特征進行計算,最后通過輸出層輸出與所述個性化問題數(shù)據(jù)和獲取的特征對應于標準問題數(shù)據(jù)的概率。
比如,若將個性化問題數(shù)據(jù)和獲取的特征,稱為待識別特征,并假設共存在800個問題特征,則可以將待識別特征和單個問題特征作為單個輸入特征,輸入到所述訓練好的標準問題概率模型。通過進行800次不同輸入特征的輸入,可以得到相應的800個概率,這800個概率共同表示了待識別特征對應于標準問題數(shù)據(jù)的概率分布。需要說明的是,待識別特征對應于標準問題數(shù)據(jù)的概率,是指待識別特征與標準問題數(shù)據(jù)相匹配的概率。
本申請實施例中,可以將滿足預定概率條件的標準問題數(shù)據(jù)確定為所述個性化問題數(shù)據(jù)對應的正確的標準問題數(shù)據(jù)。所述預定概率條件比如可以是待識別特征對應標準問題數(shù)據(jù)的概率大于預設概率閾值。也可以按標準問題數(shù)據(jù)概率值從大到小的順序取預定數(shù)量的標準問題數(shù)據(jù)確定為所述個性化問題數(shù)據(jù)的標準問題數(shù)據(jù)。
在實際應用中,可以將確定的標準問題數(shù)據(jù)按照預定展示規(guī)則向用戶進行展示,比如可以是按照標準問題數(shù)據(jù)概率值從大到小的順序在用戶輸入框下預定位置依次展示5個標準問題數(shù)據(jù)。例如,用戶通過個性化問題數(shù)據(jù)輸入框輸入個性化問題數(shù)據(jù)“開”,則可以在個性化問題數(shù)據(jù)輸入框下方,展示確定出的5個與詞語特征“開”對應的標準問題數(shù)據(jù),展示效果如圖3c所示。
本申請實施例中,在根據(jù)標準問題概率模型輸出的概率分布,從所述預設的標準問題數(shù)據(jù)中確定標準問題數(shù)據(jù)確定標準問題后,可以確定與確定出的標準問題數(shù)據(jù)對應的問題答案數(shù)據(jù)。
本申請實施例中,標準問題數(shù)據(jù)對應的問題答案數(shù)據(jù),為標準問題的答案。前文已提到,每一個標準問題數(shù)據(jù)都關聯(lián)有與標準問題對應的標準答案數(shù)據(jù),在確定出標準問題數(shù)據(jù)后,就獲取與標準問題數(shù)據(jù)對應的標準答案數(shù)據(jù)。獲取到的標準答案數(shù)據(jù),可以由服務器發(fā)送給用戶終端進行展示。
當本申請實施例提供的上述方法的執(zhí)行主體為用戶終端或者客戶端時,標準問題數(shù)據(jù)對應的問題答案數(shù)據(jù),可以是用戶終端或者客戶端根據(jù)確定出的標準問題數(shù)據(jù)從服務器或本地數(shù)據(jù)庫中獲取的。在獲取到問題答案數(shù)據(jù)后,用戶終端或者客戶端就可以對問題答案數(shù)據(jù)進行展示。
本申請實施例1提供的上述方法,通過根據(jù)用戶輸入的個性化問題數(shù)據(jù)獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征,并通過標準問題概率模型獲取概率分布,從而確定用戶個性化問題數(shù)據(jù)對應的標準問題數(shù)據(jù),以便獲取個性化問題數(shù)據(jù)對應的問題答案數(shù)據(jù),無需用戶向客服咨詢或自行查找問題答案,提高了獲取問題答案的效率。
需要說明的是,實施例1所提供方法的各步驟的執(zhí)行主體均可以是同一設備,或者,該方法也由不同設備作為執(zhí)行主體。比如,步驟11和步驟12的執(zhí)行主體可以為設備1,步驟13的執(zhí)行主體可以為設備2;又比如,步驟11的執(zhí)行主體可以為設備1,步驟12~13的執(zhí)行主體可以為設備2;等等。
需要說明的是,本申請實施例中為各步驟設置編號,是為了有條理地描述各步驟,并不是對步驟的執(zhí)行順序進行限制,即,本申請實施例中為各步驟設置的編號并不能視為限制步驟執(zhí)行順序的特征。
實施例2
本發(fā)明實施例2,主要介紹本發(fā)明實施例1提供的上述方法在實際中的一 種應用方案。
本發(fā)明實施例2中確定標準問題數(shù)據(jù)的過程與實施例1中確定標準問題數(shù)據(jù)的過程相類似,實施例2中沒有介紹到的其他一些步驟可以參見實施例1中的相關描述,此處不再贅述。
在對該方案的實現(xiàn)方式進行詳細介紹前,先對該方案的實施場景進行簡單介紹。
該實施場景中,某用戶想要在網(wǎng)站咨詢關于“賬戶開通”的問題。
基于上述場景,實施例2中實現(xiàn)標準問題數(shù)據(jù)確定的過程如圖3a所示,包括下述步驟:
步驟21:用戶通過網(wǎng)站問題輸入框輸入個性化問題數(shù)據(jù)“開”;
步驟22:服務器獲取到用戶輸入的個性化問題數(shù)據(jù)“開”;
步驟23:服務器根據(jù)個性化問題數(shù)據(jù)“開”,利用如圖3b所示的根據(jù)與標準問題數(shù)據(jù)相關聯(lián)的特征構建的查找樹進行查找,獲得問題數(shù)據(jù)特征:“開通”、“賬戶”、“開始”、“收益”;
步驟24:服務器將個性化問題數(shù)據(jù)(“開”)和獲取的問題數(shù)據(jù)特征(“開通”、“賬戶”、“開始”、“收益”)輸入到訓練好的深度神經(jīng)網(wǎng)絡模型中;
其中,所述深度神經(jīng)網(wǎng)絡模型是根據(jù)所述預設的標準問題數(shù)據(jù)和與所述預設的標準問題數(shù)據(jù)相關聯(lián)的特征樣本訓練的。
步驟25:服務器利用深度神經(jīng)網(wǎng)絡模型,根據(jù)輸入的問題特征(“開”、“開通”、“賬戶”、“開始”、“收益”),獲取所述輸入的問題特征對應于標準問題數(shù)據(jù)的概率分布。
步驟26:服務器按照標準問題數(shù)據(jù)概率值從大到小的順序,在個性化問題數(shù)據(jù)輸入框下預定位置依次展示5個標準問題數(shù)據(jù),如圖3c所示。
假設所述5個標準問題數(shù)據(jù)中包括標準問題數(shù)據(jù)“開通賬戶”。
步驟27:用戶點擊標準問題數(shù)據(jù)“開通賬戶”。
步驟28:服務器根據(jù)用戶的點擊指令,將標準問題數(shù)據(jù)“開通賬戶”對應 的問題答案數(shù)據(jù)展示給用戶。
本申請實施例2提供的上述方法,通過根據(jù)用戶輸入的個性化問題數(shù)據(jù)獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征,并通過標準問題概率模型獲取概率分布,從而確定用戶個性化問題數(shù)據(jù)對應的標準問題數(shù)據(jù),以便獲取個性化問題數(shù)據(jù)對應的問題答案數(shù)據(jù),無需用戶向客服咨詢或自行查找問題答案,提高了獲取問題答案的效率。
實施例3
為解決采用現(xiàn)有技術獲取問題答案效率低的問題,本申請實施例提供一種標準問題數(shù)據(jù)的確定裝置。該裝置的結構示意圖如圖4所示,主要包括下述功能單元:
獲取單元31:根據(jù)獲得的個性化問題數(shù)據(jù),獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征;
解碼單元32:將所述個性化問題數(shù)據(jù)和獲取的特征,輸入訓練好的標準問題概率模型;所述標準問題概率模型,是根據(jù)所述預設的標準問題數(shù)據(jù)和與所述預設的標準問題數(shù)據(jù)相關聯(lián)的特征樣本訓練的;
標準問題數(shù)據(jù)確定單元33:根據(jù)標準問題概率模型輸出的概率分布,從所述預設的標準問題數(shù)據(jù)中確定標準問題數(shù)據(jù)。
在一種實施方式中,所述獲取單元31,具體用于根據(jù)所述個性化問題數(shù)據(jù),利用特征查找樹,獲得所述特征查找樹中包含的、與所述個性化問題數(shù)據(jù)相匹配的問題數(shù)據(jù)特征;所述特征查找樹,是通過將與標準問題數(shù)據(jù)相關聯(lián)的特征進行組合構建的。
所述標準問題概率模型,是通過下述方法訓練的:
獲取訓練特征集;
根據(jù)預設的特征選擇算法,從獲取的訓練特征集中選取樣本特征;
獲取樣本特征對應的標準問題數(shù)據(jù);
將所述預設的標準問題數(shù)據(jù)以及選取的樣本特征作為標準問題概率模型的輸入,將所述樣本特征對應的標準問題數(shù)據(jù)作為標準問題概率模型的預設輸出,對所述標準問題概率模型進行訓練,得到所述標準問題概率模型。
所述標準問題概率模型為深度神經(jīng)網(wǎng)絡模型。
所述訓練特征集中的特征,包括下述至少一種:
用戶點擊特征;詞語特征。
所述個性化問題數(shù)據(jù),為用戶實時輸入的個性化問題數(shù)據(jù)。
本申請實施例3提供的上述裝置,通過根據(jù)用戶輸入的個性化問題數(shù)據(jù)獲取與所述個性化問題數(shù)據(jù)相關聯(lián)的特征,并通過標準問題概率模型獲取概率分布,從而確定用戶個性化問題數(shù)據(jù)對應的標準問題數(shù)據(jù),以便獲取個性化問題數(shù)據(jù)對應的問題答案數(shù)據(jù),無需用戶向客服咨詢或自行查找問題答案,提高了獲取問題答案的效率。
本領域內(nèi)的技術人員應明白,本發(fā)明的實施例可提供為方法、系統(tǒng)、或計算機程序產(chǎn)品。因此,本發(fā)明可采用完全硬件實施例、完全軟件實施例、或結合軟件和硬件方面的實施例的形式。而且,本發(fā)明可采用在一個或多個其中包含有計算機可用程序代碼的計算機可用存儲介質(zhì)(包括但不限于磁盤存儲器、CD-ROM、光學存儲器等)上實施的計算機程序產(chǎn)品的形式。
本發(fā)明是參照根據(jù)本發(fā)明實施例的方法、設備(系統(tǒng))、和計算機程序產(chǎn)品的流程圖和/或方框圖來描述的。應理解可由計算機程序指令實現(xiàn)流程圖和/或方框圖中的每一流程和/或方框、以及流程圖和/或方框圖中的流程和/或方框的結合??商峁┻@些計算機程序指令到通用計算機、專用計算機、嵌入式處理機或其他可編程數(shù)據(jù)處理設備的處理器以產(chǎn)生一個機器,使得通過計算機或其他可編程數(shù)據(jù)處理設備的處理器執(zhí)行的指令產(chǎn)生用于實現(xiàn)在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能的裝置。
這些計算機程序指令也可存儲在能引導計算機或其他可編程數(shù)據(jù)處理設備以特定方式工作的計算機可讀存儲器中,使得存儲在該計算機可讀存儲器中 的指令產(chǎn)生包括指令裝置的制造品,該指令裝置實現(xiàn)在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能。
這些計算機程序指令也可裝載到計算機或其他可編程數(shù)據(jù)處理設備上,使得在計算機或其他可編程設備上執(zhí)行一系列操作步驟以產(chǎn)生計算機實現(xiàn)的處理,從而在計算機或其他可編程設備上執(zhí)行的指令提供用于實現(xiàn)在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能的步驟。
以上所述僅為本申請的實施例而已,并不用于限制本申請。對于本領域技術人員來說,本申請可以有各種更改和變化。凡在本申請的精神和原理之內(nèi)所作的任何修改、等同替換、改進等,均應包含在本申請的權利要求范圍之內(nèi)。