本發(fā)明屬于網(wǎng)絡(luò)安全,具體涉及一種深度學(xué)習(xí)與決策樹融合的網(wǎng)絡(luò)入侵檢測(cè)模型及方法。
背景技術(shù):
1、隨著數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)技術(shù)的不斷進(jìn)步,卷積神經(jīng)網(wǎng)絡(luò)(cnn)和決策樹已經(jīng)成為處理分類和特征識(shí)別任務(wù)的核心技術(shù)。然而,單獨(dú)使用這些方法在應(yīng)對(duì)復(fù)雜數(shù)據(jù)問題時(shí)仍面臨一定的挑戰(zhàn)。cnn雖然在特征提取和處理方面表現(xiàn)優(yōu)異,但在數(shù)據(jù)量不足或存在較高噪聲的情況下,模型容易出現(xiàn)過擬合現(xiàn)象,從而影響其在新數(shù)據(jù)上的泛化能力。另一方面,決策樹在處理結(jié)構(gòu)化數(shù)據(jù)時(shí)表現(xiàn)良好,但面對(duì)高維特征和復(fù)雜數(shù)據(jù)時(shí),可能會(huì)遇到過擬合和特征選擇不充分的問題,從而影響分類效果。
2、信息網(wǎng)絡(luò)安全的智能診斷離不開準(zhǔn)確的檢測(cè),特別是在電力信息網(wǎng)絡(luò)、無線信息網(wǎng)絡(luò)等具體的行業(yè)應(yīng)用中,網(wǎng)絡(luò)安全的檢測(cè)更是重中之重。在網(wǎng)絡(luò)安全檢測(cè)領(lǐng)域,雖然現(xiàn)有的基于深度學(xué)習(xí)和機(jī)器學(xué)習(xí)技術(shù)的網(wǎng)絡(luò)入侵檢測(cè)系統(tǒng)(ids)在性能方面表現(xiàn)良好,但仍然存在一些挑戰(zhàn)。首先,原始數(shù)據(jù)集中的攻擊類別繁多,而現(xiàn)有模型往往只能識(shí)別廣義的攻擊類型,忽略了對(duì)細(xì)分類別的精準(zhǔn)識(shí)別。其次,網(wǎng)絡(luò)流量數(shù)據(jù)中存在大量冗余特征,導(dǎo)致模型難以提取有效信息,從而影響識(shí)別準(zhǔn)確性。再者,數(shù)據(jù)集中的樣本數(shù)量不平衡問題,使得模型可能傾向于學(xué)習(xí)數(shù)量較多類別的特征,忽視了少數(shù)類別的特征學(xué)習(xí),從而導(dǎo)致分類識(shí)別效果不佳。因此,將cnn和決策樹結(jié)合的方法用于網(wǎng)絡(luò)安全檢測(cè)中,能夠充分發(fā)揮cnn在特征提取方面的優(yōu)勢(shì),同時(shí)利用決策樹進(jìn)行精準(zhǔn)的分類和異常檢測(cè),這有助于提高網(wǎng)絡(luò)入侵檢測(cè)系統(tǒng)的整體性能和準(zhǔn)確性。進(jìn)一步改進(jìn)這些結(jié)合方法的模型結(jié)構(gòu)和訓(xùn)練策略,將有助于解決現(xiàn)有網(wǎng)絡(luò)安全檢測(cè)系統(tǒng)中存在的各種問題,提升系統(tǒng)的安全性和穩(wěn)定性。
3、目前,深度學(xué)習(xí)和機(jī)器學(xué)習(xí)在網(wǎng)絡(luò)入侵檢測(cè)領(lǐng)域方面取得了良好的性能,但是依然存在很多問題:
4、(1)面向網(wǎng)絡(luò)入侵檢測(cè),采用單一的機(jī)器學(xué)習(xí)方法或者深度學(xué)習(xí)方法。例如,單獨(dú)采用決策樹的方法通常需要經(jīng)過手動(dòng)特征工程來提取和選擇特征,對(duì)于復(fù)雜的高維數(shù)據(jù)這可能是困難且不夠有效的,而且,決策樹容易在訓(xùn)練數(shù)據(jù)上過擬合,可能無法充分利用復(fù)雜的特征交互關(guān)系,特別是在特征空間較大或數(shù)據(jù)的潛在模式較復(fù)雜時(shí);單獨(dú)采用卷積神經(jīng)網(wǎng)絡(luò)(cnn)的方法,cnn模型通常被認(rèn)為是“黑箱”模型,因?yàn)樗鼈兊膬?nèi)部工作機(jī)制較難理解和解釋,這可能會(huì)影響模型的透明度和信任度。
5、(2)面向網(wǎng)絡(luò)入侵檢測(cè)的深度學(xué)習(xí)算法中,采用傳統(tǒng)單一池化方法。最大池化方法過于關(guān)注局部,平均池化方法過于平滑。兩者都沒有對(duì)數(shù)據(jù)進(jìn)行自適應(yīng)調(diào)整的能力。不同的數(shù)據(jù)類型或任務(wù)可能需要在局部細(xì)節(jié)和全局平滑之間找到平衡,而傳統(tǒng)池化方法無法滿足這種需求。
6、(3)面向網(wǎng)絡(luò)入侵檢測(cè)的深度學(xué)習(xí)方法中超參數(shù)未進(jìn)行優(yōu)化,或優(yōu)化方法容易陷入局部最優(yōu),無法找到好性能的超參數(shù)。
7、現(xiàn)有技術(shù)中公開號(hào)為cn112491796a的發(fā)明專利,公開了一種基于卷積神經(jīng)網(wǎng)絡(luò)的入侵檢測(cè)及語義決策樹量化解釋方法,其將流量數(shù)據(jù)轉(zhuǎn)換成流量灰度圖像作為輸入,對(duì)增加了可解釋性的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并用檢測(cè)集對(duì)訓(xùn)練后的模型進(jìn)行檢測(cè);利用類激活圖構(gòu)建攻擊細(xì)節(jié)圖像并輸入訓(xùn)練后的卷積神經(jīng)網(wǎng)絡(luò)模型提取聚類特征進(jìn)行聚類,計(jì)算檢測(cè)到的異常樣本與各類攻擊聚類中心的距離,利用該距離建立決策樹;計(jì)算語義匹配率為建立的代理決策樹賦予語義意義,并利用該匹配率對(duì)語義決策樹的解釋效果進(jìn)行量化評(píng)價(jià)。該發(fā)明建立語義決策樹對(duì)效果最優(yōu)的模型進(jìn)行解釋,并設(shè)計(jì)語義匹配率對(duì)解釋效果進(jìn)行量化評(píng)價(jià)。
8、上述現(xiàn)有技術(shù)雖然將卷積神經(jīng)網(wǎng)絡(luò)與決策樹結(jié)合,但是其主要用于建立語義決策樹對(duì)效果最優(yōu)的模型進(jìn)行解釋;其通過隱藏層分析與代理模型相結(jié)合的方式,建立代理決策樹對(duì)模型的決策過程進(jìn)行分析,從而增強(qiáng)代理決策樹對(duì)模型決策過程的解釋效果。而大數(shù)據(jù)攻擊檢測(cè)是一種不平衡數(shù)據(jù)的分類問題,且每天流入大量的新的待檢測(cè)數(shù)據(jù),而深度神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練效率較低,現(xiàn)有技術(shù)中的改進(jìn)神經(jīng)網(wǎng)絡(luò)模型一般需要一天以上的訓(xùn)練時(shí)間,難以滿足實(shí)時(shí)攻擊檢測(cè)的需求,該方案在實(shí)際操作中,仍然無法解決容易發(fā)生過擬合、計(jì)算時(shí)間較長(zhǎng)等問題。
技術(shù)實(shí)現(xiàn)思路
1、在下文中給出了關(guān)于本發(fā)明實(shí)施例的簡(jiǎn)要概述,以便提供關(guān)于本發(fā)明的某些方面的基本理解。應(yīng)當(dāng)理解,以下概述并不是關(guān)于本發(fā)明的窮舉性概述。它并不是意圖確定本發(fā)明的關(guān)鍵或重要部分,也不是意圖限定本發(fā)明的范圍。其目的僅僅是以簡(jiǎn)化的形式給出某些概念,以此作為稍后論述的更詳細(xì)描述的前序。
2、根據(jù)本技術(shù)的一個(gè)方面,提供一種深度學(xué)習(xí)與決策樹融合的網(wǎng)絡(luò)入侵檢測(cè)模型,該模型為決策樹-卷積神經(jīng)網(wǎng)絡(luò)-決策樹模型(dt-cnn-dt),其由融合了簡(jiǎn)化卷積神經(jīng)網(wǎng)絡(luò)的第一決策樹(dt)、改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)(convolutional?neural?networks,cnn)以及第二決策樹構(gòu)成;
3、其中,第一決策樹包括根節(jié)點(diǎn)和葉節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)(根節(jié)點(diǎn)和葉節(jié)點(diǎn))包括一個(gè)簡(jiǎn)化卷積神經(jīng)網(wǎng)絡(luò);根節(jié)點(diǎn)用于對(duì)待檢測(cè)入侵?jǐn)?shù)據(jù)進(jìn)行大致分類(正常、異常、疑似異常),然后再傳入到下一層的葉節(jié)點(diǎn),對(duì)大致分類后的待檢測(cè)入侵?jǐn)?shù)據(jù)進(jìn)一步識(shí)別,同時(shí)去除待檢測(cè)入侵?jǐn)?shù)據(jù)冗余或無關(guān)的特征,最終在葉節(jié)點(diǎn)輸出帶有標(biāo)簽的網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集,標(biāo)簽為初步判斷結(jié)果;簡(jiǎn)化卷積神經(jīng)網(wǎng)絡(luò)包括輸入層、卷積層、池化層、全連接層和輸出層,池化層采用最大池化方法,其他采用一般現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)。該第一決策樹可離線使用,使用時(shí),每天流入的大量新的待檢測(cè)數(shù)據(jù)首先經(jīng)過第一決策樹進(jìn)行大致處理,并過濾大量的正常數(shù)據(jù),保留異常和疑似異常數(shù)據(jù),因此,大大加快了整個(gè)模型的數(shù)據(jù)處理速度。
4、其中改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)為二維卷積神經(jīng)網(wǎng)絡(luò)cnn,該改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)依次包括第一卷積層、第一自定義混合池化層、第二卷積層、第二自定義混合池化層、第三卷積層和展平層,第一卷積層為3×3卷積層,第二卷積層和第三卷積層為2×2卷積層,第一自定義混合池化層和第二自定義混合池化層為2×2自定義混合池化層;網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集經(jīng)過第一決策樹處理后輸出帶有標(biāo)簽(判斷結(jié)果)的網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集,依次經(jīng)過第一卷積層、第一自定義混合池化層、第二卷積層、第二自定義混合池化層、第三卷積層和展平層,最后輸出用于分類的特征向量;
5、第二決策樹由經(jīng)典決策樹分類器實(shí)現(xiàn),第二決策樹的深度不大于10,每個(gè)葉節(jié)點(diǎn)的樣本數(shù)量不小于5;同時(shí),設(shè)置剪枝參數(shù)范圍為[0.009-0.011]來控制樹的生長(zhǎng)。
6、其中,第一自定義混合池化層和第二自定義混合池化層結(jié)構(gòu)相同,定義為:;
7、其中,表示混合池化后的輸出特征圖,對(duì)輸入x進(jìn)行處理后的結(jié)果;表示經(jīng)過最大池化操作后的特征圖,表示經(jīng)過平均池化操作后的特征圖,表示混合池化的權(quán)重參數(shù),控制最大池化和平均池化之間的權(quán)重分配。權(quán)重參數(shù)取值范圍為[0,1]。所述混合池化的權(quán)重參數(shù)通過輪盤賭粒子群算法優(yōu)化得出。
8、進(jìn)一步的,所述改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)采用五折交叉驗(yàn)證,具體包括:
9、將原始的網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集隨機(jī)分成五個(gè)大小相等的子集(或折疊),每個(gè)子集包含相同數(shù)量的數(shù)據(jù)樣本;
10、對(duì)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練與測(cè)試:在每次迭代中,選擇其中一個(gè)子集作為測(cè)試集,其余四個(gè)子集合并作為訓(xùn)練集;使用訓(xùn)練集對(duì)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并在測(cè)試集上進(jìn)行評(píng)估;該過程重復(fù)五次,確保每個(gè)子集都被用作一次測(cè)試集;
11、對(duì)于每一次測(cè)試,使用預(yù)設(shè)性能度量指標(biāo),如準(zhǔn)確率、精確度、召回率、f1分?jǐn)?shù)等,來評(píng)估改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)在測(cè)試集上的表現(xiàn);
12、將五次測(cè)試的性能度量指標(biāo)的結(jié)果取平均值,得到改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的最終性能評(píng)估。
13、本技術(shù)采用5折交叉驗(yàn)證,分割訓(xùn)練集并多次訓(xùn)練改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型。在每一折中,使用早停機(jī)制避免過擬合,并記錄每一折的模型表現(xiàn)。使用?cnn?模型的前幾層作為特征提取器,提取中間特征,然后利用第二決策樹分類器對(duì)這些特征進(jìn)行分類。其中的混合池化的系數(shù)通過輪盤賭粒子群算法(rw-pso)優(yōu)化得出,對(duì)每一折中的模型進(jìn)行評(píng)估,分別計(jì)算正確率、當(dāng)前最優(yōu)的系數(shù)和損失值。
14、使用時(shí),新增的待檢測(cè)數(shù)據(jù)首先經(jīng)由決策樹-卷積神經(jīng)網(wǎng)絡(luò)-決策樹模型的第一決策樹,得到網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集,再將網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集輸入改進(jìn)卷積神經(jīng)網(wǎng)絡(luò),再輸入第二決策樹,最后輸出預(yù)測(cè)標(biāo)簽,從而將網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集中的流量數(shù)據(jù)精準(zhǔn)分為正常流量和攻擊流量。
15、根據(jù)本技術(shù)的另一方面,提供一種深度學(xué)習(xí)與決策樹融合的網(wǎng)絡(luò)入侵檢測(cè)方法,采用上述決策樹-卷積神經(jīng)網(wǎng)絡(luò)-決策樹模型實(shí)現(xiàn),包括:
16、步驟1:將待檢測(cè)數(shù)據(jù)輸入第一決策樹,獲得網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集,該網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集是經(jīng)由第一決策樹過濾了正常數(shù)據(jù)、保留了異常和疑似異常數(shù)據(jù)的數(shù)據(jù)集合;
17、步驟2:對(duì)步驟1獲得的網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集進(jìn)行預(yù)處理;
18、步驟3:將預(yù)處理后的網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集輸入到改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)中,對(duì)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;
19、步驟4:改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取后輸出特征向量(特征圖);
20、步驟5:將特征向量輸入給第二決策樹,第二決策樹做出決策后輸出分類結(jié)果,判定是否有網(wǎng)絡(luò)入侵。
21、本技術(shù)通過上述方案,采用具有簡(jiǎn)化卷積神經(jīng)網(wǎng)絡(luò)的第一決策樹(dt)、改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)(convolutional?neural?networks,cnn)、以及第二決策樹的決策樹-卷積神經(jīng)網(wǎng)絡(luò)-決策樹模型(dt-cnn-dt)構(gòu)成了決策樹-卷積神經(jīng)網(wǎng)絡(luò)-決策樹模型,第一決策樹可離線使用,每天新增加的待檢測(cè)數(shù)據(jù)可經(jīng)由第一決策樹離線處理,改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)被訓(xùn)練后,可實(shí)時(shí)對(duì)新增的由第一決策樹離線處理后的待檢測(cè)數(shù)據(jù)進(jìn)行檢測(cè),最后通過第二決策樹輸出檢測(cè)結(jié)果即可。
22、其中,所述步驟2中網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集的預(yù)處理過程如下:
23、步驟s21:將網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集分別存儲(chǔ)特征和標(biāo)簽信息;使用?pandas組件讀取訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集,并將數(shù)據(jù)存儲(chǔ)在?csv?格式文件中;
24、步驟s22:將訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集中的特征和標(biāo)簽分離,和作為特征,和作為對(duì)應(yīng)的標(biāo)簽;
25、步驟s23:通過?normalizer?對(duì)特征進(jìn)行歸一化處理,確保數(shù)據(jù)在同一數(shù)值范圍內(nèi),從而加速模型訓(xùn)練的收斂;
26、步驟s24:將標(biāo)簽轉(zhuǎn)換為二進(jìn)制格式以適應(yīng)后續(xù)的二分類任務(wù);
27、步驟s25:將歸一化的特征轉(zhuǎn)換為卷積神經(jīng)網(wǎng)絡(luò)所需的三維格式,也即將特征數(shù)據(jù)重塑為偽圖像格式,形狀為7×6×1。
28、作為一種實(shí)現(xiàn)方案,步驟3中的改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)具體結(jié)構(gòu)如表1所示:
29、表1?cnn結(jié)構(gòu)表
30、
31、該改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)依次包括第一卷積層、第一自定義混合池化層、第二卷積層、第二自定義混合池化層、第三卷積層和展平層,第一卷積層為3×3卷積層,第二卷積層和第三卷積層為2×2卷積層,第一自定義混合池化層和第二自定義混合池化層為2×2自定義混合池化層。
32、作為一種實(shí)現(xiàn)方案,所述步驟3訓(xùn)練改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的過程為:將預(yù)處理后的網(wǎng)絡(luò)入侵檢測(cè)數(shù)據(jù)集輸入到第一卷積層,第一卷積層生成32張?zhí)卣鲌D并輸送至第一自定義混合池化層處理,接著輸入第二卷積層從而生成64張?zhí)卣鲌D,然后經(jīng)過第二自定義混合池化層處理,接著輸入第三卷積層從而生成128張?zhí)卣鲌D,經(jīng)過展平層(扁平化層)將特征圖展平為一維向量,生成用于分類的特征向量。這個(gè)特征向量將被作為輸入送入決策樹分類器進(jìn)行分類,并對(duì)決策樹的復(fù)雜度進(jìn)行了控制。
33、其中,第一自定義混合池化層和第二自定義混合池化層結(jié)構(gòu)相同,定義為:;
34、其中,表示混合池化后的輸出特征圖,對(duì)輸入x進(jìn)行處理后的結(jié)果;表示經(jīng)過最大池化操作后的特征圖,表示經(jīng)過平均池化操作后的特征圖,表示混合池化的權(quán)重參數(shù),控制最大池化和平均池化之間的權(quán)重分配。權(quán)重參數(shù)取值范圍為[0,1]。relu激活函數(shù)為現(xiàn)有技術(shù),這里不再詳述。
35、作為一種實(shí)現(xiàn)方案,為避免過早收斂和陷入局部最優(yōu),第一自定義混合池化層和第二自定義混合池化層中,采用基于輪盤賭選擇(roulette?wheel?selection,rws)的粒子群算法(particle?swarm?optimization,?pso)進(jìn)行混合池化層的超參數(shù)優(yōu)化。具體的,基于輪盤賭選擇的粒子群算法(rws-pso)對(duì)混合池化層的權(quán)重參數(shù)進(jìn)行優(yōu)化,具體包括以下步驟:
36、步驟s31:建立粒子群優(yōu)化算法中用于進(jìn)行粒子迭代搜索空間s;
37、步驟s32:將第一自定義混合池化層和第二自定義混合池化層中的權(quán)重系數(shù)的每一種取值優(yōu)化方案作為一個(gè)粒子,建立粒子群;
38、步驟s33:計(jì)算當(dāng)前時(shí)刻?t?每個(gè)粒子的適應(yīng)度值,即模型在驗(yàn)證集上的性能指標(biāo)(即正確率和損失值),通過歸一化適應(yīng)度值,計(jì)算每個(gè)粒子被選中的概率;獲得每個(gè)粒子的自身最優(yōu)超參數(shù)取值作為自身最優(yōu)位置,其中k為粒子總數(shù),同時(shí)以當(dāng)前時(shí)刻t搜索空間總損失值最小的超參數(shù)取值方案作為全局最優(yōu)取值方案,即全局最優(yōu)位置;
39、步驟s34:以基于輪盤賭選擇的粒子群算法進(jìn)行粒子的迭代搜索,完成粒子的位置更新;當(dāng)?shù)阉鬟M(jìn)行至設(shè)定的迭代次數(shù),獲得最終的優(yōu)化結(jié)果,實(shí)現(xiàn)超參數(shù)的取值優(yōu)化;其中,基于輪盤賭選擇的粒子群算法以卷積神經(jīng)網(wǎng)絡(luò)(cnn)結(jié)合決策樹模型在驗(yàn)證集上的性能指標(biāo)(損失值)作為適應(yīng)值。
40、其中,所述步驟s33具體包括以下步驟;
41、步驟s331:計(jì)算每個(gè)粒子被選中的概率;記為粒子的累計(jì)概率區(qū)間:
42、;
43、;
44、……;
45、;
46、每個(gè)都對(duì)應(yīng)了粒子被選中的概率,fitnessi是第i個(gè)粒子的歸一化適應(yīng)度值,σfitnessi是所有粒子的歸一化適應(yīng)度值之和;根據(jù)粒子的適應(yīng)度值為每個(gè)粒子分配一個(gè)概率,適應(yīng)度越高的粒子,被選擇的概率越大;
47、步驟s332:通過隨機(jī)數(shù)進(jìn)行輪盤賭選擇,則粒子在以下區(qū)間被選中:
48、選中的粒子
49、根據(jù)隨機(jī)數(shù)的大小判斷其屬于還是屬于;表示依賴個(gè)體最優(yōu)解的概率區(qū)間上限;
50、步驟s333:以基于輪盤賭選擇的粒子群算法對(duì)每個(gè)粒子進(jìn)行位置的更新,其中粒子i在t+1時(shí)刻的位置更新為:
51、;
52、其中,是粒子在下一次迭代的位置,是粒子在當(dāng)前迭代的位置,是慣性權(quán)重,控制粒子速度的保留程度,影響算法的全局搜索能力,是粒子在當(dāng)前迭代的速度,和是加速系數(shù),分別代表個(gè)體學(xué)習(xí)因子和社會(huì)學(xué)習(xí)因子,控制粒子向個(gè)體最優(yōu)和全局最優(yōu)靠攏的程度,表示依賴個(gè)體最優(yōu)解的概率區(qū)間上限,為個(gè)體最優(yōu)解, gbesti為全局最優(yōu)解,為在速度更新公式中的隨機(jī)數(shù)。
53、步驟s334:判斷位置是否滿足依賴個(gè)體最優(yōu)更新條件,若不滿足,則依賴全局最優(yōu)更新條件來進(jìn)行更新;
54、步驟s335:計(jì)算下一時(shí)刻t+1每個(gè)粒子所對(duì)應(yīng)模型在驗(yàn)證集上的性能指標(biāo)(損失值),獲得每個(gè)粒子的自身最優(yōu)位置 pbest’(粒子i的自身最優(yōu)位置為pbest ’i),i=1~k,并獲得粒子群的全局最優(yōu)位置 gbest’;將 pbest’對(duì)應(yīng)的驗(yàn)證集總損失值與對(duì)應(yīng)的驗(yàn)證集總損失值行對(duì)比,若 pbest’對(duì)應(yīng)的網(wǎng)絡(luò)總干擾值更小,則將 pbest’的值賦給;將 gbest’對(duì)應(yīng)的驗(yàn)證集總損失值與對(duì)應(yīng)的驗(yàn)證集總損失值進(jìn)行對(duì)比,若 gbest’對(duì)應(yīng)的驗(yàn)證集總損失值更小,則將 gbest’的值賦給;
55、步驟s336:判斷是否達(dá)到預(yù)設(shè)的迭代次數(shù),若達(dá)到迭代次數(shù),則獲得本次迭代的pbesti~pbestx以及,把全局最優(yōu)位置作為最終的信道分配方案,否則,返回步驟s335,進(jìn)行下一次迭代。
56、作為一種實(shí)現(xiàn)方案,第二決策樹復(fù)雜度的具體控制措施包括:第二決策樹的深度被限制為10,防止過擬合;每個(gè)葉節(jié)點(diǎn)的最少樣本數(shù)為5,確保決策樹不會(huì)過度細(xì)化;通過設(shè)置剪枝參數(shù)為0.01來控制樹的生長(zhǎng),從而減少過擬合的風(fēng)險(xiǎn)。最后輸出預(yù)測(cè)標(biāo)簽,從而將數(shù)據(jù)集中的流量數(shù)據(jù)分為正常流量和攻擊流量。
57、為解決現(xiàn)有技術(shù)中深度神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練效率較低,訓(xùn)練時(shí)間太長(zhǎng),難以滿足實(shí)時(shí)攻擊檢測(cè)的需求,本技術(shù)通過設(shè)計(jì)一個(gè)可離線運(yùn)行的融合了神經(jīng)網(wǎng)絡(luò)的第一決策樹結(jié)構(gòu);同時(shí),單獨(dú)決策樹進(jìn)行分類,雖然模型的精度較高,但在處理復(fù)雜數(shù)據(jù)時(shí)可能會(huì)出現(xiàn)過擬合現(xiàn)象,導(dǎo)致模型泛化能力不足,為解決該問題,本技術(shù)設(shè)計(jì)了第二決策樹,將其與改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,不僅提高了模型的整體精度,還改善了模型的泛化能力,使得分類性能更為穩(wěn)定。