本發(fā)明涉及目標(biāo)檢測(cè),具體地,涉及一種解決目標(biāo)檢測(cè)樣本不均衡問題的方法。
背景技術(shù):
1、目標(biāo)檢測(cè)樣本不均衡是指在訓(xùn)練的時(shí)候各個(gè)類別的樣本數(shù)量不均衡。以基于深度學(xué)習(xí)的目標(biāo)檢測(cè)為例,樣本類別不均衡主要體現(xiàn)在兩方面:正負(fù)樣本不均衡和難易樣本不均衡。目標(biāo)檢測(cè)樣本不均衡可能導(dǎo)致的四類問題。一是訓(xùn)練不均衡:在存在類別不平衡的情況下,模型可能更容易學(xué)習(xí)到常見類別的特征,而對(duì)于罕見類別的特征學(xué)習(xí)較差。這可能導(dǎo)致模型在預(yù)測(cè)時(shí)對(duì)罕見類別的性能較差。二是模型偏向:如果某個(gè)類別的樣本數(shù)量遠(yuǎn)遠(yuǎn)超過其他類別,模型可能更傾向于預(yù)測(cè)該類別,因?yàn)樗谟?xùn)練集中更頻繁地遇到這個(gè)類別。這可能導(dǎo)致模型對(duì)于少數(shù)類別的性能下降。三是評(píng)估偏差:常見的評(píng)估指標(biāo),如準(zhǔn)確率,可能不夠全面,因?yàn)楹?jiǎn)單地預(yù)測(cè)所有樣本為常見類別也能取得較高的準(zhǔn)確率。更有意義的評(píng)估指標(biāo),如混淆矩陣、精確度、召回率等,可以提供更全面的性能評(píng)估。四是目標(biāo)稀缺問題:對(duì)于某些罕見類別,模型可能很難學(xué)到有效的特征,因?yàn)樗鼈冊(cè)跀?shù)據(jù)集中出現(xiàn)的次數(shù)有限。這可能導(dǎo)致對(duì)于這些罕見類別的檢測(cè)性能較差。
2、解決樣本不均衡的問題一般有兩個(gè)思路,一個(gè)是從數(shù)據(jù)角度出發(fā),一個(gè)是從算法角度出發(fā)。從數(shù)據(jù)角度出發(fā)即針對(duì)少量樣本數(shù)據(jù),盡可能去擴(kuò)大這些少量樣本的數(shù)據(jù)集,或者盡可能通過數(shù)據(jù)增廣的色彩、對(duì)比度增強(qiáng),尺度變換、隨機(jī)裁剪、隨機(jī)抖動(dòng)等方式來增加圖像特有的特征和泛化性來豐富數(shù)據(jù)的多樣性?,F(xiàn)有技術(shù)多是從數(shù)據(jù)角度出發(fā),包括以下方法:
3、1.增加原始數(shù)據(jù)集:數(shù)據(jù)采集到數(shù)據(jù)標(biāo)注費(fèi)時(shí)費(fèi)力,成本極高。對(duì)于大量的圖像和視頻數(shù)據(jù),完全依賴人力進(jìn)行標(biāo)注是不現(xiàn)實(shí)的。而自動(dòng)標(biāo)注方法雖然可以提高效率,但是往往存在準(zhǔn)確性不足的問題,需要進(jìn)行人工修正和審核,增加了標(biāo)注成本。
4、2.數(shù)據(jù)增廣。數(shù)據(jù)增廣能解決一定程度上樣本不平衡帶來的問題,但是不同的數(shù)據(jù)增強(qiáng)方法也存在著各自的優(yōu)缺點(diǎn):
5、(1)隨機(jī)裁剪:隨機(jī)裁剪是目前最常用的數(shù)據(jù)增強(qiáng)方法之一。該方法通過隨機(jī)裁剪圖像的一部分并保留目標(biāo)對(duì)象,來產(chǎn)生多樣化的訓(xùn)練數(shù)據(jù)。然而,隨機(jī)裁剪可能會(huì)對(duì)目標(biāo)對(duì)象造成一定的影響,特別是當(dāng)目標(biāo)對(duì)象的大小和位置關(guān)系較為復(fù)雜時(shí),可能會(huì)出現(xiàn)難以檢測(cè)的情況。
6、(2)尺度變換:尺度變換是指改變圖像中目標(biāo)對(duì)象的大小以模擬不同分辨率的輸入,從而豐富數(shù)據(jù)集。該方法可以有效地提高模型的魯棒性和泛化能力,但是也可能會(huì)引入一些不必要的噪聲,從而影響模型的性能。
7、(3)顏色變換:顏色變換是指對(duì)圖像的顏色進(jìn)行變換以增加數(shù)據(jù)樣本的多樣性。該方法可以有效地降低模型對(duì)光照和顏色變化的敏感度,提高模型的泛化能力。然而,顏色變換可能也會(huì)導(dǎo)致一些不必要的噪聲干擾模型的訓(xùn)練。
8、(4)圖像填充:圖像填充是指通過在圖像邊緣添加塊以保持目標(biāo)對(duì)象的完整性。該方法可以在一定程度上避免目標(biāo)對(duì)象被裁剪或截?cái)啵岣吣P偷臋z測(cè)準(zhǔn)確率。但是,過多的填充可能會(huì)影響模型對(duì)目標(biāo)對(duì)象的真實(shí)性認(rèn)知,并降低模型的性能。
9、從算法角度來解決樣本不平衡導(dǎo)致的各項(xiàng)問題時(shí),多采用傳統(tǒng)的合成少數(shù)類過采樣技術(shù)(synthet?ic?minority?oversampl?ing?technique,smote)進(jìn)行模型訓(xùn)練,即通過對(duì)少數(shù)類樣本進(jìn)行插值來產(chǎn)生更多的少數(shù)類樣本。其基本思想是針對(duì)每個(gè)少數(shù)類樣本,從它的k近鄰中隨機(jī)選擇一個(gè)樣本(該樣本也是少數(shù)類中的一個(gè)),然后在兩者之間的連線上隨機(jī)選擇一點(diǎn)作為新合成的少數(shù)類樣本。其提出了基于k最鄰近算法(k-nearestneighbor,knn),即在特征空間中,如果一個(gè)樣本附近的k個(gè)最近(特征空間中最鄰近)樣本的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別,和自適應(yīng)的過采樣方法(oversampling?method?based?on?knn?and?adaptive,kao)。首先,利用knn算法去除噪聲樣本;其次,根據(jù)少數(shù)類樣本k近鄰樣本中多數(shù)類樣本數(shù),自適應(yīng)給少數(shù)類樣本分配過采樣權(quán)重;最后,利用新的插值方式生成新樣本平衡數(shù)據(jù)集。但是這種采樣過程計(jì)算效率低下,通常使用基于距離的鄰域關(guān)系q來提取數(shù)據(jù)分布信息,計(jì)算開銷大。同時(shí)最近鄰算法q容易被噪聲干擾,可能無法得到準(zhǔn)確的分布信息,從而導(dǎo)致不合理的采樣策略。而且過采樣方法生成過多數(shù)據(jù),會(huì)進(jìn)一步增大訓(xùn)練集的樣本數(shù)量,增大計(jì)算開銷,并可能導(dǎo)致過擬合。
技術(shù)實(shí)現(xiàn)思路
1、針對(duì)現(xiàn)有技術(shù)中的缺陷,本發(fā)明的目的是提供一種解決目標(biāo)檢測(cè)樣本不均衡問題的方法,綜合考慮樣本權(quán)重、邊界情況和類別權(quán)重等因素,提高模型的性能和泛化能力。
2、為實(shí)現(xiàn)上述發(fā)明目的,本發(fā)明提供如下所述技術(shù)方案:
3、一種解決目標(biāo)檢測(cè)樣本不均衡問題的方法,所述方法包括:
4、s1、采集樣本數(shù)據(jù):收集用于目標(biāo)檢測(cè)的樣本數(shù)據(jù),進(jìn)行數(shù)據(jù)采集的方式包括使用攝像頭、傳感器、網(wǎng)絡(luò)爬蟲,確保采集到的樣本數(shù)據(jù)具有代表性和多樣性,以便訓(xùn)練模型能夠更好地泛化;
5、s2、數(shù)據(jù)標(biāo)注:通過在圖像或視頻中繪制邊界框并指定類別標(biāo)簽來為每個(gè)樣本標(biāo)記目標(biāo)位置和類別;
6、s3、數(shù)據(jù)預(yù)處理:在訓(xùn)練目標(biāo)檢測(cè)模型之前,對(duì)數(shù)據(jù)進(jìn)行調(diào)整圖像大小、歸一化像素值、裁剪或填充圖像,或?qū)?biāo)簽進(jìn)行編碼或轉(zhuǎn)換操作,使數(shù)據(jù)適應(yīng)模型的輸入要求,以便模型能夠正確地理解和處理;
7、s4、數(shù)據(jù)增廣:對(duì)樣本數(shù)據(jù)進(jìn)行一系列變換和擴(kuò)增來增加數(shù)據(jù)的多樣性,提高模型的泛化能力和魯棒性;所述數(shù)據(jù)增廣方法包括平移、旋轉(zhuǎn)、縮放、翻轉(zhuǎn)、隨機(jī)裁剪;
8、s5、模型訓(xùn)練;
9、s6、模型評(píng)估和驗(yàn)證:在模型訓(xùn)練完成后,使用測(cè)試數(shù)據(jù)集來評(píng)估模型的性能,通過將測(cè)試數(shù)據(jù)輸入到模型中,觀察模型的輸出結(jié)果,并與真實(shí)標(biāo)簽進(jìn)行比較,以評(píng)估模型的準(zhǔn)確性、召回率、精確度;
10、其中,就模型訓(xùn)練而言,包括:
11、s51、樣本分類:將少數(shù)類樣本分為a、b、c三類,所有的k近鄰樣本都屬于多數(shù)類的為a類樣本,超過一半的k近鄰樣本屬于多數(shù)類的為b類樣本,超過一半的k近鄰樣本屬于少數(shù)類的為c類樣本;
12、s52、權(quán)重分配:對(duì)b類樣本賦予權(quán)重,越靠近邊界的樣本權(quán)重越大,將權(quán)重大的樣本作為種子樣本;
13、s53、樣本生成:以種子樣本為出發(fā)點(diǎn),通過smote算法生成新樣本,生成新樣本時(shí),若連線的另一端的樣本在a類或c類樣本中,則隨機(jī)插值點(diǎn)q應(yīng)靠近種子樣本端。
14、根據(jù)本發(fā)明提供的解決目標(biāo)檢測(cè)樣本不均衡問題的方法,在模型訓(xùn)練中,將少數(shù)樣本進(jìn)行分類后,對(duì)其中超過一半的k近鄰樣本屬于多數(shù)類的樣本賦予權(quán)重,且越靠近邊界的樣本權(quán)重越大,再將權(quán)重大的樣本作為種子樣本,通過smote算法生成新樣本,在面對(duì)樣本不均衡問題時(shí)能夠更好地學(xué)習(xí)少數(shù)類樣本的特征,提升模型的準(zhǔn)確性、魯棒性以及公平性。
15、與現(xiàn)有技術(shù)相比,本發(fā)明綜合考慮樣本權(quán)重、邊界情況和類別權(quán)重等因素,能夠生成具有多樣性和有用信息的新樣本,并在模型訓(xùn)練中平衡不同類別的樣本數(shù)量,從而提高模型的性能和泛化能力。