Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx

Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx

ID:59257015

大小:87.75 KB

頁數(shù):7頁

時(shí)間:2020-09-08

Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx_第1頁
Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx_第2頁
Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx_第3頁
Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx_第4頁
Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx_第5頁
資源描述:

《Adaboost人工神經(jīng)網(wǎng)絡(luò)集成.docx》由會員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。

1、Adaboost人工神經(jīng)網(wǎng)絡(luò)集成(同濟(jì)大學(xué)電子與信息工程學(xué)院,上海)摘要:Adaboost算法可以將分類效果一般的弱分類器提升為分類效果理想的強(qiáng)分類器,而且不需要預(yù)先知道弱分類器的錯誤率上限,這樣就可以應(yīng)用很多分類效果不穩(wěn)定的算法來作為Adaboost算法的弱分類器。由于BP神經(jīng)網(wǎng)絡(luò)算法自身存在的局限性和對訓(xùn)練樣本進(jìn)行選擇的主觀性,其分類精度以及擴(kuò)展性有待提高。將Adaboost算法與BP神經(jīng)網(wǎng)絡(luò)相結(jié)合,使用神經(jīng)網(wǎng)絡(luò)分類模型作為Adaboost算法的弱分類器。算法在Java中實(shí)現(xiàn),對UCI中的鳶尾花數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),結(jié)果表明Adaboost能有效改善BP神經(jīng)網(wǎng)絡(luò)的不足,提高分類正確率和

2、泛化率。關(guān)鍵詞:弱分類器;強(qiáng)分類器;BP神經(jīng)網(wǎng)絡(luò);Adaboost算法TheEnsembleClassificationofAdaboostandBPHUZuoLiang(TongjiUniversityofCollegeofElectronics&InformationEngineering,Shanghai,China)Abstract:Adaboostalgorithmcanpromoteaweakclassifiertoastrongclassifierwithoutknowingtheerrorrateupperlimitoftheweakclassifierinadvan

3、ce.SoalotofclassifierswhicharenotsostablecanbeusedasweakclassifiersinAdaboostalgorithm.BecauseofthelimitationandsubjectivityintrainingsamplesselectionoftheBPneuralnetworkalgorithm,itsclassificationaccuracyandscalabilityneedtobeimproved.SotheAdaboostalgorithmiscombinedwithBPneuralnetwork.inwhich

4、theneuralnetworkclassificationmodelisusedasaweakclassifier.AlgorithmisrealizedinJava,andtheIrisDatasetofUCIdatasetsisusedtodotheexperiment.TheresultsshowthatAdaboostcaneffectivelyovercometheshortcomingsofBPneuralnetwork,improvetheclassificationaccuracyandtherateofgeneralization.Keywords:weakcla

5、ssifier;strongclassifier;BPNeuralNetwork;Adaboostalgorithm1引言BP神經(jīng)網(wǎng)絡(luò)在分類算法中有廣泛的應(yīng)用,但是由于BP神經(jīng)網(wǎng)絡(luò)本質(zhì)上是梯度下降法,當(dāng)遇到比較復(fù)雜的目標(biāo)函數(shù)時(shí),其學(xué)習(xí)速度和收斂速度會變得很慢,導(dǎo)致訓(xùn)練失敗的可能性較大。而Adaboost能夠提升任意精度的弱分類器為強(qiáng)分類器,它的核心思想是通過對一個(gè)訓(xùn)練集訓(xùn)練得到多個(gè)分類結(jié)果,最后將它們集成起來。在BP神經(jīng)網(wǎng)絡(luò)中引入Adaboost算法作為分類器,可以彌補(bǔ)BP神經(jīng)網(wǎng)絡(luò)的缺點(diǎn),能提高分類準(zhǔn)確率和泛化率。2Adaboost-NN算法介紹2.1Boosting算法Boosti

6、ng算法由Schapire和Freund在1990年提出,是最早提出的集成學(xué)習(xí)算法,是一種有效提高分類學(xué)習(xí)系統(tǒng)分類能力的算法。Boosting算法操縱訓(xùn)練樣本來產(chǎn)生多個(gè)分類假設(shè),從而建立通過加權(quán)投票結(jié)合的分類器集合,其過程如下:(1)首先對含有N條數(shù)據(jù)的訓(xùn)練樣本進(jìn)行學(xué)習(xí),得到第一個(gè)弱分類器;(2)將在前面學(xué)習(xí)過程中分錯的樣本加上其他新數(shù)據(jù),構(gòu)成一個(gè)新的含N個(gè)數(shù)據(jù)的訓(xùn)練樣本集,對這個(gè)訓(xùn)練樣本集進(jìn)行訓(xùn)練學(xué)習(xí),得到新的分類器;(3)把在步驟(1)和(2)中都分錯了的樣本加上其他新數(shù)據(jù),構(gòu)成另一個(gè)新的包N個(gè)數(shù)據(jù)的訓(xùn)練樣本集,對這個(gè)樣本集進(jìn)行訓(xùn)練學(xué)習(xí)得到新的分類器;(4)最后通過對全部得到的弱

7、分類器進(jìn)行加權(quán)投票表決得到強(qiáng)分類器,即某樣本被分為哪一類要通過全部弱分類器的加權(quán)投票表決。Boosting算法需要解決兩個(gè)主要問題:(1)怎樣調(diào)整訓(xùn)練集里的樣本分布,從而使訓(xùn)練集產(chǎn)生適合的弱分類器;(2)怎么把訓(xùn)練所得弱分類器集成得到效果更好的強(qiáng)分類器。2.2Adaboost算法Adaboost算法是Schapire和Freund在1995年提出的,其關(guān)鍵思想是根據(jù)每次訓(xùn)練過程中,樣本集內(nèi)每個(gè)樣本的分類結(jié)果是否正確來改變數(shù)據(jù)樣本分布,即修改樣本的權(quán)值。修改

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時(shí)可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時(shí)聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。