adaboost算法的推廣_一組集成學(xué)習(xí)算法

adaboost算法的推廣_一組集成學(xué)習(xí)算法

ID:33753639

大小:175.41 KB

頁數(shù):8頁

時(shí)間:2019-02-28

adaboost算法的推廣_一組集成學(xué)習(xí)算法_第1頁
adaboost算法的推廣_一組集成學(xué)習(xí)算法_第2頁
adaboost算法的推廣_一組集成學(xué)習(xí)算法_第3頁
adaboost算法的推廣_一組集成學(xué)習(xí)算法_第4頁
adaboost算法的推廣_一組集成學(xué)習(xí)算法_第5頁
資源描述:

《adaboost算法的推廣_一組集成學(xué)習(xí)算法》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫

1、第42卷第6期四川大學(xué)學(xué)報(bào)(工程科學(xué)版)Vol.42No.62010年11月JOURNALOFSICHUANUNIVERSITY(ENGINEERINGSCIENCEEDITION)Nov.2010文章編號(hào):1009-3087(2010)06-0091-08AdaBoost算法的推廣———一組集成學(xué)習(xí)算法1,21,21,21,2付忠良,趙向輝,苗青,姚宇(1.中國(guó)科學(xué)院成都計(jì)算機(jī)應(yīng)用研究所,四川成都610041;2.中國(guó)科學(xué)院研究生院,北京100049)摘要:針對(duì)AdaBoost算法只適合于不穩(wěn)

2、定學(xué)習(xí)算法這一不足,基于增加新分類器總是希望降低集成分類器訓(xùn)練錯(cuò)誤率這一思想,提出了利用樣本權(quán)值來調(diào)整樣本類中心的方法,使AdaBoost算法可以與一些穩(wěn)定的學(xué)習(xí)算法結(jié)合成新的集成學(xué)習(xí)算法,如動(dòng)態(tài)調(diào)整樣本屬性中心的集成學(xué)習(xí)算法、基于加權(quán)距離度量分類的集成學(xué)習(xí)算法和動(dòng)態(tài)組合樣本屬性的集成學(xué)習(xí)算法,大大拓展了AdaBoost算法適用范圍。針對(duì)AdaBoost算法的組合系數(shù)和樣本權(quán)值調(diào)整策略是間接實(shí)現(xiàn)降低訓(xùn)練錯(cuò)誤率目標(biāo),提出了直接面向目標(biāo)的集成學(xué)習(xí)算法。在UCI數(shù)據(jù)上的實(shí)驗(yàn)與分析表明,提出的AdaBoost推廣算法不僅有效,而且部分算法比AdaBoost算法效果更好。關(guān)鍵詞:集成學(xué)習(xí);AdaBoos

3、t;分類器組合;弱學(xué)習(xí)定理中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:AEnsembleLearningAlgorithms:GeneralizationofAdaBoost1,21,21,21,2FUZhong-liang,ZHAOXiang-hui,MIAOQing,YAOYu(1.ChengduComputerApplicationsInst.,ChineseAcademyofSciences,Chengdu610041,China;2.GraduateUniv.ofChineseAcademyofSciences,Beijing100049,China)Abstract:Aimingatover

4、comingtheinsufficiencythatAdaBoostalgorithmisonlysuitabletotheunstablelearningalgorithm,themethodofadjustingsamplecenterwithitsweightwasgivenbasedontheideathataddingnewclassi-fiersisalwaystoreducethetrainingerroroftheensembleclassifier.Bythismethod,AdaBoostalgorithmcouldbegeneralizedtobeseveralnewen

5、semblelearningmethodsbycombiningsomestablelearningalgorithms,suchastheoneofdynamicallyadjustingthecentersofsampleattributes,theoneofclassifyingbyweighteddistancemeasure-ment,andtheoneofdynamicallycombiningsampleattributes.Therefore,theapplicationscopeofAdaBoostalgo-rithmwasgreatlyexpanded.Differentf

6、romthatthecombinationcoefficientsandtheadjustmentstrategyofsampleweightsinAdaBoostalgorithmareindirectlysettoreducethetrainingerror,thedirectgoal-orientedensemblelearningalgorithmwasgiven.TheexperimentalanalysisonUCIdatasetprovedthatthegeneralizedAdaBoostalgo-rithmsareeffectiveandsomeofthemperformbe

7、tterthantheordinaryAdaBoostalgorithm.Keywords:ensemblelearning;AdaBoost;classificationcombination;weaklearningtheoremAdaBoost(adaptiveboosting)算法是一種提高給定學(xué)習(xí)算法精度的方法,由Freund和Schapire提[1][2]出,是基于弱學(xué)習(xí)定理的一種可操

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。