徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法

徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法

ID:38269966

大?。?93.08 KB

頁數(shù):4頁

時間:2019-05-26

徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法_第1頁
徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法_第2頁
徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法_第3頁
徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法_第4頁
資源描述:

《徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫

1、第1期電子學(xué)報Vol.30No.12002年1月ACTAELECTRONICASINICAJan.2002徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的軟競爭學(xué)習(xí)算法張志華,鄭南寧,史罡(西安交通大學(xué)人工智能與機器人研究所,陜西西安710049)摘要:本文構(gòu)造了徑向基函數(shù)(RBF)神經(jīng)網(wǎng)絡(luò)的一類軟競爭學(xué)習(xí)算法(SCLA).該算法的主要思想是首先在高斯基函數(shù)中心向量的訓(xùn)練過程中引入了隸屬度函數(shù),對每個輸入樣本,所有中心向量根據(jù)該樣本屬于其代表的類的隸屬度值的大小進行自適應(yīng)地調(diào)整;第二,把隸屬度函數(shù)的模糊因子的倒數(shù)與模擬退火算法中的溫度等同起來,在迭代過程中采用遞增的方式來調(diào)整它.SCLA是RBF網(wǎng)

2、絡(luò)基于k2均值方法訓(xùn)練中心向量的學(xué)習(xí)算法的軟競爭格式,它可以克服后者對初始值敏感和死節(jié)點的問題.仿真實驗論證了SCLA是有效的.關(guān)鍵詞:徑向基函數(shù);軟競爭學(xué)習(xí);模糊因子;模擬退火中圖分類號:TP183文獻標(biāo)識碼:A文章編號:037222112(2002)0120132204Soft2CompetitionLearningAlgorithmsoftheRadialBasisFunctionNeuralNetworksZHANGZhi2hua,ZHENGNan2ning,SHIGang(InstituteofArtificialIntelligenceandRobotics

3、,Xi’anJiaotongUniversity,Xi’an,Shaanxi710049,China)Abstract:Inthispaper,thesoft2competitionlearningalgorithms(SCLA)ofRBFneuralnetworksaredesigned.Themainideasofthealgorithmsare:firstly,membershipfunctionsareintroducedintothetrainingprocedureofthecentervectorsoftheGaussianbasisfunctions,a

4、ndforeachinputsample,allcentervectorsareself2adaptivelyadjustedaccordingtothevaluesofthemembershipfunc2tions,inwhatdegreethesamplebelongstotheclassesthatthecentervectorsrepresent;secondly,thereciprocalofthefuzzyfactorofmembershipfunctionareconsideredasthetemperatureofthesimulatedannealin

5、galgorithm,andincreasinglyadjustingmethodisusedtothefuzzyfactorduringthelearningprocedure.SCLAaresoft2competitionschemesofthelearningalgorithms,inwhichthecentervectorsaretrainedbasedonthek2meansalgorithm,andcanremedytheproblemsofthedead2nodeandthesensitivitytoinitialweightvectorsthatthel

6、atteralgorithmshave.ThesimulationresultsshowthatSCLAareefficient.Keywords:radialbasisfunction;soft2competitionlearning;fuzzyfactor;simulatedannealing[6]1引言練法等.徑向基函數(shù)(RadialBasisFunction,RBF)神經(jīng)網(wǎng)絡(luò)是近幾本文的工作主要集中于第一階段.k2均值和Kohonen法年來繼多層感知機(Multi2LayerPerceptrons,MLP)之后又一種都屬于Winner2Take2All,即每次迭

7、代只對獲勝者進行調(diào)整.它十分有效的多層前向網(wǎng)絡(luò).RBF網(wǎng)絡(luò)輸出節(jié)點計算隱節(jié)點給們計算簡便,但同時暴露出對初始值的選取具有大的敏感性出的基函數(shù)的線性組合,隱層的輸出函數(shù)(即基函數(shù))通常由等缺點.誤差回傳算法雖然學(xué)習(xí)精度和泛化能力都較強,但中高斯函數(shù)定義.對于一個基函數(shù)的類型及個數(shù)選定好的網(wǎng)絡(luò).心向量以及它相應(yīng)寬度的梯度的計算是十分復(fù)雜的,這使得為了能使其正確執(zhí)行期望的數(shù)據(jù)處理.有兩個參數(shù)需要確定:學(xué)習(xí)速度較慢.事實上,RBF網(wǎng)絡(luò)的高斯隱含層同Kohonen自一是基函數(shù)的中心在輸入樣本數(shù)據(jù)空間中的位置;二是隱含組織網(wǎng)絡(luò)的競爭層相比,它的優(yōu)點在

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。