自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf

自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf

ID:48129023

大?。?79.73 KB

頁數(shù):18頁

時(shí)間:2019-11-28

自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf_第1頁
自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf_第2頁
自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf_第3頁
自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf_第4頁
自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf_第5頁
資源描述:

《自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM).pdf》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫

1、CH.6自組織特征映射神經(jīng)網(wǎng)絡(luò)üSupervisedLearningNN(有監(jiān)督、有教師)NeuralYk()Networkü自組織特征映射X()k--SelfOrganizationFeatureMapping(SOM)Dk()FUnsupervisedLearningNN(無監(jiān)督、無教師)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)LearningAlgorithm--Kohonen提出(1981年),用于自動(dòng)分類、尋找聚類中心.6.1SOM神經(jīng)網(wǎng)絡(luò)及其學(xué)習(xí)算法…一、網(wǎng)絡(luò)模型..T.′輸入:n維,X=[,xx12,...,xn]輸出層

2、…T輸出:p個(gè)節(jié)點(diǎn),Y=[,yy12,...,yp]…′輸入層的每個(gè)節(jié)點(diǎn)與第j個(gè)輸出單元之間的連接權(quán)記為:TWwww=[,,...,],jp=1,...,jj12jjn′輸出:以競爭方式進(jìn)行輸出.在競爭中獲勝的單元有輸出(為1);xx12xn其余單元無輸出(為0).jq=?2?1,ifW?→Xk()min′競爭原則:具有與當(dāng)前輸入X距離最近的y=?jj權(quán)矢量W的單元q為競爭獲勝者,即q??0,otherwise′Kohonen認(rèn)為神經(jīng)網(wǎng)絡(luò)在接受外界激勵(lì)時(shí),各區(qū)域會(huì)有不同的響應(yīng)特征,各連接權(quán)會(huì)有不同的分布變化

3、。鄰近的神經(jīng)元相互激勵(lì),較遠(yuǎn)的神經(jīng)元相互抑制;響應(yīng)最強(qiáng)的區(qū)域形成一個(gè)局部峰值(稱為Bubble—墨西哥帽)。同時(shí),權(quán)向量也將以某一矢量為中心形成局部區(qū)域。SOM網(wǎng)絡(luò)既是按此原理構(gòu)成。二、學(xué)習(xí)算法-各權(quán)矢量W的確定j1算法I:(i)初始化:w(0)←Smallrandomnumbers(也可根據(jù)先驗(yàn)知識(shí));,k←0;ji(ii)輸入X(k),對(duì)W做下述操作:j?求出與X(k)最接近的權(quán)矢量W,q21/2min{WXkWXkd?=?=()(),((XY?=∑i(xyii?)))jqqj?定義單元q所在的鄰域?yàn)镹

4、tqk(),將Ntqk()中各單元的權(quán)進(jìn)行修改,其它權(quán)值不變:Wt(1+=)()()Wt+αtXkWt[()()?],jNt∈()jkjkkjkjk其中α()tk是學(xué)習(xí)步長,0()1<αtk<鄰域Ntqk()的選取:例如選在WWNtjqq?≤()k內(nèi)的所有的j單元。(iii)kk←+1,goto(ii),直到網(wǎng)絡(luò)收斂為止。2算法II(改進(jìn)算法):在算法I中的(ii).?中采用如下算法修改權(quán)值:22首先令dX=?()kWjkj2dkjk()?2計(jì)算hke()=2()σk--高斯函數(shù)j22?k/τ121000其

5、中σσ()ke=,σ,τ為要適當(dāng)選取的常數(shù)。有人建議取τ1=001lnσ0′修改權(quán)值算法:Wk(1+)()()()=+WkαkhkXkWt[()()?],jp=1,2,...,jjjjk其它步驟與算法I相同。對(duì)于WXk=(),hk()1;=′由上面算法可見,jj對(duì)于WXkj≠(),hkj()按高斯曲線下降,--使得在競爭中獲勝的權(quán)值得到修改的程度最大,而離獲勝者越遠(yuǎn),權(quán)值得到修改的程度越小。′還有其它改進(jìn)算法例如:α()t的改進(jìn),使其與當(dāng)前單元對(duì)應(yīng)的權(quán)值修改次數(shù)有關(guān),k隨修改次數(shù)增加,使α()t↓。k三、討

6、論1關(guān)于算法的收斂性(簡述)設(shè)可將輸入樣本集合{Xkk(),=1,...,M}劃分為p個(gè)子區(qū)間V,j每個(gè)Vj中有一個(gè)中心矢量Vj*--聚類中心,在物理上Vj*是Vj的質(zhì)心。于是可證明:WV→jp=1,...,jj*2競爭學(xué)習(xí)算法(CompetitiveLearning,CL)僅修改競爭中獲勝單元及其鄰域的權(quán)值,而在競爭中失敗單元的權(quán)值不修改。--Winner-takes-all,勝者為王;贏家通吃。通過競爭算法,建立起模式聚類中心(權(quán)矢量趨近于各個(gè)聚類中心矢量)?!涞湫偷摹盁o教師”學(xué)習(xí)(Unsupervis

7、edLearning)算法。23學(xué)習(xí)算法中鄰域的選取dkjk()?2算法I:WWNt?≤();算法II:hke()=2()σk(高斯函數(shù))jqqkjWk(1+)()()()=+WkαkhkXkWt[()()?]jjjjk4學(xué)習(xí)步長的選取、改進(jìn)一般須滿足:0()1<<αtk此外,有的改進(jìn)算法還與當(dāng)前單元所對(duì)應(yīng)的權(quán)值修改次數(shù)有關(guān),與修改次數(shù)成反比。c例如,設(shè)C(j)第j單元權(quán)值的修改次數(shù),取(,)logtj0α=k1()+Cj4如何應(yīng)用SOM網(wǎng)絡(luò)進(jìn)行分類?…yq=1...學(xué)習(xí)結(jié)束后(權(quán)值已收斂),…用下述方法對(duì)

8、輸入X進(jìn)行分類:…(1)計(jì)算X與所有權(quán)矢量W的距離:jdXW=?,jp=1,...,jjxxx12n(2)在所有dj中,找出最小距離dq:dX=?min{}Wqjj?1,ifj=q(3)于是令:y=?(第q個(gè)單元的輸出為1,其余為0)j?0,ifj≠q(4)分類:將X分為q類--輸出為1的單元所對(duì)應(yīng)的類別作為分類結(jié)果。xt()6.2SOM網(wǎng)絡(luò)在矢量量化中的應(yīng)用一、矢量量化…′標(biāo)量量化:將采樣信號(hào)xt()1,xt(

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。