基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用

基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用

ID:34159006

大小:414.40 KB

頁數(shù):4頁

時(shí)間:2019-03-03

基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用_第1頁
基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用_第2頁
基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用_第3頁
基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用_第4頁
資源描述:

《基于bp神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫

1、實(shí)踐與經(jīng)驗(yàn)基于BP神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)挖掘及在股價(jià)預(yù)測(cè)中的應(yīng)用孟毅,呂渭濟(jì)(湛江師范學(xué)院商學(xué)院湛江524048)摘要:對(duì)BP網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)及其結(jié)構(gòu)的確定進(jìn)行分析,對(duì)如何提高網(wǎng)絡(luò)的泛化能力和網(wǎng)絡(luò)模型的合理化進(jìn)行研究,給出一些具體方法和建議。結(jié)合以上的分析,利用BP網(wǎng)絡(luò)對(duì)股票價(jià)格進(jìn)行預(yù)測(cè),所得結(jié)果表明,只要選擇合理的網(wǎng)絡(luò)模型和結(jié)構(gòu),其預(yù)測(cè)能力是相當(dāng)可觀的。關(guān)鍵詞:BP網(wǎng)絡(luò)結(jié)構(gòu);推廣能力;過擬合;股票0引言量。輸入變量即為系統(tǒng)待分析的外生變量(系統(tǒng)性能指標(biāo)或因變量),可以是一個(gè),也可以是多個(gè)。一般將近年來,神經(jīng)網(wǎng)絡(luò)被廣泛用于時(shí)間序列分析和金一個(gè)具有多個(gè)輸入的網(wǎng)絡(luò)模型轉(zhuǎn)化為多個(gè)具有一個(gè)融預(yù)報(bào),這是因?yàn)樯窠?jīng)網(wǎng)

2、絡(luò)有較強(qiáng)的非線性函數(shù)逼近輸出的網(wǎng)絡(luò)模型效果會(huì)更好,訓(xùn)練也更方便。能力,可以根據(jù)樣本數(shù)據(jù)訓(xùn)練得到輸入輸出變量之間由于BP神經(jīng)網(wǎng)絡(luò)的隱層一般采用Sigmoid轉(zhuǎn)換的函數(shù)關(guān)系,即可以通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),確定各神經(jīng)函數(shù),為提高訓(xùn)練速度和靈敏性以及有效避開Sig-元之間的耦合權(quán)值,從而使得網(wǎng)絡(luò)具有近似函數(shù)的功moid函數(shù)的飽和區(qū),一般要求輸入數(shù)據(jù)的值在0~1能,這樣我們無需了解市場(chǎng)的內(nèi)在動(dòng)力機(jī)制,就可對(duì)之間。因此,要對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理。一般要求對(duì)不其未來行為進(jìn)行預(yù)測(cè)。同變量分別進(jìn)行預(yù)處理,也可以對(duì)類似性質(zhì)的變量進(jìn)1樣本數(shù)據(jù)行統(tǒng)一的預(yù)處理。如果輸出層結(jié)點(diǎn)也采用Sigmoid轉(zhuǎn)1.1換函數(shù),輸出變量也必須作

3、相應(yīng)的預(yù)處理,否則,輸出收集和整理分組變量也可以不做預(yù)處理。采用網(wǎng)絡(luò)方法建模的首要前提條件是有足夠多預(yù)處理的方法有多種多樣,各文獻(xiàn)采用的公式也有典型性和精度高的樣本,而且,為監(jiān)控訓(xùn)練(學(xué)習(xí))不盡相同。但必須注意的是,預(yù)處理的數(shù)據(jù)訓(xùn)練完成過程使之不發(fā)生“過擬合”(overfitting)和評(píng)價(jià)建立的后,網(wǎng)絡(luò)輸出的結(jié)果要進(jìn)行反變換才能得到實(shí)際值。網(wǎng)絡(luò)模型的性能和泛化能力,必須將收集到的數(shù)據(jù)隨再者,為保證建立的模型具有一定的外推能力,最好機(jī)分成訓(xùn)練樣本、檢驗(yàn)樣本(10%以上)和測(cè)試樣本[3]使數(shù)據(jù)預(yù)處理后的值在0.2~0.8之間。(30%以上)3部分。此外,數(shù)據(jù)分組時(shí)還應(yīng)盡可能考慮樣本模式間的平衡。

4、2網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)的確定現(xiàn)1.2輸入輸出變量的確定及其數(shù)據(jù)的預(yù)處理代關(guān)于網(wǎng)絡(luò)結(jié)構(gòu),我們想研究的是:在訓(xùn)練樣本數(shù)計(jì)一般地,BP網(wǎng)絡(luò)的輸入輸出變量即為待分析系量和質(zhì)量一定時(shí),如何確定網(wǎng)絡(luò)結(jié)構(gòu)以保證有良好的算統(tǒng)的內(nèi)生變量(影響因之或自變量)數(shù),應(yīng)根據(jù)專業(yè)知推廣能力。機(jī)識(shí)確定。若輸入變量較多,一般可以通過主成分分析網(wǎng)絡(luò)結(jié)構(gòu)涉及到以下幾個(gè)方面的內(nèi)容:隱層的層(方法壓減輸入變量,也可以根據(jù)剔除某一變量引起的總數(shù)及隱層的結(jié)點(diǎn)數(shù)、初始權(quán)值、激勵(lì)函數(shù)、學(xué)習(xí)率、動(dòng)第系統(tǒng)誤差與原系統(tǒng)誤差的比值的大小來壓減輸入變量因之、誤差精度。三○收稿日期:2008-11-19修稿日期:2009-02-14一期作者簡(jiǎn)介:孟毅(1982

5、-),女,遼寧人,碩士,助教,研究方向?yàn)闀r(shí)間序列分析、信息管理與信息系統(tǒng))貋貖貧MODERNCOMPUTER2009.2實(shí)踐與經(jīng)驗(yàn)2.1隱層數(shù)理的BP網(wǎng)絡(luò)模型并通過向所給的有限個(gè)樣本的學(xué)Hornik等已證明[2]:若輸入層和輸出層采用線性習(xí)(訓(xùn)練)來滿意地逼近樣本所蘊(yùn)含的規(guī)律(函數(shù)關(guān)轉(zhuǎn)換函數(shù),隱層采用Sigmoid轉(zhuǎn)換函數(shù),則含一個(gè)隱系,不僅僅是使訓(xùn)練樣本的誤差達(dá)到很?。┑膯栴},目層的MLP網(wǎng)絡(luò)能夠以任意精度逼近任何有理函數(shù)。前在很大程度上還需要依靠經(jīng)驗(yàn)知識(shí)和設(shè)計(jì)者的經(jīng)顯然,這是一個(gè)存在性結(jié)論。在設(shè)計(jì)BP網(wǎng)絡(luò)時(shí)可參驗(yàn)。因此,通過訓(xùn)練樣本的學(xué)習(xí)(訓(xùn)練)建立合理的BP考這一點(diǎn),應(yīng)優(yōu)先考慮3層BP網(wǎng)

6、絡(luò)(即有1個(gè)隱層)。神經(jīng)網(wǎng)絡(luò)模型的過程,在國外被稱為“藝術(shù)創(chuàng)造的過一般地,靠增加隱層結(jié)點(diǎn)數(shù)來獲得較低的誤差,其訓(xùn)程”,是一個(gè)復(fù)雜而又十分煩瑣和困難的過程。練效果要比增加隱層數(shù)更容易實(shí)現(xiàn)。對(duì)于沒有隱層的由于BP網(wǎng)絡(luò)采用誤差反傳算法,其實(shí)質(zhì)是一個(gè)神經(jīng)網(wǎng)絡(luò)模型,實(shí)際上就是一個(gè)線性或非線性(取決無約束的非線性最優(yōu)化計(jì)算過程,在網(wǎng)絡(luò)結(jié)構(gòu)較大時(shí)于輸出層采用線性或非線性轉(zhuǎn)換函數(shù)形式)回歸模不僅計(jì)算時(shí)間長,而且很容易陷入局部極小點(diǎn)而得不型。因此,一般認(rèn)為,應(yīng)將不含隱層的網(wǎng)絡(luò)模型歸入回到最優(yōu)結(jié)果。目前雖已有改進(jìn)BP法、遺傳算法(GA)歸分析中,技術(shù)已很成熟,沒有必要在神經(jīng)網(wǎng)絡(luò)理論和模擬退火算法等多種優(yōu)化方法用于

7、BP網(wǎng)絡(luò)的訓(xùn)中再討論之。練(這些方法從原理上講可通過調(diào)整某些參數(shù)求得全2.2隱層結(jié)點(diǎn)數(shù)局極小點(diǎn)),但在應(yīng)用中,這些參數(shù)的調(diào)整往往因問題隱層結(jié)點(diǎn)的選擇與其說具有科學(xué)性,不如說更具不同而異,較難求得全局極小點(diǎn)。這些方法中應(yīng)用最技巧性。往往與輸入數(shù)據(jù)中隱含的特征因素有關(guān)。網(wǎng)廣的是增加了沖量(動(dòng)量)項(xiàng)的改進(jìn)BP算法。絡(luò)初次訓(xùn)練前所有參數(shù)的選擇權(quán)值都是初步數(shù),至今3.2學(xué)習(xí)率和沖量系數(shù)得不到一個(gè)統(tǒng)一的規(guī)范。

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。