資源描述:
《BP神經(jīng)網(wǎng)絡(luò)在疾病預(yù)測(cè)中的應(yīng)用.doc》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、BP神經(jīng)網(wǎng)絡(luò)在疾病預(yù)測(cè)中的應(yīng)用【摘要】目的:探討B(tài)P神經(jīng)網(wǎng)絡(luò)在疾病預(yù)測(cè)中的應(yīng)用。方法:設(shè)計(jì)合適的BP神經(jīng)網(wǎng)絡(luò)模型,用Matlab7.0編寫模型程序,利用精神分裂癥影響因素?cái)M合模型。結(jié)果:BP神經(jīng)網(wǎng)絡(luò)在精神分裂癥發(fā)病與否的預(yù)測(cè)中取得了較好的效果。結(jié)論:BP神經(jīng)網(wǎng)絡(luò)在流行病學(xué)中有良好的應(yīng)用前景?!娟P(guān)鍵詞】BP神經(jīng)網(wǎng)絡(luò);疾病預(yù)測(cè);BP算法;精神分裂癥BP神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,它通過模仿生物大腦神經(jīng)系統(tǒng)信息處理功能實(shí)現(xiàn)輸入與輸出之間的任意非線性優(yōu)化映射,有著傳統(tǒng)統(tǒng)計(jì)方法無法比擬的適應(yīng)性、容錯(cuò)性及自組織性等優(yōu)點(diǎn),特別是用傳統(tǒng)統(tǒng)計(jì)方法效果不好或不能達(dá)到目的時(shí),采用BP神經(jīng)網(wǎng)絡(luò)往往能收到較好的效
2、果,它在疾病預(yù)測(cè)中有著廣闊的應(yīng)用前景。 1BP神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)及BP算法基本原理BP神經(jīng)網(wǎng)絡(luò)的基本處理單元是神經(jīng)元(即節(jié)點(diǎn)),大量神經(jīng)元廣泛連接構(gòu)成神經(jīng)網(wǎng)絡(luò)。BP網(wǎng)絡(luò)通常含有輸入層、隱含層(中間層)和輸出層,每層均包括多個(gè)神經(jīng)元,輸入層與輸出層各有一層,隱含層根據(jù)需要可以設(shè)多層,也可不設(shè)。神經(jīng)元之間通過權(quán)相互連接,前一層神經(jīng)元只對(duì)下一層神經(jīng)元作用,同層神經(jīng)元之間無相互作用,權(quán)值的大小代表上一級(jí)神經(jīng)元對(duì)下一級(jí)神經(jīng)元的影響程度,如圖1所示。網(wǎng)絡(luò)中作用于神經(jīng)元的激勵(lì)函數(shù)通常采用的是S型函數(shù)(sigmoid可微函數(shù)),見式(1)。f(x)=(1+e-Qx)-1(1)式中Q為調(diào)節(jié)激勵(lì)函數(shù)形式的參數(shù)
3、,稱增益值。Q值越大,S形曲線越陡峭;反之,曲線越平坦,通常取Q=1?! P算法(BackPropagation)是為了解決多層前向神經(jīng)網(wǎng)絡(luò)的權(quán)值調(diào)整而提出來的,也稱為反向傳播算法,即網(wǎng)絡(luò)權(quán)值的調(diào)整規(guī)則是向后傳播學(xué)習(xí)算法,具體來說,BP算法是建立在梯度下降法的基礎(chǔ)上的,訓(xùn)練過程由正向傳播和反向傳播組成,在正向傳播過程中,輸入信息由輸入層經(jīng)隱含層逐層處理,并傳向輸出層,如果輸出層得不到期望的輸出,則轉(zhuǎn)入反向傳播,逐層遞歸的計(jì)算實(shí)際輸入與期望輸入的差即誤差,將誤差信號(hào)沿原來的連接通道返回,通過修改各層神經(jīng)元的權(quán)值,最終使得誤差信號(hào)最小。 2BP網(wǎng)絡(luò)的建模過程及模型設(shè)計(jì)要點(diǎn)5在流行病學(xué)中,可
4、以應(yīng)用BP網(wǎng)絡(luò)建立疾病的預(yù)測(cè)模型,建模的基本過程如下:首先收集導(dǎo)致疾病發(fā)生的主要影響因素及疾病發(fā)生的結(jié)果;然后把影響因素及疾病結(jié)果輸入到設(shè)計(jì)好神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行反復(fù)訓(xùn)練,直到網(wǎng)絡(luò)收斂(即達(dá)到預(yù)期的訓(xùn)練誤差),在訓(xùn)練過程中可適當(dāng)采用一定的技巧使網(wǎng)絡(luò)的訓(xùn)練速度最快、誤差最小、模型最優(yōu);最后用建立好的模型進(jìn)行疾病預(yù)測(cè)。下面具體探討網(wǎng)絡(luò)模型的設(shè)計(jì)要點(diǎn)?! ?.1確定訓(xùn)練樣本訓(xùn)練樣本應(yīng)來源于研究總體的一個(gè)隨機(jī)無偏樣本,并且按隨機(jī)、對(duì)照、重復(fù)及盲法等原則收集資料、整理資料、分析資料,保證訓(xùn)練結(jié)果的無偏性。訓(xùn)練樣本含量適宜,含量過大會(huì)造成訓(xùn)練速度偏慢,訓(xùn)練結(jié)果過分逼近訓(xùn)練集(或者說是該研究的外部真實(shí)性較
5、差),使得網(wǎng)絡(luò)的推廣泛化能力降低,況且,大樣本的收集大大增加了工作量;樣本過小其代表性不夠,使訓(xùn)練結(jié)果不夠可靠(或者說是該研究的內(nèi)部真實(shí)性較差)。一般來說,網(wǎng)絡(luò)的結(jié)構(gòu)越復(fù)雜,所需樣本越多,結(jié)構(gòu)越簡(jiǎn)單,所需樣本可相應(yīng)減少。對(duì)于單層BP網(wǎng)絡(luò)可參照Logistic回歸對(duì)樣本含量的一般要求,當(dāng)樣本含量與連接權(quán)的個(gè)數(shù)比為10:1時(shí)[1],就基本能夠滿足要求,多層BP網(wǎng)絡(luò)的樣本量應(yīng)在此基礎(chǔ)上根據(jù)網(wǎng)絡(luò)的復(fù)雜程度適當(dāng)增加?! ?.2變量值的歸一化處理歸一化處理的目的是把變量值歸一到區(qū)間[-1,1]內(nèi),此原因大致有兩個(gè):一是因?yàn)锽P網(wǎng)絡(luò)中非線性傳遞函數(shù)的值域一般在區(qū)間[-1,1]內(nèi),因此輸入及輸出變量的取值
6、都限于這個(gè)區(qū)間之內(nèi)。二是為了使輸入值(特別是那些比較大的輸入值)均落在Sigmoid傳遞函數(shù)變化較大的區(qū)間,使網(wǎng)絡(luò)的訓(xùn)練速度最快,改善網(wǎng)絡(luò)的性能,當(dāng)然如果輸入及輸出值原本就位于[0,1]區(qū)間內(nèi),可不進(jìn)行的歸一化處理,歸一化處理可采取以下兩種形式:xbji=xji/(xji,max-xji,min)(2)xbji=xji/(xji,max)(3)上式中xbji為歸一化后樣本中第j個(gè)樣品的第i個(gè)輸入變量,xji為原始資料第j個(gè)樣品的第i個(gè)輸入變量;xji,max與xji,min為原始資料第j個(gè)樣品的第i個(gè)輸入變量的最大值和最小值。 2.3BP網(wǎng)絡(luò)的初始化開始訓(xùn)練時(shí),首先進(jìn)行網(wǎng)絡(luò)權(quán)值的初始化,
7、這是因?yàn)槿绻跏紮?quán)值選擇不當(dāng),有可能造成訓(xùn)練時(shí)間過長(zhǎng),誤差平面陷入局部極?。?],甚至不收縮。所以網(wǎng)絡(luò)的初始權(quán)值一般?。?11]之間的隨機(jī)數(shù),這樣可保證每個(gè)神經(jīng)元的權(quán)值都能夠在型傳遞函數(shù)變化梯度最大的地方進(jìn)行調(diào)節(jié)?! ?.4輸入層的設(shè)計(jì)輸入層僅設(shè)一層,輸入神經(jīng)元的個(gè)數(shù)與輸入變量的個(gè)數(shù)相同?! ?.5隱含層的設(shè)計(jì)一是隱含層的層數(shù),對(duì)5BP網(wǎng)絡(luò)而言,一個(gè)三層BP網(wǎng)絡(luò)就可以完成任意的n維到m維的映射,一般情況下,采用單隱層的網(wǎng)