spss數(shù)據(jù)挖掘方法概述

spss數(shù)據(jù)挖掘方法概述

ID:18414945

大小:716.50 KB

頁數(shù):28頁

時間:2018-09-17

spss數(shù)據(jù)挖掘方法概述_第1頁
spss數(shù)據(jù)挖掘方法概述_第2頁
spss數(shù)據(jù)挖掘方法概述_第3頁
spss數(shù)據(jù)挖掘方法概述_第4頁
spss數(shù)據(jù)挖掘方法概述_第5頁
資源描述:

《spss數(shù)據(jù)挖掘方法概述》由會員上傳分享,免費在線閱讀,更多相關內(nèi)容在教育資源-天天文庫

1、數(shù)據(jù)挖掘方法概述一、主要概念1二、主要方法概述11、神經(jīng)網(wǎng)絡方法概述12、聚類方法概述93、主成分分析144、決策樹概述175、關聯(lián)分析216、遺傳算法概述23一、主要概念1、數(shù)據(jù)挖掘(datamining,簡記DM):采取專門算法對數(shù)據(jù)庫中潛在的、不明顯的數(shù)據(jù)關系進行分析與建模。2、CRISP-DM(CRoss-IndustryStandardProcessforDataMining):各企業(yè)中被廣泛采用的數(shù)據(jù)挖掘標準流程。包括6個步驟:商業(yè)理解、數(shù)據(jù)理解、數(shù)據(jù)準備、模型建立、結果評估、應用部署。3、Clementine:SPSS公司推出的企業(yè)級數(shù)據(jù)挖掘軟件產(chǎn)品,其包括的

2、數(shù)據(jù)挖掘主要方法為:神經(jīng)網(wǎng)絡、聚類分析、主因子分析、決策樹分析、關聯(lián)分析、回歸分析。二、主要方法概述1、神經(jīng)網(wǎng)絡方法概述主要問題:(1)什么是神經(jīng)網(wǎng)絡?(2)神經(jīng)網(wǎng)絡有什么用?(3)如何建立神經(jīng)網(wǎng)絡?(4)如何應用神經(jīng)網(wǎng)絡?(1)人工神經(jīng)網(wǎng)絡“人工神經(jīng)網(wǎng)絡”(ARTIFICIALNEURALNETWORK,簡稱A.N.N.)是基于模仿大腦神經(jīng)網(wǎng)絡結構和功能而建立的一種信息處理系統(tǒng)。神經(jīng)網(wǎng)絡在一定學習規(guī)則下,對提供的學習樣本進行學習,從中獲取特征信息,并存儲(記憶)在相應的權值及參數(shù)上。學習后,對于新的輸入數(shù)據(jù),網(wǎng)絡可通過已獲取的權值及參數(shù),計算網(wǎng)絡的輸出。神經(jīng)網(wǎng)絡具有高度的

3、非線性、容錯性與自學習、自適應更新等功能,能夠進行復雜的邏輯操作和非線性關系實現(xiàn)。目前神經(jīng)網(wǎng)絡模型在輔助管理與決策中,應用廣泛。(2)神經(jīng)網(wǎng)絡的作用已證明結論:對于函數(shù),在滿足一定條件下,可以找到函數(shù)27和實常數(shù)和,構造函數(shù):使對于任意小的,滿足(3)簡單神經(jīng)網(wǎng)絡模型(感知機模型)的建立問題引入:設想對購買手機的顧客制定銷售方案,用購買量與購買頻率兩個指標來判別,即:購買量大,購買頻率大,則給予優(yōu)惠折扣;購買量大,購買頻率小,則給予優(yōu)惠折扣;購買量小,購買頻率大,則給予優(yōu)惠折扣;購買量小,購買頻率小,則不給予優(yōu)惠折扣問題:這樣的銷售方案判別是否可以建立模型表示?設想:分別對

4、購買量、購買頻率以及是否優(yōu)惠的兩種取值定義為1,0,則上述四種方案可以用四個樣本表示,設每一樣本具有兩個評價指標X1,X2,一個評價結果Y:樣本號X1,X2Y1111210130114000構造兩個輸入節(jié)點、一個輸出節(jié)點、二層結構的神經(jīng)網(wǎng)絡模型:(*)O1=f(xj取值1或0,w1j(j=1,2)待求作用函數(shù):f(x)=1x>00x≤0結構:X1○W11X1○YX2○W12X2學習樣本:(x1(k),x2(k),Y1(k)),k是樣本數(shù),k=1,2,3,427關鍵問題:如何獲取模型(*)中的權數(shù)w1j,使計算結果與樣本的評價結果的誤差最???計算w1j方法:隨機賦予w1j初始

5、值,通過對每一樣本的學習,獲取計算結果與樣本評價結果的誤差,修正w1j的取值,使經(jīng)過一定次數(shù)的學習后,總誤差能達到期望值,此時修正得到的w1j就是所要獲取的權數(shù),即設δ(k)=∣Yk-Ok∣,Yk是第k個樣本評價結果(稱期望輸出或實際輸出),Ok是計算結果。通過第k個樣本的輸出誤差修正權數(shù)的公式為:(k+1)=(k)+△(k),△=αδ(k)Xj其中,α>0,α稱收斂因子。第k個樣本的誤差為:誤差ek=

6、δ(k)

7、,總誤差E(k)=E(k-1)+ek計算過程:1)設α=1,隨機賦予w1j的初始值為0,即w11(k=1)=0,w12(k=1)=02)對第一個樣本進行學習:把X

8、1=1,X2=1代入(*),有O=f(w11×X1+w12×X2)=f(0×1+0×1)=f(0)=0δ(k=1)=∣Yk-Ok∣=1修正權數(shù):△w1j=αδ(k)Xj△=δ(k=1)X1=1×1=1△w12=δ(k=1)X2=1×1=1(k=2)=(k=1)+△=0+1=1,w12(k=2)=w12(k=1)+△w12=0+1=1總誤差E(K=1)=E(K=0)+ek=0+δ(k=1)=13)對第2個樣本:X1=1,X2=0,O=f(1×1+1×0)=f(1)=1δ(k=2)=∣Yk-Ok∣=0修正權數(shù):△w1j=αδ(k)Xj△=δ(k=2)X1=0×1=0△w12=δ

9、(k=2)X2=0×0=0(k=2)=(k=1)+△=1+0=1,w12(k=2)=w12(k=1)+△w12=1+0=1總誤差E(K=2)=E(K=1)+ek=1+δ(k=2)=1274)對于獲取的權數(shù)=1,w12=1,有對第3個樣本:X1=0,X2=1,O=f(1×0+1×1)=f(1)=1=Y對第4個樣本:X1=0,X2=0,O=f(1×0+1×0)=f(0)=0=Y5)結論:=1,w12=1是使計算結果與樣本的評價結果誤差最小的權數(shù)。將=1,w12=代入模型(*),則模型建立完畢??梢岳眠@個建立的模型,對

當前文檔最多預覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。