2015新pep四年級(jí)下冊(cè)英語(yǔ)期末試卷(附聽(tīng)力材料).doc

2015新pep四年級(jí)下冊(cè)英語(yǔ)期末試卷(附聽(tīng)力材料).doc

ID:58148716

大?。?05.50 KB

頁(yè)數(shù):3頁(yè)

時(shí)間:2020-04-25

2015新pep四年級(jí)下冊(cè)英語(yǔ)期末試卷(附聽(tīng)力材料).doc_第1頁(yè)
2015新pep四年級(jí)下冊(cè)英語(yǔ)期末試卷(附聽(tīng)力材料).doc_第2頁(yè)
2015新pep四年級(jí)下冊(cè)英語(yǔ)期末試卷(附聽(tīng)力材料).doc_第3頁(yè)
資源描述:

《2015新pep四年級(jí)下冊(cè)英語(yǔ)期末試卷(附聽(tīng)力材料).doc》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在工程資料-天天文庫(kù)。

1、2014~2015學(xué)年第二學(xué)期期末考試數(shù)據(jù)挖掘技術(shù)試卷(A卷)參考答案使用班級(jí)/12/13/14答題時(shí)間_120分鐘_一、填空題(共10空,每空1分,共10分)1.數(shù)據(jù)挖掘的任務(wù):分類(lèi)、聚類(lèi)、回歸、關(guān)聯(lián)分析、離群點(diǎn)監(jiān)測(cè)、演化分析、序列模式。2.數(shù)據(jù)集的三個(gè)重要特性:_維度、稀疏性、分辨率。二、判斷題(共10小題,每小題1分,共10分)判斷下列3~7小題的描述是否正確?3.ID3算法不僅可以處理離散屬性,還可以處理連續(xù)屬性。(F)4.決策樹(shù)方法通常用于關(guān)聯(lián)規(guī)則挖掘。(F)5.先驗(yàn)原理可以表述為,一個(gè)頻繁項(xiàng)集的任一子集也應(yīng)該是頻繁的。(T)6.Clementin

2、e是IBM公司的專(zhuān)業(yè)級(jí)數(shù)據(jù)挖掘軟件。(T)7.具有較高的支持度的項(xiàng)集具有較高的置信度。(F)判斷下列8~12小題的描述是否屬于數(shù)據(jù)挖掘任務(wù)?8.利用歷史數(shù)據(jù)預(yù)測(cè)公司將來(lái)的股價(jià)。(T)9.監(jiān)測(cè)病人心率的異常變化。(F)10.監(jiān)測(cè)地震活動(dòng)的地震波。(F)11.提取聲波的頻率。(F)12.根據(jù)顧客喜好擺放商品位置。(T)三、簡(jiǎn)答題(6個(gè)小題,每小題5分,共30分)13.什么是信息熵?答:信息熵(entropy)是用來(lái)度量一個(gè)屬性的信息量(1分)。假定S為訓(xùn)練集,S的目標(biāo)屬性C具有m個(gè)可能的類(lèi)標(biāo)號(hào)值,C={C1,C2,…,Cm},假定訓(xùn)練集S中,Ci在所有樣本中出現(xiàn)

3、的頻率為(i=1,2,3,…,m),則該訓(xùn)練集S所包含的信息熵定義為:(3分)熵越小表示樣本對(duì)目標(biāo)屬性的分布越純,反之熵越大表示樣本對(duì)目標(biāo)屬性分布越混亂。(1分)14.什么是文本挖掘?答:文本挖掘是一個(gè)對(duì)具有豐富語(yǔ)義的文本進(jìn)行分析,從而理解其所包含的內(nèi)容和意義的過(guò)程。(2分)對(duì)其進(jìn)行深入的研究可以極大地提高人們從海量文本數(shù)據(jù)中提取信息的能力,具有很高的商業(yè)價(jià)值。(1分)包括分詞、文本表示、文本特征選擇、文本分類(lèi)、文本聚類(lèi)、文檔自動(dòng)摘要等內(nèi)容。(2分)15.什么是主成份分析?答:主成份分析(PCA)是一種用于連續(xù)屬性的線(xiàn)性變換技術(shù),找出新的屬性(主成份),(1

4、分)這些新屬性是原屬性的線(xiàn)性組合,(1分)是相互正交的,(1分)使得原來(lái)數(shù)據(jù)投影到較小的集合中,并且捕獲數(shù)據(jù)的最大變差。(1分)PCA通常揭示先前未曾覺(jué)察的聯(lián)系,解釋不尋常的結(jié)果。(1分)16.簡(jiǎn)述k-最近鄰算法過(guò)程。答:KNN分類(lèi)算法的基本描述如下:算法名:KNN輸入:最近鄰數(shù)目K,訓(xùn)練集D,測(cè)試集Z(1分)輸出:對(duì)測(cè)試集Z中所有測(cè)試樣本預(yù)測(cè)其類(lèi)標(biāo)號(hào)值(1分)(1)for每個(gè)測(cè)試樣本(1分)do(2)計(jì)算z和每個(gè)訓(xùn)練樣本之間的距離(1分)(3)選擇離z最近的k最近鄰集合(1分)(4)返回中樣本的多數(shù)類(lèi)的類(lèi)標(biāo)號(hào)(1分)(5)endfor17.簡(jiǎn)述Aprior

5、i算法原理。答:Apriori性質(zhì):一個(gè)項(xiàng)集是頻繁的,那么它的所有子集都是頻繁的。(1分)一個(gè)項(xiàng)集的支持度不會(huì)超過(guò)其任何子集的支持度。(1分)該算法采用逐層的方法找出頻繁項(xiàng)集,(1分)首先找出1頻繁-項(xiàng)集,通過(guò)迭代方法利用頻繁k-1-項(xiàng)集生成k候選項(xiàng)集,(1分)掃描數(shù)據(jù)庫(kù)后從候選k-項(xiàng)集中指出頻繁k-項(xiàng)集,直到生成的候選項(xiàng)集為空。(1分)18.什么是離群點(diǎn)?答:離群點(diǎn)是在數(shù)據(jù)集中偏離大部分?jǐn)?shù)據(jù)的數(shù)據(jù),(2分)使人懷疑這些數(shù)據(jù)的偏離并非由隨機(jī)因素產(chǎn)生,(1分)而是產(chǎn)生于完全不同的機(jī)制。(2分)四、計(jì)算題(共2題,每小題20分,共40分)319.數(shù)據(jù)集如下表:A

6、1A2A3B1B2B3B4C1C2C3x1975962728y2598294713以A1、B1、C1為初始簇中心,利用曼哈頓距離的k-means算法計(jì)算:(1)第一次循環(huán)后的三個(gè)簇中心;(2)最后的三個(gè)簇中心,以及各簇包含的對(duì)象。(要有計(jì)算步驟)解:(1)計(jì)算其他7個(gè)數(shù)據(jù)點(diǎn)到三個(gè)中心的曼哈頓距離:M(A2,A1)=11M(A2,B1)=7M(A2,C1)=4M(A3,A1)=13M(A3,B1)=3M(A3,C1)=2M(B2,A1)=8M(B2,B1)=10M(B2,C1)=7M(B3,A1)=12M(B3,B1)=2M(B3,C1)=3M(B4,A1)=

7、3M(B4,B1)=7M(B4,C1)=8M(C2,A1)=2M(C2,B1)=10M(C2,C1)=11M(C3,A1)=8M(C3,B1)=8M(C3,C1)=5經(jīng)過(guò)本次循環(huán),屬于A1簇的數(shù)據(jù)點(diǎn)為(A1,B4,C2),(1分)中心為X1(1.67,2.33);(1分)屬于B1簇的數(shù)據(jù)點(diǎn)為(B1,B3),(1分)中心為X2(5.5,8.5);(1分)屬于C1簇的數(shù)據(jù)點(diǎn)為(C1,A2,A3,B2,C3),(1分)中心為X3(8,5.2);(1分)(2)計(jì)算10個(gè)點(diǎn)到三個(gè)新中心的距離:M(A1,X1)=1M(A1,X2)=11M(A1,X3)=10.2M(A2

8、,X1)=10M(A2,X2)=7M(A2,X3)=

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶(hù)上傳,版權(quán)歸屬用戶(hù),天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶(hù)請(qǐng)聯(lián)系客服處理。