R語(yǔ)言與回歸分析(收藏)

R語(yǔ)言與回歸分析(收藏)

ID:47701834

大?。?09.25 KB

頁(yè)數(shù):7頁(yè)

時(shí)間:2019-10-21

R語(yǔ)言與回歸分析(收藏)_第1頁(yè)
R語(yǔ)言與回歸分析(收藏)_第2頁(yè)
R語(yǔ)言與回歸分析(收藏)_第3頁(yè)
R語(yǔ)言與回歸分析(收藏)_第4頁(yè)
R語(yǔ)言與回歸分析(收藏)_第5頁(yè)
資源描述:

《R語(yǔ)言與回歸分析(收藏)》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在工程資料-天天文庫(kù)。

1、R語(yǔ)言與回歸分析回歸模型是計(jì)量里最基礎(chǔ)也最常見(jiàn)的模型之一。究其原因,我想是因?yàn)樵趯?shí)際問(wèn)題中我們并不知道總體分布如何,而且只有一組數(shù)據(jù),那么試著對(duì)數(shù)據(jù)作回歸分析將會(huì)是一個(gè)不錯(cuò)的選擇。一、簡(jiǎn)單線性回歸簡(jiǎn)單的線性回歸涉及到兩個(gè)變量:一個(gè)是解釋變量,通常稱(chēng)為X;另一個(gè)是被解釋變量,通常稱(chēng)為y?;貧w會(huì)用常見(jiàn)的最小二乘算法擬合線性模型:yi=pO+p1xi+ei其中00和01是回歸系數(shù),£i表示誤差。在R中,你可以通過(guò)函數(shù)lm()去計(jì)算他。Lm()用法如下:lm(formula,data,subset,weights,na.action,method=”q廣,mod

2、el=TRUE,x=FALSE,y=FALSE,qr=TRUE,singular.ok=TRUE,contrasts=NULL,offset,…)參數(shù)是formula模型公式,例如y~x。公式中波浪號(hào)(?)左側(cè)的是響應(yīng)變量,右側(cè)是預(yù)測(cè)變量。函數(shù)會(huì)估計(jì)回歸系數(shù)卩0和01,分別以截距(intercept)和x的系數(shù)表示。有三種方式可以實(shí)現(xiàn)最小二乘法的簡(jiǎn)單線性回歸,假設(shè)數(shù)據(jù)wagel(可以通過(guò)names函數(shù)查看數(shù)據(jù)框各項(xiàng)名稱(chēng))(1)Im(wage1$wage~wagel$educ+wagel$exper)(2)Im(wage~educ+exper,data=w

3、agel)(3)attach(wagel)lm(wage?educ+exper)#不要忘記處理完后用detach()解出關(guān)聯(lián)運(yùn)行下列代碼:library(foreign)A<-read.dta("D:/R/data/WAGE1.dta")#導(dǎo)入數(shù)據(jù)lm(wage~educ,data二A)>lm(wage~educ,data二A)Call:lm(formula=wage~educ,data=A)Coefficients:(Intercept)educ-0.90490.5414當(dāng)然得到這些數(shù)據(jù)是不夠的,我們必須要有足夠的證據(jù)去證明我們所做的冋歸的合理性。那么

4、如何獲取冋歸的信息呢?嘗試運(yùn)行以下代碼:result<-lm(wage^educ,data=A)summary(result)我們可以得到以下結(jié)果:Call:lm(formula=wage~educ,data=A)Residuals:Min1QMedian3QMax-5.3396-2.1501-0.96741.192116.6085Coefficients:EstimateStd.ErrortvaluePr(>

5、t

6、)(Intercept)-0.904850.68497-1.3210.187educ0.541360.0532510.167<2e-16**

7、*Signif.codes:0?0.0010.010.0570.1c11Residualstandarderror:3.378on524degreesoffreedomMultipleR-squared:0.1648,AdjustedR-squared:0.1632F-statistic:103.4on1and524DF,p-value:<2.2e-16解讀上述結(jié)果,我們不難看出,單從判決系數(shù)R-squared上看,回歸結(jié)果是不理想的,但是,從p值來(lái)看,我們還是可以得到回歸系數(shù)是很顯著地(注意,這里的P<0.05就可以認(rèn)為拒絕回歸系數(shù)為0,即回歸變量與被

8、解釋變量無(wú)關(guān)的原擇假設(shè),選擇備擇假設(shè))所以說(shuō)我們的回歸的效果不好但還是可以接受的。當(dāng)然,這一點(diǎn)也可以通過(guò)做散點(diǎn)圖給我們直觀的印象:ooooo8OAM0is@80is1012141618educ但是影響薪酬的因素不只是education,可能還冇其他的,比如工作經(jīng)驗(yàn),丁作任期。為了更好地解釋影響薪酬的因素,我們就必須用到多元線性回歸。二、多元線性回歸還是使用Im函數(shù)。在公式的右側(cè)指定多個(gè)預(yù)測(cè)變量,用加號(hào)(+)連接:>lm(y~u+v+w)顯然,多元線性回歸是簡(jiǎn)單的線性回歸的擴(kuò)展??梢杂卸鄠€(gè)預(yù)測(cè)變量,還是用OLS計(jì)算多項(xiàng)式的系數(shù)。三變量的冋歸等同于這個(gè)線性模

9、型:yi=P0+p1ui+p2vi+P3wi+ei在R中,簡(jiǎn)單線性回歸和多元線性回歸都是用Im函數(shù)。只要在模型公式的右側(cè)增加變量即可。輸出中會(huì)有擬合的模型的系數(shù):>result1<-lm(wage^educ+exper+tenure,data=A)>summary(result1)Call:lm(formula=wage-educ+exper+tenure,data=A)Residuals:Min1QMedian3QMax-866.29-249.23-51.07189.622190.01Coefficients:EstimateStd.Errortval

10、uePr(>

11、t

12、)(Intercept)-276.240106.702-2.5

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。