R语言如何进行线性回归的拟合度详解
R语言进行线性回归的拟合度。
本文只是使用R做回归计算,查看拟合度等,不讨论R函数的内部公式
在R中线性回归分析的函数是lm(),基本语法是
一元回归:lm(y~x,data)
多元回归:lm(y~x1+x2+x3…,data)
创建关系模型并获取系数
x<-c(151,174,138,186,128,136,179,163,152,131) y<-c(63,81,56,91,47,57,76,72,62,48) #使用lm()函数进行计算. relation<-lm(y~x) print(relation)
执行上面的代码,它产生以下结果
Call: lm(formula=y~x) Coefficients: (Intercept)x -38.45510.6746
产生了一条线性方程式:
y=-38.4551+0.6746x
使用summary()函数,查看摘要
print(summary(relation))
结果如下:
Call:
lm(formula=y~x)Residuals:
Min 1Q Median 3Q Max
-6.3002 -1.6629 0.0412 1.8944 3.9775Coefficients:
EstimateStd.ErrortvaluePr(>|t|)
(Intercept)-38.45509 8.04901 -4.778 0.00139**
x 0.67461 0.05191 12.9971.16e-06***
---
Signif.codes: 0‘***'0.001‘**'0.01‘*'0.05‘.'0.1‘'1Residualstandarderror:3.253on8degreesoffreedom
MultipleR-squared: 0.9548, AdjustedR-squared: 0.9491
F-statistic:168.9on1and8DF, p-value:1.164e-06
MultipleR-squared和AdjustedR-squared这两个值,其实我们常称之为“拟合优度”和“修正的拟合优度”,是指回归方程对样本的拟合程度。
R-squared(值范围0-1)描述的输入变量对输出变量的解释程度。在单变量线性回归中R-squared越大,说明拟合程度越好,模型对数据的预测越准确。
AdjustedR-square:自由度调整r平方。接近1的值表示更好的匹配。当您向模型中添加附加系数时,它通常是适合质量的最佳指示器。
关于R-squared和AdjustedR-squared联系与区别:,可以看看下文
https://www.nhooo.com/article/207365.htm
简单来说,只要增加了更多的变量,无论增加的变量是否和输出变量存在关系,则R-squared要么保持不变,要么增加。
所以,需要adjustedR-squared,它会对那些增加的且不会改善模型效果的变量增加一个惩罚向。
结论,如果单变量线性回归,则使用R-squared评估,多变量,则使用adjustedR-squared。
在单变量线性回归中,R-squared和adjustedR-squared是一致的。
另外,如果增加更多无意义的变量,则R-squared和adjustedR-squared之间的差距会越来越大,AdjustedR-squared会下降。但是如果加入的特征值是显著的,则adjustedR-squared也会上升。
使用predict()函数进行数据预测
语法:
predict(object,newdata)
object是已使用lm()函数创建的公式。
newdata是包含预测变量的新值的向量。
使用上面得到的方程式来预测
a<-data.frame(x=170) result<-predict(relation,a) print(result)
得到预测结果
1
76.22869
总结
到此这篇关于R语言如何进行线性回归拟合度的文章就介绍到这了,更多相关R语言线性回归拟合度内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。