统计学知识点-简单回归

简单回归

  1.相关分析:对两个变量之间线性关系的描述与度量,它要解决的问题包括

  § 变量之间是否存在关系?

  § 如果存在关系,它们之间是什么样的关系?

  § 变量之间的强度如何?

  § 样本所反映的变量之间的关系能否代表总体变量之间的关系?

  2.回归分析:从一组样本数据出发,确定变量之间的数学关系式;对这些关系式的可信程度进行各种统计检验,并从影响某一特定变量的诸多变量中找出哪些变量的影响显著,哪些不显著;利用所求的关系式,根据一个或几个变量的取值来预测或控制另一个特定变量的取值,并给出这种预测或控制的精确程度

  3.回归分析与相关分析的区别

  相关分析中,变量 x 变量 y 处于平等的地位;回归分析中,变量 y 称为因变量,处在被解释的地位,x 称为自变量,用于预测因变量的变化

  相关分析中所涉及的变量 x 和 y 都是随机变量;回归分析中,因变量 y 是随机变量,自变量 x 可以是随机变量,也可以是非随机的确定变量

  相关分析主要是描述两个变量之间线性关系的密切程度;回归分析不仅可以揭示变量 x 对变量 y 的影响大小,还可以由回归方程进行预测和控制

  4.一元线性回归模型

  描述因变量 y 如何依赖于自变量 x 和误差项e 的方程称为回归模型

  一元线性回归模型可表示为

  y = b0 +b1 x + e

  y 是 x 的线性函数(部分)加上误差项

  线性部分反映了由于 x 的变化而引起的 y 的变化

  误差项 e 是随机变量

  l 反映了除 x 和 y 之间的线性关系之外的随机因素对 y 的影响

  l 是不能由 x 和 y 之间的线性关系所解释的变异性

  b0 和 b1 称为模型的参数

  5.利用回归方程预测时应注意

  1. 在利用回归方程进行估计或预测时,不要用样本数据之外的x值去预测相对应的y值

  2. 因为在一元线性回归分析中,总是假定因变量y与自变量x之间的关系用线性模型表达是正确的。但实际应用中,它们之间的关系可能是某种曲线

  3. 此时我们总是要假定这条曲线只有一小段位于x测量值的范围之内。如果x的取值范围是在xL和xU之间,那么可以用所求出的利用回归方程对处于xL和xU之间的值来估计E(y)和预测y。如果用xL和xU之间以外的值得出的估计值和预测值就会很差

  6.离差平方和

  总平方和(SST)

  反映因变量的 n 个观察值与其均值的总离差

  回归平方和(SSR)

  反映自变量 x 的变化对因变量 y 取值变化的影响,或者说,是由于 x 与 y 之间的线性关系引起的 y 的取值变化,也称为可解释的平方和

  残差平方和(SSE)

  反映除 x 以外的其他因素对 y 取值的影响,也称为不可解释的平方和或剩余平方和

  7.估计标准误差

  实际观察值与回归估计值离差平方和的均方根(自由度n-2)

  反映实际观察值在回归直线周围的分散状况

  对误差项e的标准差s的估计,是在排除了x对y的线性影响后,y随机波动大小的一个估计量

  反映用估计的回归方程预测y时预测误差的大小


免责声明:本站所有的内容均来源于互联网采集或网友投稿提供,不能保证内容的真实性、完整性,仅供个人研究、交流学习使用,不涉及任何商业盈利目的。如果资料有误与官方发布不一致,请与官方最新发布为准,请联系本站管理员予以更改,如果涉及版权等问题,请联系本站管理员予以删除。
维权指引 | 权限说明 | 下载说明 | 内容投诉
考研云分享 » 统计学知识点-简单回归
您需要 登录账户 后才能发表评论

发表评论

欢迎 访客 发表评论

加入会员,每天进步一点点
·会员权限 ·加网盘群 ·加微信群