回归分析只涉及两个变量的称一元回归分析。一元回归的主要目的是使用两个相关变量中的一个变量去估计另一个变量。被估计的变量称因变量,可设为Y;估计出的变量称自变量设为X。回归分析就是要找出一个数学模型Y=f(X),使得从X估计Y可以用一个函数式去计算。当Y=f(X)的形式是一个直线方程时,称为一元线性回归。这个方程一般可表示为Y=a+bX。由自变量X的值来预测因变量Y的值,这就是一元线性回归预测。因为Y还受除自变量以外的其他因素的影响,这些因素的影响大小和方向都是不确定的,通常用一个随机变量(记为ε)来表示,也称为随机扰动项。一元线性回归模型的基本假设如下:
●误差项ε是一个期望值为0的随机变量。
●对于所有的x值,ε的方差σ2都相同。
●误差项ε是一个服从正态分布的随机变量,且相互独立,即ε~N(0,σ2)。
如何确定方程式中的两个系数a和b呢?最理想的回归直线应该尽可能从整体来看,最接近各实际观测值,即散点图中各点到回归直线的垂直距离(因变量的实际值与相应的回归估计值的离差)整体最小。由于离差有正有负,正负会相互抵消,通常采用观测值与对应估计值之间的离差平方总和SSe来衡量全部数据总的离差大小,这种方法即为最小二乘法。
根据最小二乘法通过样本数据确定常数项a(回归直线在y轴上的截距,是当x=0时y的期望值)与回归系数b(直线的斜率,表示x每变动1个单位时y的平均变动值)的值后,有一个X的观测值,就可得到一个Y的估计值。在预测模型中,有无显著的相关关系以及样本的大小等都是影响回归方程可靠性的因素。回归方程是否可靠,估计的误差有多大,需要经过显著性检验和误差计算。(https://www.xing528.com)
回归方差的检验包括以下一些选项。
●拟合优度检验(R2):是1和因变量观测值与估计值之间的离差平方和比之间的差值,反应回归直线的拟合程度,取值范围在[0,1]之间,值越大说明拟合效果越好。
●回归方程的显著性检验:将回归离差平方和同剩余离差平方和比较,用F检验分析二者之间是否差别显著,如果显著说明两个变量之间存在线性关系。H0假设为两个变量之间没有线性关系。
●回归系数显著性t检验:判断单个自变量Xi对Y是否有明显影响。原假设H0为自变量Xi对因变量Y的线性效果不显著。
●注意:对于一元线性回归上述F检验和t检验是等价的,对于多元线性回归,这两种检验是不等价(在多元线性回归中可能某个自变量回归系数t检验不显著,但模型整体F检验仍然可能显著,故需要进行自变量剔除)。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。
