回归系数
统计学术语
回归系数(regression coefficient)在回归方程中表示自变量x 对因变量y 影响大小的参数。回归系数越大表示x 对y 影响越大,正回归系数表示y 随x 增大而增大,负回归系数表示y 随x增大而减小。例如回归方程式Y=bX+a中,斜率b称为回归系数,表示X每变动一单位,平均而言,Y将变动b单位。
回归系数
对于回归系数的解释,需要从线性回归模型当中来定义。
线性回归模型是一种特殊的线性模型。若变量y与变量的关系表示为,且
称f(x)为y对x的回归,f(x)称为回归函数。通常在正态分布情形,若f(x)是x的线性函数,此时称为线性回归,称为回归常数,称为回归系数(regression coefficient)。取y为n个观测,得观测值向量,表示为如下模型:
其中1是坐标全为1的向量,为n阶单位阵,记,且假定这个矩阵的秩为p+1,而记
这里β,σ2为未知参数,e(n×1)是随机向量。
最小二乘估计
回归系数的最小二乘估计(least square estimator of regression coefficient)简称LS估计。参数估计的一种方法。线性回归模型中,未知参数β的最小二乘估计为满足
的β。可知β是方程的解。此方程称为正规方程。由于线性回归模型中,X矩阵列满秩,故β可解除,记为。
显著性检验
回归系数显著性检验(significant test of regression coefficient)是检验某些回归系数是否为零的假设检验。考虑线性回归模型
不失一般性,可假定要检验后k个(1≤k≤p)回归系数是否为零,即。一般用F统计量
去检验,这里是上述模型的残差平方和,为假定后k个系数为零时(即少了k个自变量)的模型的残差平方和。用F检验有许多优良性,在这方面,中国统计学家许宝騄早期做了许多工作,后来美籍罗马尼亚数学家瓦尔德(Wald,A.)发展了他的工作。
理解
1、相关系数与回归系数:
A 回归系数大于零则相关系数大于零
B 回归系数小于零则相关系数小于零
(它们的取值符号相同)
2、回归系数:由回归方程求导数得到,
所以,回归系数>0,回归方程曲线单调递增;
回归系数<0,回归方程曲线单调递减;
回归系数=0,回归方程求最值(最大值、最小值)。
参考资料
最新修订时间:2024-04-03 16:45
目录
概述
回归系数
最小二乘估计
参考资料