回归系数(regression coefficient)在
回归方程中表示
自变量x 对
因变量y 影响大小的参数。回归系数越大表示x 对y 影响越大,正回归系数表示y 随x 增大而增大,负回归系数表示y 随x增大而减小。例如回归方程式Y=bX+a中,
斜率b称为回归系数,表示X每变动一单位,平均而言,Y将变动b单位。
称f(x)为y对x的回归,f(x)称为回归函数。通常在正态分布情形,若f(x)是x的线性函数,此时称为线性回归,称为回归常数,称为回归系数(regression coefficient)。取y为n个观测,得观测值向量,表示为如下模型:
回归系数的最小二乘估计(least square estimator of regression coefficient)简称LS估计。参数估计的一种方法。
线性回归模型中,未知参数β的最小二乘估计为满足
去检验,这里是上述模型的
残差平方和,为假定后k个系数为零时(即少了k个自变量)的模型的残差平方和。用
F检验有许多优良性,在这方面,中国统计学家许宝騄早期做了许多工作,后来美籍罗马尼亚数学家瓦尔德(Wald,A.)发展了他的工作。