点估计(point estimation)是用
样本统计量来估计总体参数,因为样本统计量为数轴上某一点值,估计的结果也以一个点的数值表示,所以称为点估计。点估计和区间估计属于总体参数估计问题。何为总体参数统计,当在研究中从样本获得一组数据后,如何通过这组信息,对总体特征进行估计,也就是如何从局部结果推论总体的情况,称为总体参数估计。
基本介绍
由
样本数据估计
总体分布所含未知参数的
真值,所得到的值,称为
估计值。点估计的精确程度用
置信区间表示。
当母群的性质不清楚时,我们须利用某一量数作为估计数,以帮助了解母数的性质。如:
样本平均数乃是母群平均数μ的估计数。当我们只用一个特定的值,亦即数线上的一个点,作为估计值以估计母数时,就叫做点估计。
点估计目的是依据
样本X=(X1、X2…Xi)估计总体分布所含的未知参数θ或θ的函数g(θ)。一般θ或g(θ)是
总体的某个特征值,如
数学期望、
方差、
相关系数等。
点估计的常用方法有
矩估计法、顺序统计量法、
最大似然法、
最小二乘法等。
构造方法
点估计的方法,旨在用
样本矩的函数估计
总体矩的同一函数。
例如,若
总体分布服从正态分布:,其中μ是总体均值,是总体
方差,未知参数可记为θ=(μ,σ)。σ/μ(μ≠0)称为变异系数,它是总体的一阶原点矩(即均值)μ与二阶中心矩(即方差)的函数。设有样本X=(X1、X2…Xi),其一阶样本原点矩为,二阶样本中心矩为,而用估计 σ/μ,就是一个典型的矩估计方法。
估计法
(1)最大似然估计法
此法作为一种重要而普遍的点估计法,由英国统计学家R.A.费希尔在1912年提出。后来在他1921年和1925年的工作中又加以发展。设样本X=(X1,X2,…,Xn)的分布密度为L(X,θ),若固定X而将L视为θ的函数,则称为似然函数,当X是简单随机样本时,它等于ƒ(X1,θ)ƒ(X2,θ)…ƒ(Xn,θ),其中,ƒ(X,θ)是
总体分布的密度函数或概率函数(见概率分布)。一经得到
样本值x,就确定x,然后使用估计g(θ),这就是g(θ)的最大似然估计。例如,不难证明,前面为估计正态分布中的参数μ和而提出的估计量和2,就是μ和的最大似然估计。
(2)最小二乘估计法
这个重要的估计方法是由德国数学家C.F.高斯在1799~1809年和法国数学家A.-M.勒让德在1806年提出,并由俄国数学家Α.Α.马尔可夫在1900年加以发展。它主要用于线性统计模型中的参数估计问题。贝叶斯估计法是基于“贝叶斯学派”的观点而提出的估计法(见贝叶斯统计)。
参数估计
参数估计的一种形式。目的是依据
样本X=(X1、X2…Xn)估计
总体分布所含的未知参数θ或θ的函数g(θ)。一般θ或g(θ)是总体的某个特征值,如
数学期望、
方差、
相关系数(见
相关分析)等。θ或g(θ)通常取实数或k维实向量为值。点估计问题就是要构造一个只依赖于
样本X的量抭(X),作为g(θ)的
估计值。抭(X)称为g(θ)的估计量。因为k维实
向量可表为k维
欧几里得空间的一个点,故称这样的估计为点估计。
例如,设一批产品的废品率为θ,为估计θ,从这批产品中随机地抽出n个作检查,以X记其中的废品个数,用X/n估计θ,就是一个点估计。又如用
样本方差(见
统计量)估计
总体分布的方差,或用样本
相关系数估计总体分布的相关系数,都是常见的点估计。
优良准测
小样本优良性准则
可以用来估计g(θ)的估计量很多,于是产生了怎样选择一个优良估计量的问题。首先必须对“优良性”定出准则。这种准则不是惟一的,它可以根据问题的实际背景和理论上的方便进行选择。
优良性准则有两大类:一类是小
样本准则,即在样本大小固定时的优良性准则;另一类是大样本准则,即在样本大小趋于无穷时的优良性准则。最重要的小样本优良性准则是无偏性及与此相关的一致最小
方差无偏计。
若一个估计量抭(X)的
数学期望等于被估计的g(θ),即对一切θ,则称抭(X)为g(θ)的无偏估计,这种估计的特点是:在多次重复用时,抭(X)与g(θ)的偏差的算术平均值随使用次数的增加而趋于零。因此,无偏性只在重复使用中,并且各次误差能相互抵消时,才显出其意义。
无偏估计并不总是存在。例如,设
总体服从二项分布B(n,θ),0<;θ<1,则1/θ的无偏估计就不存在。有时,无偏估计虽然存在,但很不合理。在一些问题中,无偏估计有很多,它们的优良性由其
方差来衡量,方差愈小愈好。若一无偏估计的方差比任何别的无偏估计的方差都小,或至多相等,则称它为一致最小方差无偏估计。寻找一致最小方差无偏估计的一个普遍方法,是D.布莱克韦尔、E.L.莱曼和H.谢菲在1950年提出的,它基于
统计量的充分性与完全性的概念:设抭(X)是一个无偏估计,T是一个完全
充分统计量,则抭(X)在给定T时的条件期望就是一个一致最小方差无偏估计。克拉默-拉奥不等式是寻求一致最小方差无偏估计的另一重要工具,是由印度统计学家C.R.拉奥和
瑞典统计学家H.克拉默在1945年和1946年先后独立地证明的。当
样本的似然函数L(X,θ)满足一定条件时,则 g(θ)的任一无偏估计 抭(X)的
方差,对于一切θ满足不等式这个不等式的右边只与样本的分布及待估函数 g有关,而与抭(X)无关。通常称这个不等式为克拉默-拉奥不等式,或C-R不等式。它的右边给出了 g(θ)的无偏估计的方差的最小下界,称为克拉默-拉奥下界或C-R下界。因此,若某一无偏估计的方差达到上述C-R下界,则它必是一致最小方差无偏估计。C-R不等式在其他统计问题中也有应用。
在点估计问题中还使用其他一些小
样本准则,如容许性准则、最小化最大准则、最优同变准则(见统计决策理论)等。
大样本优良性准则
(1)相合性
若g(θ)的估计量 抭n(X1、X2…Xn)在n趋于无穷时,在某种收敛意义下(见概率论中的收敛)收敛于g(θ),则称抭n(X1,…,Xn)是 g(θ)的在这种收敛意义下的相合估计。这是点估计最基本的大
样本准则。例如依概率收敛意义下的相合性称为弱相合,几乎必然收敛意义下的相合性称为强相合。矩估计一般具有相合性。最大似然估计在一定条件下为强相合的证明始自A.瓦尔德1949年的工作,并在以后为许多学者所发展。线性统计模型中参数的最小二乘估计的强相合性研究始于20世纪60年代,-取得很大的进展。
(2)最优渐近正态估计
简称BAN估计。设X1、X2…Xn为从一
总体中随机独立地抽出的
样本,
总体分布具有密度函数或概率函数 ƒ(x,θ),满足一定的正则条件,设g(θ)为待估函数,记 式中称为费希尔信息量,若g(θ)的估计量为抭n(X1、X2…Xn),当n→时,依分布收敛于正态分布 N(0,v2(θ)),就称此估计量为g(θ)的 BAN估计。在g(θ)的一类渐近正态估计中,以这种估计的渐近
方差最小,故称为最优渐近正态估计。在一般条件下,最大似然估计是BAN估计。
(3)渐近有效估计
当
样本大小为n时,C-R不等式的右边(即C-R下界)就是 v2(θ)/n。在BAN估计定义中,并未要求估计量抭n(X1、X2…Xn)的方差存在,如果去掉渐近正态性的要求,而要求抭n(X1、X2…Xn)的方差存在且渐近于C-R下界,则得到克拉默于1946年定义的渐近有效估计的概念。不少情况下,BAN估计也是渐近有效估计。1960年印度统计学家R.R.巴哈杜尔提出另一种渐近有效性的概念,还可以用于假设检验问题。--日本统计学家竹内启又在两个方面发展了估计的渐近有效性概念:一是渐近分布不必是正态分布;二是收敛于渐近分布的阶不必是。
点估计理论是
数理统计学得到较多和较深入发展的一个方面。在小
样本方面,1955年C.施坦提出了一个反例,证明当维数大于2时,多维正态分布均值向量的通常估计(样本均值)在平方损失下不可容许。这个简单的但出乎意料的反例启发了关于点估计的容许性的一系列研究。在大
样本方面,值得提到的发展还有自适应估计、稳健估计及非
参数估计方面许多深入的结果。