在数理统计中,一般用子样观测值求出的统计量来估计总体*的一个未知参数,此统计量称为参数的估计量。子样一组观测值所对应估计量的值,称为参数的估计值。寻求所要估计参数的估计量,就是参数估计中的
点估计问题。有时也把参数的估计量,称为参数的点估计。估计量与估计值,常简称为
估计。点估计只能“估计”出参数的一个近似值,当利用同样的计算方法,若子样容量*较大时,近似程度较好。最大似然方法是一种常用的点估计方法。
定义
估计值亦称
估计量的实现,简称
估计,是指估计量的具体数值。在进行理论分析和一般性讨论时,未知参数θ的估计量作为随机样本的函数,是随机变量;在实际应用中,样本是一组统计数据(随机样本的实现——样本值),而估计量相应地取一具体值,即为θ 的估计值。
相关介绍
参数估计和测量平差都是利用有限个观测的数值,遵循一定的原则,对母体中的未知参数进行估求,并在这个过程中要求观测值的个数多于未知参数个数( 要有多余观测)。当然,观测值个数越多,估计就越准确。
在数理统计中,当母体分布函数的形式为已知,但它的分布函数中的一个或多个参数却是未知时,为了确定未知参数的值,就需要得到大量子样观测值,并用概率论对具有随机现象的观测值进行整理分析,从而去估计母体中未知参数的值,这个问题在数理统计中称为参数估计。
平差问题是由于有多余观测而产生的,无论何种平差方法,其最终目的都是对参数真值和观测值真值(或真误差)作出某种估计,并评定其精度。所谓评定精度,就是对未知量的方差和协方差作出估计,我们将这种对未知量数值大小的估计和对未知量方差协方差的估计统称为平差模型的参数估计。
在数理统计中,对未知参数的值进行估计的方法称为点估计( 也称定值估计)。设母体X的分布函数形式已知,如其中,参数(数学期望)、(方差)的真值或理论值未知,需对其进行估计。采用的方法为:通过独立抽样得到X的一组样本观测值(子样),再按照某种原则构成适当的函数并将子样观测值代人计算,最终对母体中的未知参数( 或 )的值的大小进行估计,求得估值。这种方法称为参数的点估计法。
综上所述,测量平差的实质就是参数估计。平差中对参数和观测值(或)的估计,就是点估计中对未知量的数学期望的估计;平差中对精度的估计,则是点估计中对方差和协方差的估计。在此应该强调:测量平差所遵循的基本原则,是最小二乘原则。最小二乘原则可认为是参数估计中最大似然原则的一种特殊情况,限于估计正态的母体均值。由最小二乘原得出白求平差模型参数的方法,称为“
最小二乘法”。最小二乘法最大的优点.就是在平差过程中可以抵御观测值含有的大量小误差的影响.从而得到未知量的无偏估值,且估值的方差最小。也就是说,当观测值中仅含有偶然误差时,用最小二乘法可得到未知量的最优估值。
估计值的最优性质
点估计的关键在于找到上面所提到的“按照某种原则构成的适当的函数”,从而去对未知参数进行估计。这样,“适当的函数”并不是唯一的,因此就构成了不同的点估计法,常用的方法有矩法、
最大似然法、子样中位数法、截尾法等。对于同一个参数,用不同的方法来估计可能得到不同的估计量,而未知量的最优估计量( 也称为最佳估计量)是估计量必须同时满足无偏性、一致性和有效性的要求。下面讨论这些性质的含意。
无偏性
,当满足
一致性
一致性是要求参数估计量依概率收敛于。即对于任意小的正数,有
其中,n为子样容量。此外,若同时满足
则称为的严格一致性估计量。严格一致性估计量一定是一致性估计量(有时证明某估计最满足严格一致性反而要比证明它满足一致性更方便一些)。
有效性
设是的两个无偏估计量,若
则称在估计时比更有效。
此外,在所有对同一参数的无偏估计量中。各估计量的方差有一个下限,称其为最小方差,所以,若有一无偏估计量,其方差满足D()- =0,则认为是的最有效估计量,称为最优估计量。
数理统计理论已经证明:具有无偏性、最优性的估计量必是一致性估计量,因此,在测量平差中,对参数估值的评选标准为最优和无偏,称为最优无偏估值。