马尔科夫蒙特卡洛(Markov chain Monte Carlo,MCMC)方法(含
随机游走蒙特卡洛方法)是一组用
马氏链从随机分布取样的算法,之前步骤的作为底本。步数越多,结果越好。创建一个具有期望属性的马氏链并非难事,难的是如何决定通过多少步可以达到在许可误差内的稳定分布。一个好的马氏链具有快速混合,从开始阶段迅速获得的一个稳定状态。
MCMC方法是使用马尔科夫链的蒙特卡罗积分,其基本思想是:构造一条
Markov链使其平稳分布为待估参数的后验分布,通过这条
马尔科夫链产生后验分布的样本,并基于马尔科夫链达到平稳分布时的样本(有效样本)进行蒙特卡罗积分。因于初始样本,最常见的MCMC取样只能近似得到分布。复杂的MCMC改进算法如过往耦合,但是会消耗更多的计算资源和时间。典型用法是模拟一个随机行走的行人来进行路径优化等。每一步都算作是一个状态。而统计经过次数最多的地方将在下一步中更有可能为目的地。MCMC 算法收敛性特征为全局性最小,对应的线性最小二乘法则容易在局部收敛情况下停滞或者由于非线性问题收敛缓慢,同时大量的应用表明 MCMC 方法明显优于线性模型。
马氏蒙特卡洛方法是一种结合了
蒙特卡罗法的解决方案。但不同于以往的蒙特卡洛integration是统计独立的,MCMC中的是统计相关的。在采用MCMC方法时马尔科夫链转移核的构造至关重要,不同的转移核构造方法将产生不同的MCMC方法,常用的MCMC方法主要有两种Gibbs抽样和Metropo-Lis-Hastings算法。MCMC已经被广泛地应用于统计分析图像处理、信号处理、金融分析等领域。
吉布斯采样(英语:Gibbs sampling)是统计学中用于马尔科夫蒙特卡洛(MCMC)的一种算法,用于在难以直接采样时从某一多变量概率分布中近似抽取样本序列。该序列可用于近似联合分布、部分变量的边缘分布或计算积分(如某一变量的期望值)。某些变量可能为已知变量,故对这些变量并不需要采样。吉布斯采样常用于统计推断(尤其是贝叶斯推断)之中。这是一种
随机化算法,与最大期望算法等统计推断中的确定性算法相区别。与其他MCMC算法一样,吉布斯采样从
马尔科夫链中抽取样本,可以看作是Metropolis–Hastings算法的特例。该算法的名称源于约西亚·威拉德·吉布斯,由斯图尔特·杰曼与唐纳德·杰曼兄弟于1984年提出。吉布斯采样适用于条件分布比边缘分布更容易采样的多变量分布。假设我们需要从联合分布中抽取的个样本。记第个样本为。吉布斯采样的过程则为:
假设已得到样本,记下一个样本为。于是可将其看作一个向量,对其中某一分量,可通过在其他分量已知的条件下该分量的概率分布来抽取该分量。对于此条件概率,我们使用样本中已得到的分量到以及上一样本中的分量到,即。
在采样完成后,我们可以用这些样本来近似所有变量的联合分布。如果仅考虑其中部分变量,则可以得到这些变量的边缘分布。此外,我们还可以对所有样本求某一变量的平均值来估计该变量的期望。
梅特罗波利斯-黑斯廷斯算法(Metropolis–Hastings algorithm)是统计学与统计物理中的一种马尔科夫蒙特卡洛(MCMC)方法,用于在难以直接采样时从某一概率分布中抽取随机样本序列。得到的序列可用于估计该概率分布或计算积分(如期望值)等。梅特罗波利斯-黑斯廷斯或其他MCMC算法一般用于从多变量(尤其是高维)分布中采样。对于单变量分布而言,常会使用自适应判别采样(adaptive rejection sampling)等其他能抽取独立样本的方法,而不会出现MCMC中样本自相关的问题。该算法的名称源于美国物理学家尼古拉斯·梅特罗波利斯与加拿大统计学家W·K·黑斯廷斯。
马尔可夫链,因安德烈·马尔可夫(A.A.Markov,1856-1922)得名,是指数学中具有
马尔可夫性质的离散事件随机过程。该过程中,在给定当前知识或信息的情况下,过去(即当前以前的历史状态)对于预测将来(即当前以后的未来状态)是无关的。
在
马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。随机漫步就是马尔可夫链的例子。随机漫步中每一步的状态是在图形中的点,每一步可以移动到任何一个相邻的点,在这里移动到每一个点的概率都是相同的(无论之前漫步路径是如何的)。马尔可夫在1906年首先做出了这类过程。而将此一般化到可数无限状态空间是由柯尔莫果洛夫在1936年给出的。
马尔可夫链通常用来建模排队理论和统计学中的建模,还可作为信号模型用于熵编码技术,如算术编码(著名的LZMA数据压缩算法就使用了马尔可夫链与类似于算术编码的区间编码)。马尔可夫链也有众多的生物学应用,特别是人口过程,可以帮助模拟生物人口过程的建模。隐蔽
马尔可夫模型还被用于生物信息学,用以编码区域或基因预测。