族谱网 头条 人物百科

最大期望算法

2017-10-16
出处:族谱网
作者:阿族小谱
浏览:863
转发:0
评论:0
历史最大期望值算法由ArthurDempster,NanLaird和DonaldRubin在他们1977年发表的经典论文中提出。他们指出此方法之前其实已经被很多作者"在他们特定的研究领域中多

历史

最大期望值算法由Arthur Dempster,Nan Laird和Donald Rubin在他们1977年发表的经典论文中提出。他们指出此方法之前其实已经被很多作者"在他们特定的研究领域中多次提出过"。

EM简单教程

EM是一个在已知部分相关变量的情况下,估计未知变量的迭代技术。EM的算法流程如下:

初始化分布参数

重复直到收敛:

最大期望过程说明

我们用y{\displaystyle {\textbf {y}}}表示能够观察到的不完整的变量值,用x{\displaystyle {\textbf {x}}}表示无法观察到的变量值,这样x{\displaystyle {\textbf {x}}}和y{\displaystyle {\textbf {y}}}一起组成了完整的数据。x{\displaystyle {\textbf {x}}}可能是实际测量丢失的数据,也可能是能够简化问题的隐藏变量,如果它的值能够知道的话。例如,在混合模型(Mixture Model)中,如果“产生”样本的混合元素成分已知的话最大似然公式将变得更加便利(参见下面的例子)。

估计无法观测的数据

让p{\displaystyle p\,}代表矢量θ θ -->{\displaystyle \theta }: p(y,x|θ θ -->){\displaystyle p(\mathbf {y} ,\mathbf {x} |\theta )}定义的参数概率分布据的概率分布(连续情况下)或者概率聚类函数(离散情况下),那么从这个函数就可以得到全部数据的最大似然值,另外,在给定的观察到的数据条件下未知数据的条件分布可以表示为:

参见

估计理论

数据聚类

参考文献

Arthur Dempster, Nan Laird, and Donald Rubin. "Maximum likelihood from incomplete data via the EM algorithm". Journal of the Royal Statistical Society, Series B, 39 (1):1–38, 1977[1].

Robert Hogg, Joseph McKean and Allen Craig. Introduction to Mathematical Statistics. pp. 359-364. Upper Saddle River, NJ: Pearson Prentice Hall, 2005.

Radford Neal, Geoffrey Hinton. "A view of the EM algorithm that justifies incremental, sparse, and other variants". In Michael I. Jordan (editor), Learning in Graphical Models pp 355-368. Cambridge, MA: MIT Press, 1999.

The on-line textbook: Information Theory, Inference, and Learning Algorithms,by David J.C. MacKay includes simple examples of the E-M algorithm such as clustering using the soft K-means algorithm, and emphasizes the variational view of the E-M algorithm.

A Gentle Tutorial of the EM Algorithm and its Application to Parameter Estimation for Gaussian Mixture and Hidden Markov Models,by J. Bilmes includes a simplified derivation of the EM equations for Gaussian Mixtures and Gaussian Mixture Hidden Markov Models.

Information Geometry of the EM and em Algorithms for Neural Networks,by Shun-Ichi Amari give a view of EM algorithm from geometry view point.


免责声明:以上内容版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。感谢每一位辛勤著写的作者,感谢每一位的分享。

——— 没有了 ———
编辑:阿族小谱

更多文章

更多精彩文章
评论 {{commentTotal}} 文明上网理性发言,请遵守《新闻评论服务协议》
游客
发表评论
  • {{item.userName}} 举报

    {{item.content}}

    {{item.time}} {{item.replyListShow ? '收起' : '展开'}}评论 {{curReplyId == item.id ? '取消回复' : '回复'}}

    回复评论
加载更多评论
打赏作者
“感谢您的打赏,我会更努力的创作”
— 请选择您要打赏的金额 —
{{item.label}}
{{item.label}}
打赏成功!
“感谢您的打赏,我会更努力的创作”
返回
打赏
私信

推荐阅读

· 期望值
数学定义如果X是在概率空间(Ω,P)中的随机变量,那么它的期望值E[X]的定义是:并不是每一个随机变量都有期望值的,因为有的时候这个积分不存在。如果两个随机变量的分布相同,则它们的期望值也相同。如果X是离散的随机变量,输出值为x1,x2,...,和输出值相应的概率为p1,p2,...(概率和为1)。若级数∑∑-->i⁡⁡-->pixi{\displaystyle\operatorname{\sum}_{i}p_{i}x_{i}}"绝对收敛,那么期望值E[X]是一个无限数列的和。上面赌博的例子就是用这种方法求出期望值的。如果X是连续的随机变量,存在一个相应的概率密度函数f(x),若积分∫∫-->−−-->∞∞-->∞∞-->xf(x)dx{\displaystyle\int_{-\infty}^{\infty}xf(x)\,dx}绝对收敛,那么X的期望值可以计算为:是针对于连续的随机变量的,...
· 算法
历史算法在中国古代文献中称为“术”,最早出现在《周髀算经》、《九章算术》。特别是《九章算术》,给出四则运算、最大公约数、最小公倍数、开平方根、开立方根、求素数的埃拉托斯特尼筛法,线性方程组求解的算法。三国时代的刘徽给出求圆周率的算法:刘徽割圆术。自唐代以来,历代更有许多专门论述“算法”的专著:唐代:《一位算法》一卷,《算法》一卷;宋代:《算法绪论》一卷、《算法秘诀》一卷;最著名的是杨辉的《杨辉算法》;元代:《丁巨算法》;明代:程大位《算法统宗》清代:《开平算法》、《算法一得》、《算法全书》。而英文名称“Algorithm”来自于9世纪波斯数学家花拉子米(比阿勒·霍瓦里松,波斯语:خوارزمی‎,拉丁转写:al-Khwarizmi),因为比阿勒·霍瓦里松在数学上提出了算法这个概念。“算法”原为“algorism”,即“al-Khwarizmi”的音转,意思是“花拉子米”的运算法则,在18世...
· 期望理论
理论内容激励(motivation)取决于行动结果的价值评价(valence)和其对应的期望值(expectancy)的乘积:M=VxE该理论引出了调动人们工作积极性的三个条件:努力与绩效的关系绩效与奖励的关系奖励与满足个人需要的关系批评爱德华·劳勒、莱曼·波特的期望激励理论参看工作特征模型增强理论参考文献^Denhardt,RobertB.ManaginghumanbehaviorinPublicandNon-profitorganizations.California,U.S.A:SAGEPublications,Inc.:152.ISBN9781412956673(英语).
· Paxos算法
问题和假设分布式系统中的节点通信存在两种模型:共享内存(Sharedmemory)和消息传递(Messagespassing)。基于消息传递通信模型的分布式系统,不可避免的会发生以下错误:进程可能会慢、被杀死或者重启,消息可能会延迟、丢失、重复,在基础Paxos场景中,先不考虑可能出现消息篡改即拜占庭错误的情况。Paxos算法解决的问题是在一个可能发生上述异常的分布式系统中如何就某个值达成一致,保证不论发生以上任何异常,都不会破坏决议的一致性。一个典型的场景是,在一个分布式数据库系统中,如果各节点的初始状态一致,每个节点都执行相同的操作序列,那么他们最后能得到一个一致的状态。为保证每个节点执行相同的命令序列,需要在每一条指令上执行一个“一致性算法”以保证每个节点看到的指令一致。一个通用的一致性算法可以应用在许多场景中,是分布式计算中的重要问题。因此从20世纪80年代起对于一致性算法的研究就...
· CYK算法
相关参数定义G=(V,ΣΣ-->,S,P){\displaystyle~G=(V,\Sigma,S,P)}是一个上下文无关文法对于任意字符串w=σσ-->1...σσ-->n∈∈-->ΣΣ-->∗∗-->{\displaystylew=\sigma_{1}...\sigma_{n}\in\Sigma^{*}},定义w[i,j]=σσ-->i...σσ-->j,1≤≤-->i≤≤-->j≤≤-->n{\displaystylew[i,j]=\sigma_{i}...\sigma_{j},~1\leqi\leqj\leqn}对于任意选择的i,j{\displaystyle~i,j},定义Vi,j={X∈∈-->V|X⇒⇒-->∗∗-->w[i,j]}{\displaystyleV_{i,j}=\{X\inV~|...

关于我们

关注族谱网 微信公众号,每日及时查看相关推荐,订阅互动等。

APP下载

下载族谱APP 微信公众号,每日及时查看
扫一扫添加客服微信