欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    第9章EM算法及其推广解析ppt课件.ppt

    • 资源ID:2105533       资源大小:2.52MB        全文页数:26页
    • 资源格式: PPT        下载积分:16金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要16金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    第9章EM算法及其推广解析ppt课件.ppt

    第9章 EM算法及其推广,EM算法是一种迭代算法,1977年由Dempster 等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法(Expectation Maximization),简称EM算法。,极大似然估计,极大似然估计是概率论在统计学中的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次实验,观察其结果,利用结果推出参数的大概值。,极大似然估计,似然函数:已知样本集X,X是通过概率密度p(x|)抽取。样本集X中各个样本的联合概率:为了便于分析,由于L()是连乘的,还可以定义对数似然函数,将其变成连加的:,极大似然估计,求极值可以转换为以下方程:的极大似然估计量表示为:,9.1 EM算法的引入9.1.1EM算法9.1.2EM算法的导出9.1.3EM算法在非监督学习中的应用9.2 EM算法的收敛性,9.1.1 EM算法,例9.1(三硬币模型)假设有3枚硬币,分别记作A,B,C.这些硬币正面出现的概率分别是,p,q.进行如下掷硬币试验:先掷硬币A,根据其结果选出硬币B或硬币C,正面选硬币B,反面选硬币C;然后掷选出的硬币,掷硬币的结果,出现正面记作1,出现反面记作0;独立地重复n次试验(这里,n=10),观测结果如下:1,1,0,1,0,0,1,0,1,1假设只能观测到掷硬币的结果,不能观测掷硬币的过程。问如何估计三硬币正面出现的概率,即三硬币模型的参数。,解 三硬币模型可以写作y:观测变量,表示一次试验观测的结果是1或0z:隐变量,表示未观测到的掷硬币A的结果:=(,p,q)是模型参数,将观测数据表示为Y=(Y1,Y2,Yn)T,未观测数据表示为Z=(Z1,Z2,Zn)T,则观测数据的似然函数为即考虑求模型参数=(,p,q)的极大似然估计,即,EM算法首先选取参数的初值,记作,然后通过下面的步骤迭代计算参数的估计值,直至收敛为止。第i次迭代参数的估计值为。EM算法的第i+1次迭代如下E步:计算在模型参数 下观测数据yj 来自掷硬币B的概率那么观测数据yj 来自硬币C的概率为1-(i+1),M步:先写出期望然后分别求导,计算模型参数的新估计值,假设模型参数的初值取为由E步公式对yj=1与yj=0均有j(1)=0.5利用M步迭代公式,得到继续计算j(2)=0.5,j=1,2,10继续迭代,得于是得到模型参数的极大似然估计:EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值。如果取初值那么得到的模型参数的极大似然估计是,算法9.1(EM算法)输入:观测变量数据Y,隐变量数据Z,联合概率分布P(Y,Z|),条件概率分布P(Z,Y|);输出:模型参数.(1)选择参数的初值,开始迭代,参数的初值可以任意选择,但需注意EM算法对初值是敏感的;(2)E步:记 为第i次迭代参数的估计值,在第i+1次迭代得E步,计算这里,是在给定观测数据Y和当前的参数估计 下隐变量数据Z的条件概率分布.注意,的第一个变元表示要极大化的参数,第2个变元表示参数的当前估计值.每次迭代实际在求Q函数及其极大;,(3)M步:求使 极大化的,确定i+1次迭代得参数的估计值(4)重复第(2)步和第(3)步,直到收敛,这里给出停止迭代得条件,一般是对较小的正数,若满足则停止迭代.,定义9.1(Q函数)完全数据(观测变量数据Y和隐变量数据Z)的对数似然函数 关于在给定观测数据Y和当前参数 下对未观测数据Z的条件概率分布 的期望称为Q函数,即,9.1.2 EM算法的导出,琴生(Jensen)不等式如果f是凸函数,X是随机变量,那么Ef(X)f(EX)特别地,如果f是严格凸函数,Ef(X)f(EX)那么当且仅当p(x=EX)=1,也就是说X是常量。这里我们将f(EX)简写为f(EX)Jensen不等式应用于凹函数时,不等号方向反向,也就是 Ef(X)f(EX),下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清楚地看出EM算法的作用。假设在第i次迭代后的估计值是.我们希望新估计值能使L()增加,即L()L(),并逐步达到极大值.为此,考虑两者的差:,利用Jensen不等式得到其下界:令则,任何可以使 增大的,也可以使L()增大.为了使L()有尽可能大的增长,选择 使 达到极大,即现在求 的表达式.省去对的极大化而言是常数的项,有上式等价于EM算法的一次迭代,即求Q函数及其极大化.EM算法是通过不断求解下界的极大化逼近求解对数似然函数极大化的算法.,9.1.3 EM算法在非监督学习中的应用,有时训练数据只有输入没有对应的输出(x1,),(x2,),(xn,),从这样的数据学习模型称为非监督学习问题EM算法可以用于生产模型的非监督学习生成模型由联合概率分布P(X,Y)表示,可以认为非监督学习训练数据是联合概率分布产生的数据.X为观测数据,Y为未观测数据.,9.2 EM算法的收敛性,定理9.1 设P(Y|)为观测数据的似然函数,(i=1,2,)为EM算法得到的参数估计序列,则(i=1,2,)为对应的似然函数序列,则 是单调递增的,即,证明由于取对数有由令于是对数似然函数可以写成,只需证明右端为非负值即得出结果,由于使 达到极大,所以有其第二项,由得出,定理9.2 设L()=logP(Y|)为观测数据的对数似然函数,(i=1,2,)为EM算法得到的参数估计序列,(i=1,2,)为对应的对数似然函数序列.(1)如果 P(Y|)有上界,则收敛到某一值L*;(2)在函数 与 L()满足一定条件下,由EM算法得到的参数估计序列 的收敛值*是 L()的稳定点。定理9.2关于函数 与L()的条件在大多数情况下都是满足的.,EM算法的收敛性包含关于对数似然函数序列 的收敛性和关于参数估计序列 的收敛性两层意思,前者并不蕴含后者。定理只能保证参数估计序列收敛到对数似然函数序列的稳定点,不能保证收敛到极大值点。在实际应用中,初值的选择非常重要,常用的办法是选取几个不同的初值进行迭代,然后对得到的各个估计值加以比较,从中选择最好的。,

    注意事项

    本文(第9章EM算法及其推广解析ppt课件.ppt)为本站会员(牧羊曲112)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开