武汉大学电子信息学院.ppt
,武汉大学电子信息学院,IPL,第三章 概率密度密度的估计,模式识别理论及应用Pattern Recognition-Methods and Application,内容目录,IPL,第三章 概率密度密度的估计,3.1 引言,2,1,3,4,3.2 参数估计,3.3 非参数估计,3.4 讨论,第三章概率密度密度的估计,3,3.1 引言,基于样本的Bayes分类器:通过估计类条件概率密度函数,设计相应的判别函数,最一般情况下适用的“最优”分类器:错误率最小,对分类器设计在理论上有指导意义。获取统计分布及其参数很困难,实际问题中并不一定具备获取准确统计分布的条件。,分类器功能结构,第三章概率密度密度的估计,4,直接确定判别函数,基于样本的直接确定判别函数方法:针对各种不同的情况,使用不同的准则函数,设计出满足这些不同准则要求的分类器。这些准则的“最优”并不一定与错误率最小相一致:次优分类器。实例:正态分布最小错误率贝叶斯分类器在特殊情况下,是线性判别函数g(x)=wTx(决策面是超平面),能否基于样本直接确定w?,引言,第三章概率密度密度的估计,5,基于样本的Bayes分类器设计,Bayes决策需要已知两种知识:各类的先验概率P(i)各类的条件概率密度函数p(x|i),知识的来源:对问题的一般性认识或一些训练数据基于样本的两步Bayes分类器设计:利用样本集估计P(i)和p(x|i)基于上述估计值设计判别函数及分类器面临的问题:如何利用样本集进行估计估计量的评价,第三章概率密度密度的估计,6,概率密度估计的方法,类的先验概率的估计:用训练数据中各类出现的频率估计依靠经验类条件概率密度估计的两种主要方法:参数估计:概率密度函数的形式已知,而表征函数的参数未知,通过训练数据来估计最大似然估计Bayes估计非参数估计:密度函数的形式未知,也不作假设,利用训练数据直接对概率密度进行估计Parzen窗法kn-近邻法,引言,第三章概率密度密度的估计,7,3.2 参数估计,统计量:样本集的某种函数f(K)参数空间:总体分布的未知参数所有可能取值组成的集合(),点估计的估计量和估计值:,第三章概率密度密度的估计,8,估计量的评价标准,估计量的评价标准:无偏性,有效性,一致性无偏性:E()=有效性:D()小,更有效一致性:样本数趋于无穷时,依概率趋于:,第三章概率密度密度的估计,9,3.2.1 最大似然估计,Maximum Likelihood(ML)样本集可按类别分开,不同类别的密度函数的参数分别用各类的样本集来训练。概率密度函数的形式已知,参数未知,为了描述概率密度函数p(x|i)与参数的依赖关系,用p(x|i,)表示。估计的参数是确定而未知的,Bayes估计方法则视为随机变量。独立地按概率密度p(x|)抽取样本集K=x1,x2,xN,用K估计未知参数,第三章概率密度密度的估计,10,似然函数,似然函数:,对数(loglarized)似然函数:,最大似然估计,第三章概率密度密度的估计,11,最大似然估计,最大似然估计,第三章概率密度密度的估计,12,最大似然估计示意图,最大似然估计,第三章概率密度密度的估计,13,计算方法,最大似然估计量使似然函数梯度为0:,最大似然估计,第三章概率密度密度的估计,14,一元正态分布例解,最大似然估计,第三章概率密度密度的估计,15,一元正态分布均值的估计,最大似然估计,第三章概率密度密度的估计,16,一元正态分布方差的估计,最大似然估计,第三章概率密度密度的估计,17,多元正态分布参数最大似然估计,均值估计是无偏的,协方差矩阵估计是有偏的。协方差矩阵的无偏估计是:,最大似然估计,第三章概率密度密度的估计,18,3.2.2 贝叶斯估计-最大后验概率,用一组样本集K=x1,x2,xN估计未知参数未知参数视为随机变量,先验分布为 p(),而在已知样本集K出现的条件下的后验概率为:p(|K)最大后验概率估计-Maximum a posteriori(MAP),第三章概率密度密度的估计,19,贝叶斯估计-最小风险,参数估计的条件风险:给定x条件下,估计量的期望损失,参数估计的风险:估计量的条件风险的期望,贝叶斯估计:使风险最小的估计,贝叶斯估计,第三章概率密度密度的估计,20,贝叶斯估计,损失函数:误差平方,贝叶斯估计,定理 3.1:如果定义损失函数为误差平方函数,则有:,第三章概率密度密度的估计,21,贝叶斯估计的步骤,贝叶斯估计,确定的先验分布 p()由样本集K=x1,x2,xN求出样本联合分布:p(K|)计算的后验分布计算贝叶斯估计,第三章概率密度密度的估计,22,一元正态分布例解,总体分布密度为:,贝叶斯估计,均值未知,的先验分布为:,用贝叶斯估计方法求的估计量,样本集:K=x1,x2,xN,第三章概率密度密度的估计,23,一元正态分布例解,计算的后验分布:,贝叶斯估计,计算的贝叶斯估计:,第三章概率密度密度的估计,24,贝叶斯学习,贝叶斯学习:利用的先验分布 p()及样本提供的信息求出的后验分布p(|K),然后直接求总体分布,贝叶斯学习,第三章概率密度密度的估计,25,一元正态分布例解,总体分布密度为:,贝叶斯学习,均值未知,的先验分布为:样本集:K=x1,x2,xN,计算的后验分布:,第三章概率密度密度的估计,26,一元正态分布例解,直接计算总体密度:,贝叶斯学习,第三章概率密度密度的估计,27,3.2.3 混合高斯模型,Mixed gaussian distribution密度函数具有如下形式:正态模型的线性组合,需估计的参数:,参数估计,采用迭代法进行参数估计,第三章概率密度密度的估计,28,3.3 非参数估计,非参数估计:密度函数的形式未知,也不作假设,利用训练数据直接对概率密度进行估计。又称作模型无关方法。参数估计需要事先假定一种分布函数,利用样本数据估计其参数。又称作基于模型的方法两种主要方法:核函数方法Parzen窗法kN-近邻法神经网络方法:PNN,第三章概率密度密度的估计,29,3.3.1 核函数方法,估计的目的:从样本集K=x1,x2,xN估计样本空间中任何一点的概率密度p(x)基本方法:用某种核函数构造某一样本对待估计的密度函数的贡献,所有样本所作贡献的线性组合视作对某点概率密度p(x)的估计,非参数估计,第三章概率密度密度的估计,30,核函数方法图解,非参数估计,第三章概率密度密度的估计,31,基本方法,基本思想:,两种常用的方法:Parzen窗法:kN-近邻法:,非参数估计,第三章概率密度密度的估计,32,3.3.2 Parzen窗法,样本集KN=x1,x2,xN区域RN是一个d维超立方体,棱长hN,体积VN=hNd定义窗函数:,超立方体内样本数:某点概率密度p(x)的估计,非参数估计,第三章概率密度密度的估计,33,核函数的选择,核函数需满足归一化条件:,两种常用的核函数:均匀核:正态核:,非参数估计,第三章概率密度密度的估计,34,窗宽的选择,hN是控制“窗”宽度的参数,根据样本的数量选择。太大:平均,分辨力低太小:统计变动大为保证依概率渐进收敛到真实的概率密度,即:,收敛的充要条件:,非参数估计,第三章概率密度密度的估计,35,不同窗宽的估计效果,非参数估计,第三章概率密度密度的估计,36,Parzen窗法示例,非参数估计,第三章概率密度密度的估计,37,有限样本的影响,均方误差最小(MSE)准则,维数灾难(Curse of Dimensionality):当维数较高时,样本数量无法达到精确估计的要求。,非参数估计,第三章概率密度密度的估计,38,3.3.3 kN-近邻法,均匀核函数Parzen估计,窗宽固定,不同位置落在窗内的样本点的数目是变化的。kN-近邻估计:把窗扩大到刚好覆盖kN个点。落在窗内的样本点的数目固定,窗宽是变化的。kN根据样本总数N选择。概率密度估计表达式:点x处窗的“体积”是Vn:,非参数估计,第三章概率密度密度的估计,39,kN-近邻法举例,kN的选择:渐进收敛容易保证;有限样本性质、最小平方误差与Parzen窗几乎相同,非参数估计,第三章概率密度密度的估计,40,3.4 讨论,高维概率分布的估计无论在理论上还是实际操作中都是一个十分困难的问题。概率密度函数包含了随机变量的全部信息,是导致估计困难的重要原因。进行模式识别并不需要利用概率密度的所有信息,只需要求出分类面。先估计概率密度,再进行分类,可能走了“弯路”。,第三章概率密度密度的估计,41,习题,一元正态分布的最大似然估计:假设样本x服从正态分布N(,2)已获得一组样本 x1,x2,xN 用C/Java语言设计一程序片断,计算上题中的估计参数(,2)试简述参数估计,非参数估计和非参数分类器等概念间的关系证明对正态总体的期望u的最大似然估计是无偏的,对方差s2的最大似然估计是有偏的。,