七章特征选择.ppt
《七章特征选择.ppt》由会员分享,可在线阅读,更多相关《七章特征选择.ppt(41页珍藏版)》请在三一办公上搜索。
1、第七章 特征选择,王文伟 Wang Wenwei,Dr.-Ing.Tel:18971562600Email:Web:http:/,电子信息学院,IPL,模式识别与机器学习Pattern Recognition And Machine Learning,Table of Contents,电子信息学院,7.1 基本概念,特征的选择与提取是模式识别中重要而困难的一个环节:分析各种特征的有效性并选出最具可分性的若干特征是模式识别系统设计的关键步骤。降低特征维数在很多情况下是有效设计分类器的重要课题。讨论的重点是从一组给定的特征中选择一部分特征进行分类。,引言,数据获取,预处理,特征提取与选择,分类决
2、策,分类器设计,信号空间,特征空间,x,a,7.1.1 三大类特征,三大类特征:物理、结构和数学特征物理和结构特征:易于为人的直觉感知,但有时难于定量描述,因而不易用于机器判别。数学特征:易于用机器定量描述和判别,如基于统计的特征。讨论的重点是根据学习样本来选择和提取数学特征,而物理和结构特征的测量与分析涉及研究对象本身的物理规律。,引言,一个例子:鱼的分拣,两类鱼Sea bassSalmonPattern Classification,2001,引言,特征1:长度,特征2:亮度,模式分类:线性、二次、最近邻分类器,7.1.2 有关特征的基本概念,特征形成(acquisition):信号获取或
3、测量原始测量,其值域称为测量空间:对象表示x=测量空间的点原始特征:通过基本计算产生基本特征y实例:数字图象中的各像素灰度值人体的各种生理指标原始测量和原始特征分析:原始测量往往不能反映对象(类别)本质。高维原始特征不利于分类器设计:计算量大,数据冗余,样本分布十分稀疏。,引言,特征的选择与提取,两类提取有效信息、压缩特征空间的方法:特征选择和特征提取特征选择(selection):从原始特征中挑选出一些最有代表性、分类性能最好的特征。特征提取(extraction):用映射(或变换)的方法把高维原始特征变换为较少的新特征。特征的选择与提取与具体问题有很大关系,目前没有理论能给出对任何问题都有
4、效的特征选择与提取方法。,引言,特征的选择与提取举例,细胞图像自动分类:原始测量:(正常与异常)细胞的数字图像原始特征(特征的形成,找到一组代表细胞性质的特征):细胞面积,胞核面积,形状系数,光密度,核内纹理,核浆比 等等压缩特征:原始特征的维数仍很高,需压缩以便于分类特征选择:挑选最有分类信息的特征,方法有:专家知识,数学方法特征提取:数学变换傅立叶变换或小波变换用PCA方法作特征压缩,引言,7.2 特征的评价准则,两大类评价特征优劣的方法:Wrapper方法:将特征选择和分类器性能结合在一起,在分类过程中表现优异的的特征子集会被选中为最优特征子集。Filter方法:不考虑所使用的分类器。根
5、据独立于分类器的指标J来评价所选择的特征子集S,在所有可能的特征子集中搜索出使得J最大的特征子集作为最优特征子集。特征有效性=类别可分离性Jij(x)判据:根据Jij(x)衡量不同特征及其组合对分类是否有效的定量准则,实用类别可分离性判据,实际的类别可分离性判据应满足的条件:与错误率或其上下界有单调关系度量特性:当特征独立时有可加性:单调性:常见类别可分离性判据:基于类内类间距离基于概率分布基于熵函数,7.2.1 基于类内类间距离的可分性判据,类间可分性:=不同类任意两两样本间的平均距离,(7-1),squared Euclidian,(7-5),类内平均距离,类间距离,(7-6),可分性判据
6、,基于距离的可分性判据的矩阵形式,基于距离的准则概念直观,计算方便,但与错误率没有直接联系,样本类间离散度矩阵,样本类内离散度矩阵,类间可分离性判据,可分性判据,特征可分性评价判据,可分性判据,FEATEVAL Evaluation of feature set for classificationJ=FEATEVAL(A,CRIT,T)J=FEATEVAL(A,CRIT,N)A input dataset CRIT string name of a method or untrained mapping T validation dataset(optional)N number of cr
7、oss-validations(optional)DESCRIPTION Evaluation of features by the criterion CRIT for classification,using objects in the dataset A.The larger J,the better.Resulting J-values are incomparable over the various methods.,7.2.2 基于概率的可分性判据,基于概率的可分性判据:用概率密度函数间的距离(交叠程度)来度量类别可分性。,可分性判据,散度,散度:区分i,j两类的总的平均可分性
8、信息,可分性判据,对数似然比,对第i类的平均可分性信息,正态分布条件下的散度,正态分布条件下的散度判据可以用分布参数表示,特别是,一维正态分布:,Mahalanobis距离,可分性判据,7.2.3 基于熵函数的可分性判据,熵函数:衡量后验概率分布的集中程度。后验概率越集中,就越有利于分类。,Shannon熵:,平方熵:,熵函数期望表征类别的分离程度:,可分性判据,熵越小,关于类别的不确定性就越小,可分性越好,7.2.4 类别可分离性判据应用举例,图像分割:灰度图像二值化,Otsu阈值算法(Otsu thresholding)。图像有L阶灰度,ni是灰度为i的像素数,图像总像素数 N=n1+n2
9、+nL灰度为i的像素概率:pi=ni/N类间方差:,可分性判据,Otsu thresholding,灰度图像的最佳阈值:,灰度图像二值化Otsu算法演示及程序分析:,可分性判据,特征选择:=从原始特征中挑选出一些最有代表性、分类性能最好的特征进行分类。从D个特征中选取d个,共有CdD种组合。若不限定特征个数d,则共有2D种组合。典型的组合优化问题要解决两个问题:选择的标准:可分离性判据快速寻优算法vs.穷举法,7.3 特征选择方法,从是否直接考虑分类器性能看Wrapper方法:将特征选择和分类器结合在一起,在分类过程中表现优异的的特征子集会被选作最优特征子集。Filter方法:不考虑所使用的分
10、类器。根据独立于分类器的指标J来评价所选择的特征子集S,在所有可能的特征子集中搜索出使得J最大的特征子集作为最优特征子集。从选择特征的顺序看:自下而上:特征数从零逐步增加到d。自上而下:特征数从D开始逐步减少到d。,特征选择的方法分类,经典特征选择算法,许多特征选择算法力求解决搜索问题,经典算法有:分支定界法:最优搜索,设法将所有可能特征组合构建一个树状结构,尽可能早达到最优解,而不必遍历整个树,效率比盲目穷举法高。次优搜索:单独最优特征组合法:顺序前进法顺序后退法其他组合优化方法:模拟退火法Tabu搜索法遗传算法,特征选择,7.4 特征选择的次优算法,单独最优特征组合法顺序前进法顺序后退法,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 特征 选择
链接地址:https://www.31ppt.com/p-5347451.html