机器学习与数据挖掘特征选择与降维分析ppt课件.ppt
《机器学习与数据挖掘特征选择与降维分析ppt课件.ppt》由会员分享,可在线阅读,更多相关《机器学习与数据挖掘特征选择与降维分析ppt课件.ppt(39页珍藏版)》请在三一办公上搜索。
1、机器学习与数据挖掘,特征选择与特征降维,维数灾难,Curse of Dimensionality随着维数的增加,特征空间的体积指数增加,从而导致各方面的成本指数增加样本数量存储空间计算量图灵可计算问题:多项式复杂度涉及高维空间的算法是不可计算的!?,维数灾难,维数灾难的几个表现空间采样,0,1,1维:4,2维:4*4=16,10维:410=1048576,Monte Carlo:,40,160,10M,维数灾难,维数灾难的几个表现索引困难,0,1,1,1,立方体体积,球体积,1,比例,100%,/4,78.5%,1,0.25%,维数灾难,维数灾难的几个表现样本稀疏总样本:1000每维划分:41
2、维:1000/4 = 250 样本/区间2维:1000/(4*4)= 62.5 样本/区间10维:1000/(410)= 0.001 样本/区间,维数灾难,维数灾难的几个表现噪声影响特征空间:101维正负样本在第一维的距离:1样本在其余维的噪声:10%“噪声距离”:即使噪声只有10%,高维空间的“噪声距离”足以掩盖正负样本的本质区别,维数灾难,高维空间的奇异特性,克莱因瓶Klein bottle,莫比乌斯带Mbius strip,N维单位超球的表面积(http:/,维数灾难,数学理论偏好较低维数的空间要在特征空间进行合理密度的采样,特征维数超过5都是非常困难的实际问题偏好较高维数的空间问题的复
3、杂性特征的完备性特征降维,维数灾难,更多的特征可能导致分类性能反而下降,Yiming Yang and Jan Pedersen“A comparative study on feature selection in text categorization”.,维数灾难,特征降维的途径去除无用特征特征的必要性:不必要的特征对训练无用特征选择去除相关分量特征的相关性:相关的多个特征可以变换成较少的不相关分量特征变换/特征降维,特征选择,从整个特征集中选择最有效的子集如何评价特征“有效性”?互信息量, 测试,如何决定阈值?指定维数指定“有效性”指标指定性能增量式、减量式性能评价,特征选择,特征有效
4、性评价从概率论的角度协方差两个随机变量不相关:协方差为0随机变量相关度与协方差正相关问题:协方差是两个变量的总方差如果某变量方差大,则协方差也大,特征,目标函数,特征选择,特征有效性评价从概率论的角度相关系数(归一化协方差)值域范围:-1, +1绝对值越大,相关性越大一般使用其平方作为特征选择指标,标准差,特征选择,特征有效性评价从数理统计的角度(假设检验) 测试T测试自己翻课本查公式与相关系数在理论上非常接近,但更偏重于有限样本下的估计,特征选择,特征有效性评价从信息论角度把机器学习过程看做通信特征是编码目标函数是信息特征包含的有关目标函数的信息越多,则从特征解出的信息就越多完全编码目标函数
5、需要的额外特征就越少各种信息量/熵衡量指标,特征选择,特征有效性评价从信息论角度条件熵与“相关性”负相关信息增益相对信息增益http:/www.autonlab.org/tutorials/infogain.html,特征选择,特征有效性评价从信息论角度互信息量(Mutual Information)KL-距离,特征选择,特征有效性评价IR领域的度量(逆)文档词频(inverse document frequency),包含词(特征)t的文档数,所有文档都出现的词(如“的”):D=Dt idft = log(1) = 0在1%文档中出现的词:D/Dt = 100 idft = log(100)
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 数据 挖掘 特征 选择 分析 ppt 课件
链接地址:https://www.31ppt.com/p-1342274.html