机器学习决策树学习ppt课件.ppt
《机器学习决策树学习ppt课件.ppt》由会员分享,可在线阅读,更多相关《机器学习决策树学习ppt课件.ppt(35页珍藏版)》请在三一办公上搜索。
1、第1.2节 决策树学习(Decision Tree),内容,决策树的基本原理和算法熵、信息增益和特征选择决策树学习中的过拟合问题交叉验证与树的修剪,内容,决策树的基本原理和算法熵、信息增益和特征选择决策树学习中的过拟合问题交叉验证与树的修剪,决策树学习决定是否打网球,看看天气,看看湿度,阳光明媚,下雨,看看风速,高,正常,不去打球,去打球,大,小,不去打球,去打球,节点:每一个节点测试一个特征,分支:特征的可选数值(此处为离散值)叶子节点:最终预测,去打球,阴天,基本的决策树学习算法(ID3, C4.5),node = root 循环 1. 为当下一个节点选择一个最好的属性 x 2. 将属性x
2、分配给节点node 3. 对于x的所有可能数值,创建一个降序排列的节点node 4. 将所有训练样本在叶子节点排序分类 5. 如果分类结果达到了错误率要求,跳出循环,否则, 在叶子节点开始新循环-递归,决策树学习的适用问题,适用问题的特征实例由“特征-值”对表示目标函数具有离散的输出值训练数据可以包含一定的错误训练数据可以包含缺少特征值的实例问题举例根据天气好坏确定是否去打球根据疾病分类患者根据起因分类设备故障根据拖欠支付的可能性分类贷款申请分类问题核心任务是把样例分类到各可能的离散值对应的类别,基本的决策树学习算法(ID3, C4.5),ID3的思想自顶向下构造决策树从“哪一个特征将在树的根
3、节点被测试”开始使用统计测试来确定每一个实例特征单独分类训练样例的能力ID3的过程分类能力最好的特征被选作树的根节点根节点的每个可能值产生一个分支训练样例排列到适当的分支重复上面的过程,基本的决策树学习算法(ID3, C4.5),表-1:是否去打球的数据统计训练数据,决策树学习原理简介(ID3, C4.5算法),湿度,高,正常,(3+, 4-),(6+, 1-),S: (9+, 5-),风,弱,强,(6+, 2-),(3+, 3-),S: (9+, 5-),问题:哪一个属性(特征)更好?,内容,决策树的基本原理和算法熵、信息增益和特征选择决策树学习中的过拟合问题交叉验证与树的修剪,熵:物理学概
4、念宏观上:热力学定律体系的熵变等于可逆过程吸收或耗散的热量除以它的绝对温度(克劳修斯,1865)微观上:熵是大量微观粒子的位置和速度的分布概率的函数,是描述系统中大量微观粒子的无序性的宏观参数(波尔兹曼,1872)结论:熵是描述事物无序性的参数,熵越大则无序性越强,在信息领域定义为“熵越大,不确定性越大”(香浓,1948年),熵,随机变量的熵,熵 比较多的用于信源编码,数据压缩,假设是最有效的编码方式是使用 位编码于是对于随即变量的最有效编码位之和:,熵,熵,表示训练集合中的样本,表示训练集合中反例样本的比例,表示训练集合中正例样本的比例,表示训练集合的熵,信息增益(Information G
5、ain),信息的增加意味着不确定性的减少,也就是熵的减小;信息增益在诸多系统中定义为:在某一个操作之前的系统熵与操作之后的系统熵的差值也即是不确定性的减小量,信息增益(Information Gain),原来的不确定性知道x之后的不确定性信息增益: 原来-知道x之后的原来不确定性-经过属性x划分以后的不确定性,信息增益(Information Gain),选择特征的标准:选择具有最大信息增益(Information Gain)的特征假设有两个类, + 和 -假设集合S中含有p个类别为+的样本,n个类别为-的样本将S中已知样本进行分类所需要的期望信息定义为:,假设特征x将把集合S划分成 K份 S
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 决策树 ppt 课件
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-1342264.html