《基于实例的学习.ppt》由会员分享,可在线阅读,更多相关《基于实例的学习.ppt(34页珍藏版)》请在三一办公上搜索。
1、1,概述,已知一系列的训练样例,许多学习方法为目标函数建立起明确的一般化描述,基于实例的学习方法只是简单地把训练样例存储起来,从这些实例中泛化的工作被推迟到必须分类新的实例时每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例,2,概述(2),基于实例的学习方法包括:假定实例可以表示成欧氏空间中的点最近邻法局部加权回归法对实例采用更复杂的符号表示基于案例的推理基于实例的学习方法有时被称为消极学习法,它把处理工作延迟到必须分类新的实例时这种延迟的学习方法有一个优点:不是在整个实例空间上一次性地估计目标函数,而是针对每个待分类新实例作出局部的和相
2、异的估计,3,k-近邻算法,k-近邻算法是最基本的基于实例的学习方法k-近邻算法假定所有的实例对应于n维空间Rn中的点,任意的实例表示为一个特征向量根据欧氏距离定义实例的距离。两个实例xi和xj的距离d(xi,xj)定义为,4,k-近邻算法(2),考虑离散目标函数f:RnV,V=v1,.,vs逼近离散值函数f:RnV的k-近邻算法训练算法将每个训练样例加入到列表training_examples分类算法给定一个要分类的查询实例xq在training_examples中选出最靠近xq的k个实例,并用x1.xk表示返回,5,k-近邻算法(3),6,k-近邻算法(4),离散的k-近邻算法作简单修改后
3、可用于逼近连续值的目标函数。即计算k个最接近样例的平均值,而不是计算其中的最普遍的值,为逼近f:RnR,计算式如下:,7,距离加权最近邻算法,对k-近邻算法的一个改进是对k个近邻的贡献加权,越近的距离赋予越大的权值,比如:,8,距离加权最近邻算法(2),k-近邻算法的所有变体都只考虑k个近邻用以分类查询点,如果使用按距离加权,那么可以允许所有的训练样例影响xq的分类,因为非常远的实例的影响很小考虑所有样例的唯一不足是会使分类运行得更慢如果分类一个新实例时,考虑所有的训练样例,我们称为全局法;如果仅考虑靠近的训练样例,称为局部法,9,对k-近邻算法的说明,距离加权的k-近邻算法对训练数据中的噪声
4、有很好的健壮性,通过取k个近邻的加权平均,可以消除孤立的噪声样例的影响k-近邻的归纳偏置是:一个实例的分类xq与在欧氏空间中它附近的实例的分类相似k-近邻方法的一个实践问题:维度灾害k-近邻方法中实例间的距离是根据实例的所有属性计算的实例间距离会被大量的不相关属性所支配,可能导致相关属性的值很接近的实例相距很远,10,对k-近邻算法的说明(2),维度灾害的解决方法:对属性加权,相当于按比例缩放欧氏空间中的坐标轴,缩短对应不太相关的属性的坐标轴,拉长对应更相关属性的坐标轴每个坐标轴应伸展的数量可以通过交叉验证的方法自动决定,具体做法如下:假定使用因子zj伸展第j个根坐标轴,选择各个zj的值,使得
5、学习算法的真实分类错误率最小化这个真实错误率可以使用交叉验证来估计可以多次重复这个处理过程,使得加权因子的估计更加准确另一种更强有力的方法是从实例空间中完全消除最不相关的属性,等效于设置某个缩放因子为0,11,对k-近邻算法的说明(3),k-近邻算法的另外一个实践问题:如何建立高效的索引。k-近邻算法推迟所有的处理,直到接收到一个新的查询,所以处理每个新查询可能需要大量的计算已经开发了很多对存储的训练样例进行索引的方法,以便能高效地确定最近邻kd-tree把实例存储在树的叶结点内,邻近的实例存储在同一个或附近的节点内,通过测试新查询xq的选定属性,树的内部节点把查询xq排列到相关的叶结点,12
6、,局部加权回归,前面描述的最近邻方法可以被看作在单一的查询点x=xq上逼近目标函数f(x)局部加权回归是上面方法的推广,它在环绕xq的局部区域内为目标函数f建立明确的逼近局部加权回归使用附近的或距离加权的训练样例来形成对f的局部逼近例如,使用线性函数、二次函数、多层神经网络在环绕xq的邻域内逼近目标函数局部加权回归的名称解释局部:目标函数的逼近仅仅根据查询点附近的数据加权:每个训练样例的贡献由它与查询点间的距离加权得到回归:表示逼近实数值函数的问题,13,局部加权回归(2),给定一个新的查询实例xq,局部加权回归的一般方法是:建立一个逼近,使 拟合环绕xq的邻域内的训练样例用 计算 的值删除
7、的描述,14,局部加权线性回归,使用如下形式的线性函数来逼近xq邻域的目标函数f第4章我们讨论了梯度下降方法,在拟合以上形式的线性函数到给定的训练集合时,它被用来找到使误差最小化的系数w0.wn,当时我们感兴趣的是目标函数的全局逼近,即得到的梯度下降训练法则是,15,局部加权线性回归(2),三种重新定义误差准则E,以着重于拟合局部训练样例,记为E(xq)只对在k个近邻上的误差平方最小化使整个训练样例集合D上的误差平方最小化,但对每个训练样例加权,权值为关于相距xq距离的某个递减函数K综合1和2,16,局部加权线性回归(3),准则2或许最令人满意,但所需的计算量随着训练样例数量线性增长准则3很好
8、地近似了准则2,并且具有如下优点:计算开销独立于训练样例总数,仅依赖于最近邻数k对应准则3的梯度下降法则是,17,径向基函数,18,径向基函数(2),给定了目标函数的训练样例集合,一般分两个阶段来训练RBF网络决定隐藏单元的数量k,并通过定义核函数中心点和方差来定义每个隐藏单元使用全局误差准则来训练权值wu,使网络拟合训练数据程度最大化,19,径向基函数(3),已经提出了几种方法来选取适当的隐藏单元或核函数的数量为每一个训练样例分配一个高斯核函数,中心点设为xi,所有高斯函数的宽度可被赋予同样的值RBF网络学习目标函数的全局逼近,其中每个训练样例都只在xi的邻域内影响 的值这种核函数的一个优点
9、是允许RBF网络精确地拟合训练数据对于任意m个训练样例集合,合并m个高斯核函数的权值w0.wm,可以被设置为使得对于每个训练样例都满足,20,径向基函数(4),选取一组数量少于训练样例数量的核函数,这种方法更有效,特别是训练样例数量巨大时核函数分布在整个实例空间X上,它们中心之间有均匀的间隔或者也可以非均匀地分布核函数中心,特别是在实例本身在X上非均匀分布的时候可以随机选取训练样例的一个子集作为核函数的中心,从而对实例的基准分布进行采样或者可以标识出实例的原始聚类,然后以每个聚类为中心加入一个核函数把训练实例拟合到混合高斯,6.12.1节讨论的EM算法提供了一种从k个高斯函数的混合中选择均值,
10、以最佳拟合观察到实例的方法,21,径向基函数(5),总而言之,用多个局部核函数的线性组合表示的径向基函数网络提供了一种目标函数的全局逼近仅当输入落入某个核函数的中心和宽度所定义的区域时,这个核函数的值才是不可忽略的RBF网络可以被看作目标函数的多个局部逼近的平滑线性组合RBF网络的一个优点是,与反向传播算法训练的前馈网络相比,它的训练更加高效,这是因为RBF网络的输入层和输出层可以被分别训练,22,基于案例的推理,k-近邻算法和局部加权回归具有三个共同的关键特性:消极学习方法通过分析相似的实例来分类新的查询实例,而忽略与查询极其不同的实例实例表示为n维欧氏空间中的实数点基于案例的推理(CBR)
11、满足前2个原则,但不满足第3个CBR使用更丰富的符号描述来表示实例,用来检索实例的方法也更加复杂,23,基于案例的推理(2),CBR已被用于解决很多问题根据数据库中存储的以前的设计图纸,来进行机械设备的总体设计根据以前的裁决来对新的法律案件进行推理通过对以前的相似问题的解决方案的复用或合并,解决规划和调度问题,24,基于案例的推理(3),一个例子:CADET系统采用基于案例的推理来辅助简单机械设备的总体设计(图8-3)条件使用一个数据库,其中包含大约75个以前的设计或设计片断内存中每一个实例是通过它的结构和定性的功能来表示的,新的设计问题通过所要求的功能和结构来表示方法给定新设计问题的功能说明
12、,CADET从它的案例库中搜索存储的案例,使它的功能描述和新设计问题相匹配如果发现了一个精确的匹配,表明某个存储案例精确地实现了所要求的功能,那么可以返回这个案例作为新设计问题的建议方案否则,CADET可能找到匹配所需功能的不同子图的案例在两个功能图间搜索同构子图,以发现一个案例的某部分,使它匹配更多的案例加工原始的功能说明图,产生等价的子图以匹配更多的案例,25,26,基于案例的推理(4),通过检索匹配不同子图的多个案例,有时可以拼接得到整个设计但是,从多个检索到的案例产生最终方案的过程可能很复杂为了合并存储案例中检索到的部分,可能需要从头设计系统的各个部分,也可能需要回溯以前的设计子目标,
13、从而丢弃前面检索到的案例CADET合并和自适应已检索到案例并形成最终设计的能力有限,它主要依赖用户来做自适应阶段的处理,27,基于案例的推理(5),CADET的问题框架在CADET中每个存储的训练样例描绘了一个功能图以及实现该功能的结构实例空间定义为所有功能图的空间,目标函数f映射到实现这些功能的结构每个存储训练样例是一个序偶,描述某个功能图x和实现x的结构f(x)系统通过学习训练样例,以输出满足功能图查询输入xq的结构f(xq),28,基于案例的推理(6),CADET系统区别于k-近邻方法的一般特征实例(或称案例)可以用丰富的符号描述表示,因此可能需要不同于欧氏距离的相似性度量检索到的多个案
14、例可以合并形成新问题的解决方案,合并案例的过程与k-近邻方法不同,依赖于知识推理而不是统计方法案例检索、基于知识的推理、问题求解是紧密耦合在一起的概括而言,基于案例的推理是一种基于实例的学习方法,在这个方法中实例可以是丰富的关系的描述案例检索和合并过程可能依赖于知识推理和搜索密集的问题求解方法一个研究课题:改进索引案例的方法句法相似度量仅能近似地指出特定案例与特定问题的相关度,而不能捕捉其他难点,比如多个设计片断的不兼容性发现这些难点后,可以回溯,并且可用来改进相似性度量,29,Case-Based Reasoning A Review(published in The Knowledge E
15、ngineering Review,Vol.9 No.4,1994),30,对消极学习和积极学习的评价,本章考虑了三种消极学习方法:k-近邻、局部加权回归、基于案例的推理本章考虑了一种积极学习方法:学习径向基函数网络的方法消极方法和积极方法的差异:计算时间的差异消极算法在训练时需要较少的计算,但在预测新查询的目标值时需要更多的计算时间对新查询的分类的差异(归纳偏置的差异)消极方法在决定如何从训练数据D中泛化时考虑查询实例xq积极方法在见到xq之前,就完成了泛化核心观点:消极学习可以通过很多局部逼近的组合表示目标函数,积极学习必须在训练时提交单个的全局逼近,31,对消极学习和积极学习的评价(2)
16、,使用多个局部逼近的积极方法,可以产生与消极方法的局部逼近同样的效果吗?径向基函数网络是对这个目标的尝试RBF学习方法是在训练时提交目标函数全局逼近的积极方法,然而,一个RBF网络把这个全局函数表示为多个目标局部核函数的线性组合RBF学习方法创建的局部逼近不能达到像消极学习方法中那样特别针对查询点,32,小结,基于实例的学习方法推迟处理训练样例,直到必须分类一个新查询实例时才进行。它们不必形成一个明确的假设来定义整个实例空间上的完整目标函数,而是对每个查询实例形成一个不同的目标函数局部逼近基于实例的方法的优点:通过一系列不太复杂的局部逼近来模拟复杂目标函数,而且不会损失训练样例中蕴含的任何信息
17、基于实例的方法的主要的实践问题:分类新实例的效率难以选择用来检索相关实例的合适的距离度量无关特征对距离度量的负作用,33,小结(2),k-近邻假定实例对应于n维欧氏空间中的点,一个新查询的目标函数值是根据k个与其最近的训练样例的值估计得到局部加权回归法是k-近邻方法的推广,为每个查询实例建立一个明确的目标函数的局部逼近,逼近方法可以基于常数、线性函数、二次函数等这类简单的函数形式,也可以基于核函数径向基函数网络是一类由空间局部化核函数构成的人工神经网络,可被看作是基于实例的方法和神经网络方法的结合基于案例的推理使用复杂的逻辑描述而不是欧氏空间中的点来表示实例。给定实例的符号描述,已经提出了许多方法将训练样例映射成新实例的目标函数值,34,补充读物,k-近邻算法Cover&Hart1967提出了早期的理论结果Duda&Hart1973提供了一个很好的概述Bishop1995讨论了k-近邻算法以及它与概率密度估计的关系Atkeson et al.1997对局部加权回归方法给出了一个非常好的纵览Atkeson et al.1997b给出了这些方法在机器人控制方面的应用径向基函数Bishop1995提供了一个全面讨论Powell1987和Poggio&Girosi1990给出了其他论述基于案例的推理Kolodner1993提供了基于案例的推理的一般介绍,
链接地址:https://www.31ppt.com/p-6262501.html