欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    支持向量机分析课件.ppt

    • 资源ID:3642668       资源大小:1.40MB        全文页数:68页
    • 资源格式: PPT        下载积分:16金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要16金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    支持向量机分析课件.ppt

    第五章 支持向量机,内容提要,1 引言2 统计学习理论3 线性支持向量机4 非线性支持向量机5 支持向量回归6 支持向量聚类,1 引言,一.SVM(Support Vector Machine)的历史神经网络分类器,Bayes分类器等是基于大样本学习的分类器。Vapnik 等从1960年开始关于统计学习理论的研究。统计学习理论是关于小样本的机器学习理论。1992年支持向量机首次被引入。1995年Vapnik发展了支持向量机理论。支持向量机是基于统计学习理论的一种实用的机器学习方法。,二.SVM 的发展 SVM理论的发展:最小二乘支持向量机(LS SVM)多分类支持向量机(M-SVM)支持向量回归(SVR)支持向量聚类(SVC)SVM与计算智能的融合:神经网络+支持向量机 模糊逻辑+支持向量机 遗传算法+支持向量机 小波分析+支持向量机 主分量分析+支持向量机 粗糙集理论+支持向量机,三.SVM的应用 数据与文本分类 系统建模及预测 模式识别(图像及语音识别,生物特征识别)异常检测(入侵检测,故障诊断)时间序列预测,2 统计学习理论,一.两分类问题给定 l 个观测值:,i=1,2,.,l Rn 每个观测值与一个标记相连:,i=1,2,.,l 土1 对于(2-类)分类,建立一个函数:表示函数的参数 使得 f 能正确地分类未学习过的样本,第 2 类,第 1 类,二.期望风险与实验风险期望风险最小化 其中 x,y的联合概率 P(x,y)是未知的实验风险最小化 实验风险是由在训练集上测得的平均误差所确定的如果训练样本的个数是有限的,则实验风险最小化的方法不保证有高推广能力,三.VC理论VC(Vapnik-Chervonenkis)维数分类函数 的集合F的VC维数 p=VCdim(F)定义(VapnikChervonenkis).函数 的集合F的VC 维数是p,当且仅当存在点集 xipi=1 使得这些点能够被所有 2p 种可能的分类方式分开,且不存在集合 xiqi=1(q p)满足这一性质。在 n 维空间中,超平面集合的VC维数等于n+1。VC维数刻画了“可能近似正确”意义上的学习能力。,例:VC维数,四.结构风险最小化 VC 理论引入期望风险的边界,它依赖于实验风险与 F的能力。这些边界的最小化导出结构风险最小化原理:实验风险与 VC 可信度之和为最小其中 h 与VC 维数有关,是能力概念的一种测度支持向量机是基于结构风险最小化原理构造的一种学习机,3 线性支持向量机一.两分类问题:线性分割情形,第 1 类,第 2 类,许多决策边界可以分割这些数据点出为两类 我们选取哪一个?,坏的决策边界的例子,第 1 类,第 2 类,第 1 类,第 2 类,好的决策边界:间隔大,决策边界离两类数据应尽可能远 最大化间隔 m,第 1 类,第 2 类,m,二.最优化问题,设 x1,.,xn 为数据集,yi 1,-1 为xi 的类标记要求决策边界正确地分类所有的点 于是得到一个带有约束的优化问题,将上述最优化问题转换成其对偶问题:取Lagrange函数(w,b;)=1/2w2 n i=1 i(yi(w,xi)+b 1)则对偶问题由 max W()=max(minw,b(w,b;)给出。由 minw,b(w,b;)得/b=0 n i=1 iyi=0/w=0 w=n i=1 iyixi,于是得到对偶问题这是一个二次规划(QP)问题ai的全局最大值总可以求得W的计算,解得*=argmin 1/2n i=1n i=1 i jyiyj n k=1 k w*=n i=1 iyixi,b*=1/2其中Xr 与xs满足 xr,xs 0,yr=1,ys=1 则 f(x)=sgn(+b),三.解的性质,许多的 ai 为零w 只是少数数据的线性组合具有非零 ai 的 xi 称为支持向量(SV)决策边界仅由SV确定 设 tj(j=1,.,s)为支持向量的指标,于是 为了检测一个新数据 z计算 如果 WTZ+b 0,则 z 属于第一类;否则,属于第二类。,a6=1.4,四.几何解释,第1类,第2类,a1=0.8,a2=0,a3=0,a4=0,a5=0,a7=0,a8=0.6,a9=0,a10=0,4 非线性支持向量机 一.非线性分割问题,关键思想:为了解决非线性分割问题,将 xi 变换到一个高维空间。输入空间:xi 所在的空间特征空间:变换后 f(xi)的空间如何变换?利用一个适当的变换f,使分类变得容易些。特征空间中的线性算子等价于输入空间中的非线性算子。,变换可能出现的问题难以得到一个好的分类且计算开销大SVM同时解决这两个问题 最小化|w|2 能得到好的分类利用核函数技巧可以进行有效的计算,f(),特征空间,输入空间,变换举例 定义核函数 K(x,y)如下 考虑下列变换内积可由 K 计算,不必通过映射 f()计算,二.核函数技巧核函数 K 与映射 f(.)之间的关系是作为核函数技巧这是已知的在应用中,我们指定K,从而间接地确定 f(),以代替选取f()。直观地,K(x,y)表示我们对数据 x 和 y 之间相似性的一种描述,且来自我们的先验知识。为了f()存在,K(x,y)需要满足 Mercer 条件。,核函数举例d 阶多项式核具有宽度 s的径向基函数核相当接近于径向基函数神经网络具有参数 k and q 的Sigmoid 核对所有的k 和 q,它不满足 Mercer 条件,三.非线性SVM算法将所有的内积改为核函数 训练算法:,线性的,非线性的,检测算法:,线性的,非线性的,对于一个新数据z,如果f 0,则分到第1类;如果 f0,则分到第2类。,例题 设有 5个 1 维数据点:x1=1,x2=2,x3=4,x4=5,x5=6,其中1,2,6 为第1类,而4,5 为第2类 y1=1,y2=1,y3=-1,y4=-1,y5=1。利用 2 阶多项式核K(x,y)=(xy+1)2C 取为 100先求 ai(i=1,5):,利用 QP 求解,得到a1=0,a2=2.5,a3=0,a4=7.333,a5=4.833注意到确实满足约束条件支持向量为 x2=2,x4=5,x5=6描述函数为确定b当 x2,x4,x5 位于 上时,f(2)=1,f(5)=-1,f(6)=1,由此解得 b=9,描述函数的值,1,2,4,5,6,第2类,第1类,第1类,5 支持向量回归一.最小二乘法,求 解:,二.线性支持向量回归(SVR),约束:,线性支持向量回归(SVR),Lagrange 最优化,回归公式,回归公式:,性质:冗余性全局的且唯一的非线性推广,三.非线性支持向量回归,输入空间,特征空间,回归公式,线性的:,非线性的:,一般的:,多项式型:,核函数的类型,线性型:,径向基函数型:,指数径向基函数型:,几点说明,SVM 基本上是一个两分类器,修改 QP 公式,以允许多类别分类。常用的方法:以不同的方式智能地将数据集分为两部分,对每一种分割方式用 SVM训练,多类别分类的结果,由所有的SVM分类器的输出经组合后得到(多数规则)。“一对一”策略这种方法对N 类训练数据两两组合,构建C2N=N(N-1)/2个支持向量机。最后分类的时候采取“投票”的方式决定分类结果。“一对其余”策略这种方法对N分类问题构建N个支持向量机,每个支持向量机负责区分本类数据和非本类数据。最后结果由输出离分界面距离wx+b最大的那个支持向量机决定。,软件,关于 SVM 的实现可以在下列网址找到www.kernelmachines.org/software.htmlSVMLight 是最早的 SVM 软件之一SVM 的各种 Matlab toolbox 也是可利用的LIBSVM 可以进行多类别分类CSVM 用于SVM分类rSVM 用于SVM回归mySVM 用于SVM分类与回归M-SVM 用于SVM多类别分类,6 支持向量聚类,一.发展简介Vapnik(1995):支持向量机Tax&Duin(1999):利用SV 表示高维分布的特征Scholkopf et al.(2001):利用SV计算封闭数据点的轮廓线的集合 Ben-Hur et al.(2001):利用SV系统地搜索聚类解,二.方法的基本思想利用高斯核函数将数据点映射到高维特征空间在特征空间内寻找封闭数据点的像点的最小球面将球面映射回数据空间,构成封闭数据点的轮廓线的集合 被每条轮廓线所封闭的点即属于与同一个聚类减小高斯核函数的宽度,增加轮廓线的数目用一个大的软间隙值处理重迭的聚类,映射到高维特征空间,三.主要步骤 球分析 聚类分析,设 为一具有N个点的数据集 用一个非线性变换映射到高维特征空间寻求由限制的中心为a且半径为R的最小闭球,球分析,引入 Lagrangian函数:,引入松弛变量j0 给出:,j 0 与 j0 为Lagrange 乘子,C 为常数,Cj 为惩罚项,利用KKT(Karush-Kuhn-Tucker)完备性条件给出:,球,由球心到像点的距离:当 R=D(xj)时,则 xj 为支持向量在数据空间中封闭点的轮廓线为集合 x|D(x)=R,支持向量,满足i=0 的点xi 的像点位于特征空间之外或在边界上如果 0 i C,它的像点位于特征空间球的曲面上这些都是支持向量,有界支持向量,满足i0 及i 0的点xi 的像点位于特征空间之外,这样的点有i=0,因此i=C这些是有界支持向量(BSVs)当 C 1时,不存在有界支持向量,支持向量小结,SVs位于聚类边界上BSVs位于聚类边界之外所有其它的点位于聚类边界之内,数据空间,聚类分析,聚类分配观察:给定不同聚类中的一对数据点,任一连接它们的轨线必定走出特征空间中的球,即这条轨线包含使得D(y)R的点y的弧段。所有点的邻接矩阵 Aij Aij=1,如果对于弧段上所有的y,D(y)R Aij=0,如果对于弧段上至少1个y,D(y)R,聚类分析:邻接矩阵,计算主要部分的伪代码,Get Adjacent Matrix(A)初始化矩阵A,各元素清零for i 2 to nfor j 1 to i-1if j R,则跳出循环if d R then a(i,j)=a(j,i)1endendendend,参数,聚类水平由两个参数控制:1)q Gaussian 核的宽度参数。q 增加,不相连的轮廓线增加,聚类的个数增加。2)C 软间隙常数。它允许特征空间中的球不封闭所有的点。,没有BSV的例,有BSV的例,.外点的个数由参数C控制,nbsv=1/C,其中 nbsv 为 BSV的个数,C 为软间隙常数。,p=1/NC,1/NC 为BSV一部分的上界。,支持向量,图4说明没有BSV轮廓线分开的数据与要求利用BSV的数据之间的不同。如果不存在BSV,两个概率分布之间的小的重迭所产生的数据足以防止轮廓线分开。,例,Iris 数据,数据集考虑150 个实例,每个实例由iris 花的4个测量数据组成。存在3种类型的花,每一种由50个实例描述。,变动 p 与 q,从q 的初始值开始,在这一尺度所有的点对生成所得到的单一聚类中可估计的核值。在这个值没有外点是需要的,于是选取 C=1.如果 q 是增加的,则单个或一些点的聚类破坏或者聚类边界变的很粗糙。为了研究BSV什么时候允许出现,则让p增加。较低个数的 SV 保证光滑的边界。当 q增加时,SV的个数也增加。如果SV的个数太多,则让 p 增加,其中许多 SV可能转入BSV,并且光滑的聚类或核边界就显现出来,如图3b。沿着一个方向系统地增加 q 与 p 就能保证最小个数的SV。,关于 Iris 的结果,问题,计算复杂度(O(n2m)最优 q 值对于每个数据库是不同的,并且很难调好。聚类分析中:计算邻接矩阵 分配标记到BSV也存在某些问题。,谢谢大家!,

    注意事项

    本文(支持向量机分析课件.ppt)为本站会员(小飞机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开