欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    人工智能粗糙集高级人工智能史忠植 精品ppt课件.ppt

    • 资源ID:1658682       资源大小:504.50KB        全文页数:72页
    • 资源格式: PPT        下载积分:16金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要16金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    人工智能粗糙集高级人工智能史忠植 精品ppt课件.ppt

    2022/12/13,高级人工智能 史忠植,1,第九章 知识发现,粗糙集 史忠植 中科院计算所,2022/12/13,高级人工智能 史忠植,2,内容,一、概述二、知识分类三、知识的约简四、决策表的约简五、粗糙集的扩展模型六、粗糙集的实验系统,2022/12/13,高级人工智能 史忠植,3,一、 概述,现实生活中有许多含糊现象并不能简单地用真、假值来表示如何表示和处理这些现象就成为一个研究领域。早在1904年谓词逻辑的创始人G.Frege就提出了含糊(Vague)一词,他把它归结到边界线上,也就是说在全域上存在一些个体既不能在其某个子集上分类,也不能在该子集的补集上分类。,2022/12/13,高级人工智能 史忠植,4,模糊集,1965年,Zadeh提出了模糊集,不少理论计算机科学家和逻辑学家试图通过这一理论解决G.Frege的含糊概念,但模糊集理论采用隶属度函数来处理模糊性,而基本的隶属度是凭经验或者由领域专家给出,所以具有相当的主观性。,2022/12/13,高级人工智能 史忠植,5,粗糙集的提出,20世纪80年代初,波兰的Pawlak针对G.Frege的边界线区域思想提出了粗糙集(Rough Set)他把那些无法确认的个体都归属于边界线区域,而这种边界线区域被定义为上近似集和下近似集之差集。由于它有确定的数学公式描述,完全由数据决定,所以更有客观性 。,2022/12/13,高级人工智能 史忠植,6,粗糙集的研究,粗糙集理论的主要优势之一是它不需要任何预备的或额外的有关数据信息。自提出以来,许多计算机科学家和数学家对粗糙集理论及其应用进行了坚持不懈的研究,使之在理论上日趋完善,特别是由于20世纪80年代末和90年代初在知识发现等领域得到了成功的应用而越来越受到国际上的广泛关注。,2022/12/13,高级人工智能 史忠植,7,粗糙集的研究,1991年波兰Pawlak教授的第一本关于粗糙集的专著Rough Sets:Theoretical Aspects of Reasoning about Data 和1992年R.Slowinski主编的关于粗糙集应用及其与相关方法比较研究的论文集的出版,推动了国际上对粗糙集理论与应用的深入研究。1992年在波兰Kiekrz召开了第1届国际粗糙集讨论会。从此每年召开一次与粗糙集理论为主题的国际研讨会。,2022/12/13,高级人工智能 史忠植,8,研究现状分析,史忠植. 知识发现. 北京: 清华大学出版社, 2002刘清. Rough Set及Rough推理. 北京: 科学出版社, 2001张文修等. Rough Set理论与方法. 北京: 科学出版社, 2001王国胤, Rough Set理论与知识获取. 西安: 西安交通大学出版社, 2001曾黄麟. 粗集理论及其应用(修订版). 重庆: 重庆大学出版社, 1998,2022/12/13,高级人工智能 史忠植,9,研究现状分析,2001年5月在重庆召开了“第1届中国Rough集与软计算学术研讨会”,邀请了创始人Z. Pawlak教授做大会报告;2002年10月在苏州 第2届2003年5月在重庆 第3届,同时举办“第9届粗糙集、模糊集、数据挖掘和粒度-软计算的国际会议” 因非典推迟到10月中科院计算所、中科院自动化所、北京工业大学、西安交通大学、重庆邮电学院、山西大学、合肥工业大学、上海大学、南昌大学,2022/12/13,高级人工智能 史忠植,10,二、 知识分类,基本粗糙集理论认为知识就是人类和其他物种所固有的分类能力。例如,在现实世界中关于环境的知识主要表明了生物根据其生存观来对各种各样的情形进行分类区别的能力。每种生物根据其传感器信号形成复杂的分类模式,就是这种生物的基本机制。分类是推理、学习与决策中的关键问题。因此,粗糙集理论假定知识是一种对对象进行分类的能力。这里的“对象”是指我们所能言及的任何事物,比如实物、状态、抽象概念、过程和时刻等等。即知识必须与具体或抽象世界的特定部分相关的各种分类模式联系在一起,这种特定部分称之为所讨论的全域或论域(universe)。对于全域及知识的特性并没有任何特别假设。事实上,知识构成了某一感兴趣领域中各种分类模式的一个族集(family),这个族集提供了关于现实的显事实,以及能够从这些显事实中推导出隐事实的推理能力。,2022/12/13,高级人工智能 史忠植,11,二、 知识分类,为数学处理方便起见,在下面的定义中用等价关系来代替分类。一个近似空间(approximate space)(或知识库)定义为一个关系系统(或二元组) K=(U,R) 其中U(为空集)是一个被称为全域或论域(universe)的所有要讨论的个体的集合,R是U上等价关系的一个族集。,2022/12/13,高级人工智能 史忠植,12,二、 知识分类,设PR,且P ,P中所有等价关系的交集称为P上的一种难区分关系(indiscernbility relation)(或称难区分关系),记作IND(P),即 xIND(p)= I xR RP 注意,IND(P)也是等价关系且是唯一的。,2022/12/13,高级人工智能 史忠植,13,二、 知识分类,给定近似空间K=(U, R),子集XU称为U上的一个概念(concept),形式上,空集也视为一个概念;非空子族集PR所产生的不分明关系IND(P)的所有等价类关系的集合即U/IND(P),称为基本知识(basic knowledge),相应的等价类称为基本概念(basic concept);特别地,若关系QR,则关系Q就称为初等知识(elementary knowledge),相应的等价类就称为初等概念(elementary concept)。 一般用大写字母P,Q,R等表示一个关系,用大写黑体字母P,Q,R等表示关系的族集;xR或R(x)表示关系R中包含元素xU的概念或等价类。为了简便起见,有时用P代替IND(P)。 根据上述定义可知,概念即对象的集合,概念的族集(分类)就是U上的知识,U上分类的族集可以认为是U上的一个知识库,或说知识库即是分类方法的集合。,2022/12/13,高级人工智能 史忠植,14,二、 知识分类,粗糙集理论与传统的集合理论有着相似之处,但是它们的出发点完全不同。传统集合论认为,一个集合完全是由其元素所决定,一个元素要么属于这个集合,要么不属于这个集合,即它的隶属函数X(x)0,1。模糊集合对此做了拓广,它给成员赋予一个隶属度,即X(x)0,1,使得模糊集合能够处理一定的模糊和不确定数据,但是其模糊隶属度的确定往往具有人为因素,这给其应用带来了一定的不便。而且,传统集合论和模糊集合论都是把隶属关系作为原始概念来处理,集合的并和交就建立在其元素的隶属度max和min操作上,因此其隶属度必须事先给定(传统集合默认隶属度为1或0)。在粗糙集中,隶属关系不再是一个原始概念,因此无需人为给元素指定一个隶属度,从而避免了主观因素的影响。,2022/12/13,高级人工智能 史忠植,15,Information Systems/Tables,IS is a pair (U, A)U is a non-empty finite set of objects.A is a non-empty finite set of attributes such that for every is called the value set of a.,Age LEMS,x 16-30 50 x2 16-30 0 x3 31-45 1-25x4 31-45 1-25x5 46-60 26-49x6 16-30 26-49x7 46-60 26-49,2022/12/13,高级人工智能 史忠植,16,Decision Systems/Tables,DS: is the decision attribute (instead of one we can consider more decision attributes).The elements of A are called the condition attributes.,Age LEMS Walk,x 16-30 50 yes x2 16-30 0 no x3 31-45 1-25 nox4 31-45 1-25 yesx5 46-60 26-49 nox6 16-30 26-49 yesx7 46-60 26-49 no,2022/12/13,高级人工智能 史忠植,17,Issues in the Decision Table,The same or indiscernible objects may be represented several times.Some of the attributes may be superfluous.,2022/12/13,高级人工智能 史忠植,18,难区分性Indiscernibility,The equivalence relation A binary relation which is reflexive (xRx for any object x) , symmetric (if xRy then yRx), and transitive (if xRy and yRz then xRz). The equivalence class of an element consists of all objects such that xRy.,2022/12/13,高级人工智能 史忠植,19,难区分性Indiscernibility (2),Let IS = (U, A) be an information system, then with any there is an associated equivalence relation: where is called the B-indiscernibility relation.If then objects x and x are indiscernible from each other by attributes from B.The equivalence classes of the B-indiscernibility relation are denoted by,2022/12/13,高级人工智能 史忠植,20,难区分性实例 Indiscernibility,The non-empty subsets of the condition attributes are Age, LEMS, and Age, LEMS.IND(Age) = x1,x2,x6, x3,x4, x5,x7IND(LEMS) = x1, x2, x3,x4, x5,x6,x7IND(Age,LEMS) = x1, x2, x3,x4, x5,x7, x6.,Age LEMS Walk,x 16-30 50 yes x2 16-30 0 no x3 31-45 1-25 nox4 31-45 1-25 yesx5 46-60 26-49 nox6 16-30 26-49 yesx7 46-60 26-49 no,2022/12/13,高级人工智能 史忠植,21,概念的边界,知识的粒度性是造成使用已有知识不能精确地表示某些概念的原因。这就产生了所谓的关于不精确的“边界”思想。著名哲学家Frege认为“概念必须有明确的边界。没有明确边界的概念,将对应于一个在周围没有明确界线的区域”。粗糙集理论中的模糊性就是一种基于边界的概念,即一个不精确的概念具有模糊的不可被明确划分的边界。为刻画模糊性,每个不精确概念由一对称为上近似与下近似的精确概念来表示,它们可用隶属函数定义,2022/12/13,高级人工智能 史忠植,22,粗糙集的基本定义,知识的分类观点 粗糙集理论假定知识是一种对对象进行分类的能力。而知识必须与具体或抽象世界的特定部分相关的各种分类模式联系在一起,这种特定部分称之为所讨论的全域或论域(universe)。为数学处理方便起见,在下面的定义中用等价关系来代替分类。,2022/12/13,高级人工智能 史忠植,23,粗糙集的基本定义,定义1 一个近似空间(approximate space)(或知识库)定义为一个关系系统(或二元组)K=(U, R),其中U(为空集)是一个被称为全域或论域(universe)的所有要讨论的个体的集合,R是U上等价关系的一个族集。定义2 设PR,且P ,P中所有等价关系的交集称为P上的一种不分明关系(indiscernbility relation)(或称不可区分关系),记作IND(P),2022/12/13,高级人工智能 史忠植,24,粗糙集的基本定义,定义3 给定近似空间K=(U, R),子集XU称为U上的一个概念(concept),形式上,空集也视为一个概念;非空子族集PR所产生的不分明关系IND(P)的所有等价类关系的集合即U/IND(P),称为基本知识(basic knowledge),相应的等价类称为基本概念(basic concept);特别地,若关系QR,则关系Q就称为初等知识(elementary knowledge),相应的等价类就称为初等概念(elementary concept)。,2022/12/13,高级人工智能 史忠植,25,上近似、下近似和边界区域,定义5:X的下近似:R*(X)=x:(xU) (xRX ) X的上近似:R*(X)=x:(xU) (xRX )X的边界区域:BNR(X)=R*(X)R*(X) 若BNR(X) ,则集合X就是一个粗糙概念。下近似包含了所有使用知识R可确切分类到X的元素,上近似则包含了所有那些可能是属于X的元素。概念的边界区域由不能肯定分类到这个概念或其补集中的所有元素组成。POSR(X)=R*(X)称为集合X的R-正区域,NEGR(X)=UR*(X)称为集合X的R-反区域。,2022/12/13,高级人工智能 史忠植,26,Lower & Upper Approximations (2),Lower Approximation:,Upper Approximation:,2022/12/13,高级人工智能 史忠植,27,新型的隶属关系,传统集合论中,一个元素的隶属函数X(x)0,1。而粗糙集理论中,X(x)0,1 定义4 设XU且xU,集合X的粗糙隶属函数(rough membership function) 定义为,其中R是不分明关系,R(x)=xR=y:(yU)(yRx),=1当且仅当xRX,0当且仅当xRX,=0当且仅当xRX=,2022/12/13,高级人工智能 史忠植,28,隶属关系,根据上面的定义,可以得到以下性质(1)(x)=1当且仅当xRX;(2)(x)0当且仅当xRX;(3)(x)=0当且仅当xRX=。显然有(x)0,1。我们可以看到,这里的隶属关系是根据已有的分类知识客观计算出来的,可以被解释为一种条件概率,能够从全域上的个体加以计算,而不是主观给定的。,2022/12/13,高级人工智能 史忠植,29,集近似Set Approximation,Let T = (U, A) and let and We can approximate X using only the information contained in B by constructing the B-lower and B-upper approximations of X, denoted and respectively, where,2022/12/13,高级人工智能 史忠植,30,集近似Set Approximation (2),B-boundary region of X, consists of those objects that we cannot decisively classify into X in B. B-outside region of X, consists of those objects that can be with certainty classified as not belonging to X.A set is said to be rough if its boundary region is non-empty, otherwise the set is crisp.,2022/12/13,高级人工智能 史忠植,31,集近似实例 Set Approximation,Let W = x | Walk(x) = yes. The decision class, Walk, is rough since the boundary region is not empty.,Age LEMS Walk,x 16-30 50 yes x2 16-30 0 no x3 31-45 1-25 nox4 31-45 1-25 yesx5 46-60 26-49 nox6 16-30 26-49 yesx7 46-60 26-49 no,集近似实例 Set Approximation (2),yes,yes/no,no,x1,x6,x3,x4,x2, x5,x7,AW,2022/12/13,高级人工智能 史忠植,33,U,set,U/RR : subset of attributes,Lower & 集近似图示ns,2022/12/13,高级人工智能 史忠植,34,Lower & Upper Approximations(3),X1 = u | Flu(u) = yes = u2, u3, u6, u7 RX1 = u2, u3 = u2, u3, u6, u7, u8, u5,X2 = u | Flu(u) = no = u1, u4, u5, u8 RX2 = u1, u4 = u1, u4, u5, u8, u7, u6,The indiscernibility classes defined by R = Headache, Temp. are u1, u2, u3, u4, u5, u7, u6, u8.,2022/12/13,高级人工智能 史忠植,35,Lower & Upper Approximations (4),R = Headache, Temp.U/R = u1, u2, u3, u4, u5, u7, u6, u8X1 = u | Flu(u) = yes = u2,u3,u6,u7X2 = u | Flu(u) = no = u1,u4,u5,u8,RX1 = u2, u3 = u2, u3, u6, u7, u8, u5,RX2 = u1, u4 = u1, u4, u5, u8, u7, u6,u1,u4,u3,X1,X2,u5,u7,u2,u6,u8,2022/12/13,高级人工智能 史忠植,36,例1: 设有一知识库K=U,p,q,r其中U=x1,x2,x3,x4,x5,x6,x7,x8且U/p=x1,x4,x5,x2,x8,x3,x6,x7U/q=x1,x3,x5,x6,x2,x4 ,x7,x8 U/r=x1,x5,x6,x2,x7,x8,x3,x4 则x1p=x1 ,x4 ,x5x1q= x1 ,x3 ,x5 。若P=p,q,r则IND(P)= x1,x5,x2,x8,x3,x4,x6,x7 对于U上的子集X1=x1,x4,x7可得到P* X1=x4x7=x4 ,x7P* X1=x1 ,x5x4x7=x1 ,x4 ,x5 ,x7,2022/12/13,高级人工智能 史忠植,37,近似度Accuracy of Approximation,where |X| denotes the cardinality of Obviously If X is crisp with respect to B. If X is rough with respect to B.,2022/12/13,高级人工智能 史忠植,38,近似性质Properties of Approximations,implies,and,2022/12/13,高级人工智能 史忠植,39,近似性质Properties of Approximations (2),where -X denotes U - X.,2022/12/13,高级人工智能 史忠植,40,三、 知识的约简,一般约简 定义6 设R是等价关系的一个族集,且设RR。若IND(R)=IND(RR),则称关系R在族集R之中是可省的(dispensable)否则就是不可省的。若族集R中的每个关系R都是不可省的则称族集R是独立的(independent)否则就是依赖的或非独立的。 定义7 若QP是独立的并且IND(Q)=IND(P)则称Q是关系族集P的一个约简(reduct) 。在族集P中所有不可省的关系的集合称为P的核(core) 以CORE(P)来表示。 显然,族集P有多个约简(约简的不唯一性)。 定理1 族集P的核等于P的所有约简的交集。即CORE(P)=RED(P),2022/12/13,高级人工智能 史忠植,41,例2:取前面的例1若P=p,q,r则IND(P)=x1 ,x5,x2 ,x8,x3,x4,x6,x7IND(P-p)=x1 ,x5,x2 ,x7 ,x8,x3,x4,x6IND(P)所以p是不可省的同理可得q、r是可省的。这样由p,q,r三个等价关系组成的集合和p,q、p,r定义了相同的不分明关系。又IND(p,q)IND(p) IND(pq)IND(q)则p,q和p, r就是P的约简而且p是P的核也就是说p是绝对不能省的,2022/12/13,高级人工智能 史忠植,42,相对约简,定义8 设P和Q是全域U上的等价关系的族集,所谓族集Q的P-正区域(P-positive region of Q),记作,POSP(Q)=,P*(X),族集Q的P-正区域是全域U的所有那些使用分类U/P所表达的知识,能够正确地分类于U/Q的等价类之中的对象的集合。定义9 设P和Q是全域U上的等价关系的族集,RP。若POSIND(P)(IND(Q)=POSIND(P-R)(IND(Q) 则称关系R在族集P中是Q-可省的否则称为Q-不可省的如果在族集P中的每个关系R都是Q-不可省的则称P关于Q是独立的否则就称为是依赖的。,2022/12/13,高级人工智能 史忠植,43,相对约简,定义10 SP称为P的Q-约简(Q-reduct)当且仅当S是P的Q-独立的子族集且POSS(Q)=POSP(Q);族集P中的所有Q-不可省的初等关系的集合称为族集P的Q-核(Q-core)记作COREQ(P) 。下面的定理是定理1的拓广。定理2 族集P的Q-核等于族集P的所有Q-约简的交集。即COREQ(P)=REDQ(P)其中REDQ(P)是族集P的所有Q-约简的族集。,2022/12/13,高级人工智能 史忠植,44,知识的依赖性,知识的依赖性可形式定义如下:定义11 设K=(U, R)是一个近似空间,P, QR。1) 知识Q依赖于知识P或知识P可推导出知识Q,当且仅当IND(P)IND(Q)记作PQ;2) 知识P和知识Q是等价的当且仅当PQ且QP即IND(P)=IND(Q)记作P= Q,明显地,P=Q当且仅当IND(P)=IND(Q);3) 知识P和知识Q是独立的,当且仅当PQ且QP均不成立,记作PQ。,2022/12/13,高级人工智能 史忠植,45,知识的依赖性,依赖性也可以是部分成立的也就是从知识P能推导出知识Q的一部分知识,或者说知识Q只有一部分依赖于知识P的。部分依赖性(部分可推导性)可以由知识的正区域来定义。现在我们形式地定义部分依赖性。定义12 设K=(U, R)是一个知识库P, QR我们称知识Q以依赖度k(0 k 1)依赖于知识P记作PkQ当且仅当k=P(Q)=card(POSP(Q)/card(U) (6.8)(1) 若k=1则称知识Q完全依赖于知识P,P1Q也记成PQ;(2) 若0k1则称知识Q部分依赖于知识P;(3) 若k=0则称知识Q完全独立于与知识P。,2022/12/13,高级人工智能 史忠植,46,四、 决策表的约简,决策表 决策表是一类特殊而重要的知识表达系统,它指当满足某些条件时,决策(行为)应当怎样进行。多数决策问题都可以用决策表形式来表示,这一工具在决策应用中起着重要的作用。 决策表可以定义如下: S=(U, A)为一信息系统,且C, DA是两个属性子集,分别称为条件属性和决策属性,且CD=A,CD=,则该信息系统称为决策表,记作T=(U, A, C, D)或简称CD决策表。关系IND(C)和关系IND(D)的等价类分别称为条件类和决策类。,2022/12/13,高级人工智能 史忠植,47,表1 一决策表 身高、性别、视力为条件属性,录取为决策属性,2022/12/13,高级人工智能 史忠植,48,决策规则,决策表中的每一行对应诸如 形式的决策规则,和分别称为决策规则的前驱和后继 。当决策表S中决策规则为真时,我们说该决策规则是S中一致的,否则说该决策规则是S中不一致的。若决策规则是S中一致的,相同的前驱必导致相同的后继;但同一种后继不一定必需是同一前驱产生的。 如表1第一行对应决策规则: 身高(高)性别(男)视力(差) 录取(否),2022/12/13,高级人工智能 史忠植,49,决策表的一致性,命题1当且仅当 CD,决策表T=(U, A, C, D)是一致的。由命题1,很容易通过计算条件属性和决策属性间的依赖程度来检查一致性。当依赖程度等于1时,我们说决策表是一致的,否则不一致。,2022/12/13,高级人工智能 史忠植,50,决策表的分解,命题2 每个决策表T=(U, A, C, D)都可以唯一分解为两个决策表T1=(U1, A, C, D)和T2=(U2, A, C, D),这样使得表T1中C1D和T2中C0D。这里U1=POSC(D),U2=BNC(X),XU|IND(D)。 由命题2可见,假设我们已计算出条件属性的依赖度,若表的结果不一致,即依赖度小于1,则由命题2可以将表分解成两个子表:其中一个表完全不一致,依赖度为0;另一个表则完全一致,依赖度为1。当然,只有依赖度大于0且不等于1时,这一分解才能进行。,2022/12/13,高级人工智能 史忠植,51,表2 不一致决策表 a、b、c为条件属性,d、e为决策属性 1、5产生不一致,2022/12/13,高级人工智能 史忠植,52,表3 完全一致的决策表,表4 完全不一致的决策表,2022/12/13,高级人工智能 史忠植,53,一致决策表的约简,在我们制定决策时是否需要全部的条件属性,能否进行决策表的约简。约简后的决策表具有与约简前的决策表相同的功能,但是约简后的决策表具有更少的条件属性。一致决策表的约简步骤如下:(1) 对决策表进行条件属性的约简,即从决策表中消去某一列;(主要研究点)(2) 消去重复的行;(3) 消去每一决策规则中属性的冗余值。,2022/12/13,高级人工智能 史忠植,54,条件属性的约简,A.Skowron提出了差别矩阵,使核与约简等概念的计算较为简单,主要思想:设S=(U,A)为一个知识表示系统,其中U =x1,x2,xn,xi为所讨论的个体,i=1,2,n,A =a1,a2,am,aj为个体所具有的属性,j=1,2,m。知识表达系统S的差别矩阵M(S)=cijnn,其中矩阵项定义如下: cij=aA:a(xi)a(xj),i,j=1,2,n因此cij是个体xi与xj有区别的所有属性的集合,2022/12/13,高级人工智能 史忠植,55,差别矩阵对应的核与约简,核就可以定义为差别矩阵中所有只有一个元素的矩阵项的集合,即 CORE(A)=aA:cij=(a),对一些i,j 相对于集合包含关系运算而言,若属性集合BA是满足下列条件 Bcij,对于M(S)中的任一非空项cij的一个最小属性子集,则称属性集合BA是A的一个约简。换言之,约简是这样的最小属性子集,它能够区分用整个属性集合A可区分的所有对象。,2022/12/13,高级人工智能 史忠植,56,Skowron的约简方法,对于每一个差别矩阵M(S)对应唯一的差别函数fM(S)Discernibility Function,它的定义如下:信息系统S的差别函数fM(S)是一个有m-元变量a1, am(aiA,i=1,m)的布尔函数,它是cij的合取,cij是矩阵项cij中的各元素的析取,1jin且cij。根据差别函数与约简的对应关系,A.Skowron提出了计算信息系统S的约简RED(S)的方法:1) 计算信息系统S的差别矩阵M(S)2) 计算与差别矩阵M(S)对应的差别函数fM(S)3) 计算差别函数fM(S)的最小析取范式,其中每个析取分量对应一个约简,2022/12/13,高级人工智能 史忠植,57,为了对决策表进行约简,可以采用差别矩阵的方法对条件属性进行约简,对决策属性相同的个体不予比较。考虑下面的决策表5,条件属性为a,b,c,d,决策属性为e,表5,2022/12/13,高级人工智能 史忠植,58,表5对应的差别矩阵,由下面的差别矩阵很容易得到核为c,差别函数fM(S)为c(ad),即(ac)(cd),得到两个约简a, c和c, d,2022/12/13,高级人工智能 史忠植,59,表6,根据得到的两个约简,表5可以简化为表6和表7,表7,2022/12/13,高级人工智能 史忠植,60,求最优或次优约简,所有约简的计算是NP-hard问题,因此运用启发信息来简化计算以找出最优或次优约简是必要的。 现在在求最优或次优约简的算法一般都使用核作为计算约简的出发点,计算一个最好的或者用户指定的最小约简。算法将属性的重要性作为启发规则,按照属性的重要度从大到小逐个加入属性,直到该集合是一个约简为止。,2022/12/13,高级人工智能 史忠植,61,行的约简,对决策表中的重复的行要删除,因为它们的条件属性和决策属性都相同,都表示同一条决策规则。另外,决策规则的列表顺序不是本质性的,所以表6、表7都可进行约简,如表6可简化为下表:,表8,2022/12/13,高级人工智能 史忠植,62,属性值的约简,对于决策表而言,属性值的约简就是决策规则的约简。决策规则的约简是利用决策逻辑消去每个决策规则的不必要条件 ,它不是整体上约简属性,而是针对每个决策规则,去掉表达该规则时的冗余属性值,即要计算每条决策规则的核与约简。,2022/12/13,高级人工智能 史忠植,63,非一致决策表的约简,对于一致的决策表比较容易处理,在进行约简时,只要判断去掉某个属性或某个属性值时是否会导致不一致规则的产生。 而对不一致表进行约简时就不能再使用这种方法了,一般采用下面的方法:一种是考虑正域的变化,另外一种是将不一致表分成完全一致表和完全不一致表两个子表 。非一致决策表的约简步骤与一致决策表的约简步骤类似。,2022/12/13,高级人工智能 史忠植,64,五、 粗糙集的扩展模型,基本粗糙集理论的主要存在的问题是:1) 对原始数据本身的模糊性缺乏相应的处理能力;2) 对于粗糙集的边界区域的刻画过于简单;3) 粗糙集理论的方法在可用信息不完全的情况下将对象们归类于某一具体的类,通常分类是确定的,但并未提供数理统计中所常用的在一个给定错误率的条件下将尽可能多的对象进行分类的方法,而实际中常常遇到这类问题。,2022/12/13,高级人工智能 史忠植,65,可变精度粗糙集模型,W.Ziarko提出了一种称之为可变精度粗糙集模型,该模型给出了错误率低于预先给定值的分类策略,定义了该精度下的正区域、边界区域和负区域。下面扼要地介绍其思想: 一般地,集合X包含于Y并未反映出集合X的元素属于集合Y的“多少”。为此,VPRS定义了它的量度: C(X, Y)=1card(XY)/card(X) 当card(x)0, C(X, Y)=0 当card(x)=0。C(X, Y)表示把集合X归类于集合Y的误分类度,即有C(X, Y)100%的元素归类错误。显然,C(X, Y)=0时有XY。如此,可事先给定一错误分类率(00.5),基于上述定义,我们有XY,当且仅当C(X, Y)。,2022/12/13,高级人工智能 史忠植,66,可变精度粗糙集模型,在此基础上,设U为论域且R为U上的等价关系,U/R=A=X1, X2, , Xk ,这样,可定义集合X的-下近似为RX=Xi (XiX, i=1, 2, , k)或 RX=Xi (C(Xi, X), i=1, 2, , k),并且RX称为集合X的-正区域,集合X的-上近似为RX=Xi (C(Xi, X)1, i=1, 2, , k),这样,-边界区域就定义为:BNRX=Xi (C(Xi, X)1);-负区域为:NEGRX=Xi (C(Xi, X)1)。以此类推,我们还可以定义-依赖、-约简等与传统粗糙集模型相对应的概念。,2022/12/13,高级人工智能 史忠植,67,相似模型,在数据中存在缺失的属性值的时候(在数据库中很普遍),不分明关系或等价关系无法处理这种情形。为扩展粗糙集的能力,有许多作者提出了用相似关系来代替不分明关系作为粗糙集的基础。 在使用相似关系代替粗糙集的不分明关系后,最重要的变化就是相似类不再形成对集合的划分了,它们之间是相互重叠的。类似于等价类,可以定义相似集,即所有和某各元素x在属性集合B上相似的集合SIMb(x)。值得注意的是SIMb(x)中的元素不一定属于同一决策类, 因此还需要定义相似决策类,即相似集对应的决策类集合。,2022/12/13,高级人工智能 史忠植,68,基于粗糙集的非单调逻辑,自粗糙集理论提出以来,粗糙集理论的研究者都很重视它的逻辑研究,试图通过粗糙集建立粗糙逻辑,也相应地发表了一系列的粗糙逻辑方面的论文 。,2022/12/13,高级人工智能 史忠植,69,与其它数学工具的结合,D.Dudios和H.Prade由此提出了Rough Fuzzy Set和Fuzzy Rough Set的概念 A.Skowron和J.Grazymala-Buss认为,粗糙集理论可以看作证据理论的基础。并在粗糙集理论的框架上重新解释了证据理论的基本概念,特别是用上近似和下近似的术语解释了信念(belief)和似然(plausibility)函数,进而讨论了两者之间的互补问题。,2022/12/13,高级人工智能 史忠植,70,六、粗糙集的实验系统,在过去几年中,建立了不少基于粗糙集的KDD系统,其中最有代表性的有LERS、ROSE、KDD-R等。1LERSLERS(Learning from examples based on Rough Set)系统是美国Kansas大学开发的基于粗糙集的实例学习系统。它是用Common Lisp在VAX9000上实现的。LERS已经为NASA的Johnson空间中心应用了两年。此外,LERS还被广泛地用于环境保护、气候研究和医疗研究,2022/12/13,高级人工智能 史忠植,71,六、粗糙集的实验系统,2ROSE波兰Poznan科技大学基于粗糙集开发了ROSE(Rough Set data Explorer), 用于决策分析。 它是Rough Das & Rough Class系统的新版,其中RoughDas执行信息系统数据分析任务,RoughClass支持新对象的分类,这两个系统已经在许多实际领域中得到应用。 3KDDRKDD-R是由加拿大的Regina大学开发的基于可变精度粗糙集模型,采用知识发现的决策矩阵方法开发了KDD-R系统,这个系统被用来对医学数据分析,以此产生症状与病证之间新的联系,另外它还支持电信工业的市场研究。,2022/12/13,高级人工智能 史忠植,72,可以在http:/www.cs.uregina.ca/roughse

    注意事项

    本文(人工智能粗糙集高级人工智能史忠植 精品ppt课件.ppt)为本站会员(牧羊曲112)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开