人工智能4 不确定性推理 人工智能课程课件.ppt
《人工智能4 不确定性推理 人工智能课程课件.ppt》由会员分享,可在线阅读,更多相关《人工智能4 不确定性推理 人工智能课程课件.ppt(140页珍藏版)》请在三一办公上搜索。
1、1,第四章 不确定性推理4.1 基本概念 1. 为什么要研究不确定性推理问题 现实世界的问题求解大部分是不良结构; 对不良结构的知识描述具有不确定性: 1) 问题证据的不确定性; 2) 专门知识的不确定性。 2. 什么是不确定性推理 不确定性推理是建立在非经典逻辑基础上的一种推理,它是对 不确定性知识的运用和处理。 不确定性推理就是从不确定性的初始证据出发,通过运用不确 定性的知识,最终推出具有一定程度的不确定性但却合理或者近 乎合理的结论的思维过程。,2,3. 不确定性推理中的基本问题 在不确定性推理中,知识和证据都具有某种程度的不确定性, 这就为推理机的设计与实现增加了复杂性和难度。它除了
2、必须解 决推理方向、推理方法、控制策略等基本问题外,一般还需要解 决不确定性的表示和量度、不确定性匹配、不确定性的传递算法 以及不确定性的合成等重要问题。 (1) 不确定性的表示与量度 知识不确定性的表示 在确立其表示方法时,有两个直接相关的因素需要考虑: 1) 要能根据领域问题的特征把其不确定性比较准确地描述出 来,满足问题求解的需要; 2) 要便于推理过程中对不确定性的推算。,3,目前在专家系统中,知识的不确定性一般由领域专家给出,通常是一 个数值,它表示相应知识的不确定性程度,称为知识的静态强度。 证据不确定性的表示 在推理中,有两种来源不同的证据: 1) 一种是用户在求解问题时提供的初
3、始证据; 2) 另一种是在推理中用前面推出的结论作为当前推理的证据。 证据的不确定性表示方法应与知识的不确定性表示方法保持一致,以便于推理过程中对不确定性进行统一处理。 证据的不确定性通常也用一个数值表示,它代表相应证据的不确定性程度,称为动态强度。 对于初始证据,其值由用户给出; 对推理所得证据,其值由推理中不确定性的传递算法通过计算得到。,4, 不确定性的量度 对于不同的知识和不同的证据,其不确定性的程度一般是不相同的,需要用不同的数据表示其不确定性的程度,同时还要事先规定它的取值范围。例如,在专家系统 MYCIN 中,用可信度表示知识与证据的不确定性,取值范围为 -1, 1。 在确定一种
4、量度及其范围时,应注意以下几点: 1) 量度能充分表达相应知识及证据不确定性的程度。 2) 量度范围的指定应便于领域专家及用户对不确定性的估计的程度。 3) 量度要便于对不确定性的传递进行计算,而且对结论算出的不确定性量 度不能超出量度规定的范围。 4) 量度的确定应是直观的。,5,(2) 不确定性匹配算法及阈值的选择 对于不确定性推理,由于知识和证据都具有不确定性,而且知识所 要求的不确定性与证据实际具有的不确定性程度不一定相同,因而就出 现了“怎样才算匹配成功”的问题。 对于这个问题,目前常用的解决方法是: 设计一个算法用来计算匹配双方相似的程度,另外再指定一个相似 的“限度”,用来衡量匹
5、配双方相似的程度是否落在指定的限度内。如果 落在指定的限度内,就称它们是可匹配的,相应知识可被应用。 用来计算匹配双方相似程度的算法称为不确定性匹配算法。 用来指出相似的“限度”称为阈值。,6,(3) 不确定性的传递算法 不确定性推理的根本目的是根据用户提供的初始证据,通过运用不确定性知识,最终推出不确定性的结论,并推算出结论的不确定性程度。为达到这一目的,除了需要解决前面提到的问题外,还需要解决推理过程中不确定性的传递问题,它包括两个子问题: 在每一步推理中,如何把证据及知识的不确定性传递给结论; 在多步推理中,如何把初始证据的不确定性传递给最终结论。 对前一个问题,在不同的不确定推理方法中
6、所采用的处理方法各不相同, 这将在以后讨论。 对第二个问题,各种推理方法所采用的处理方法基本相同,即: 把当前推出的结论及其不确定性程度作为证据放入数据库中,在以后的推理中,它又作为证据推出进一步的结论,由此一步步进行推理,必然会把初始证据的不确定性传递给最终结论。,7,(4) 结论不确定性的合成 推理时有时会出现这样的情况: 用不同的知识进行推理得到了相同的结论,但不确定性的程度却不同。 此时,需要用合适的算法对它们进行合成。 在不同的不确定推理方法中所采用的处理方法各不相同,这将在以后讨论。,8,4.2 不确定性推理方法的分类及常用不确定性推理方法简介 1. 不确定性推理方法的研究分类 不
7、确定性推理方法的研究分为两大类: (1) 在推理一级上扩展确定性推理 特点: 把不确定的证据和不确定的知识分别与某种量度标准对应起来,并且给出 更新结论不确定性的算法,从而构成了相应的不确定性推理的模型。 一般来说,这类方法与控制策略无关,即无论用何种控制策略,推理的结 果都是唯一的,我们把这一类方法称为模型方法。,9,(2) 在控制策略一级处理不确定性 特点: 通过识别领域中引起不确定的某些特征及相应的控制策略来限制或减少不 确定性对系统产生的影响。 这类方法没有处理不确定性的统一模型,其效果极大的依赖于控制策略, 这类方法称为控制方法。 控制方法: 包括相关性制导回溯、机缘控制、启发式搜索
8、等方法。 (在此不讨论),10,2 常用的不确定性推理方法介绍 (1) 主观 Bayes 方法 利用新的信息将先验概率P(H)更新为后验概率P(H|E)的一种计算方法. 主观 Bayes方法由 Duda 等人于 1976 年提出,其首先在Prospector专 家系统中使用,它以概率论中的 Bayes公式为基础。 其核心思想是: .根据证据的概率P(E); .利用规则的(LS,LN);LS:E 的出现对 H 的支持程度, LN:E 的出现对 H 的不支持程度。 .把结论 H 的先验概率更新为后验概率 P(H|E); .循环,11,(2) 可信度方法 可信度方法是由E.H.Shortliffe等
9、人在确定性理论的基础上,结合概率 提出的一种不确定性推理方法,首先在Mycin系统中得到了成功的应用。 其核心思想是: 利用确定性因子CF(值) . 联系于具体的断言 . 联系于每条规则 . 通过CF的计算传播不确定性 (3)证据理论法 由Dempstan和 Shafen提出并发展,其基于一系列理论和描述。由于该理论满足比概率论更弱的公理,能够区分“不确定”与“不知道”的差异,并能处理由“不知道”产生的不确定性,具有较大的灵活性。 在证据理论的基础上已经发展了多种不确定性推理模型。,12,(4) 模糊推理 模糊推理与前三种不确定性推理方法有着实质性的区别,前三种方法的 理论基础是概率论,它所研
10、究的事件本身有明确的含义,只是由于发生的 条件不充分,使得在条件与事件之间不能出现确定的因果关系,从而在事 件的出现与否上出现不确定性,那些推理模型是对这种不确定性,即随机 性的表示与处理。 模糊推理是利用模糊性知识进行的一种不确定性推理。 模糊推理的理论基础是模糊集理论以及在此基础上发展起来的模糊逻辑。 它所处理的事物自身是模糊的,概念本身没有明确的外延,一个对象是否 符合这个概念难以明确的确定,模糊推理是对这种不确定性,即模糊性的 表示与处理。 在人工智能领域内,知识及信息的不确定性大多是由模糊性引起的,这 就使得对模糊理论的研究显得格外重要。,13,4.3 概率方法 1. 经典概率方法
11、设有如下产生式规则: IF E THEN H (其中,E为前提条件,H为结论。) 如果我们在实践中能得出在E发生的条件下H的条件概率P(H/E),那么就可把它 作为在证据E出现时结论H的确定性程度。 对于复合条件 E = E1 AND E2 ANDAND En 也是这样,当已知条件概率P(H/E1,E2,En),就可把它作为在证据E1,E2,En 出现时结论H的确定性程度。 优点:显然这是一种很简单的方法,只能用于简单的不确定性推理。 缺点:由于它只考虑证据为真或为假两种极端情况,因而使其应用受到限制。,14,2. 逆概率方法 经典概率方法要求给出在证据E出现情况下结论H的条件概率P(H/E)
12、,这在实 际应用中是相当困难的。 例: 若以E代表咳嗽,以H代表支气管炎,如欲得到在咳嗽的人中有多少是患 支气管炎的,就需要作大量的统计工作; 但是如果在患支气管炎的人中统计有多少人是咳嗽的,就相对容易一些, 因为患支气管炎的人毕竟比咳嗽的人少得多。 解决方法:可用逆概率P(E/H)来求原概率P(H/E)。( Bayes定理给出了解决这 个问题的方法。) (1) Bayes定理: 若A1,A2,An是彼此独立的事件,则对任何事件B有如下Bayes公式成立: P(Ai/B)= i=1,2,.n,15,其中,P(Ai)是事件Ai的先验概率; P(B/Ai)是事件在Ai发生条件下的事件B的条件概率;
13、 P(Ai/B)是事件在B发生条件下的事件Ai的条件概率。(2) 单个证据时 如果用产生式规则: IF E THEN Hi (IF 咳嗽 THEN 气管炎) 中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai,就可得到 P(Hi/E)= i=1,2,.n 这就是说,当已知结论Hi的先验概率P(Hi),并且已知结论Hi(i=1,2,.n)成立时前提条件E所对应的证据所出现的条件概率P(E/Hi),就可用上式求出相应证据出现时结论Hi的条件概率P(Hi/E)。,16,例:设H1,H2,H3分别是三个结论,E是支持这些结论的证据,且已知: P(H1)=0.3 P(H2)=0.4, P(H
14、3)=0.5 P(E/H1)=0.5 P(E/H2)=0.3 P(E/H3)=0.4 求 P(H1/E), P(H2/E), P(H3/E),的值各是多少。解:根据上面的公式 P(H1/E)= = = 0.32 同理可得: P(H2/E)=0.26 P(H3/E)=0.43 由此可见,证据E的出现,H1成立的可能性略有增加,H2、H3略有下降。,17,(3) 有多个证据时 对于有多个证据E1, E2, , Em和多个结论H1, , H2, Hn,并且每个证据都以 一定的程度支持结论的情况,上面的式子可进一步扩充为: P(Hi/E1 E2Em)= i=1,2,3,n(4) 小结 优点:有较强的理
15、论背景和良好的数学特性,当证据及结论都彼此独立时计 算的复杂度较低; 缺点:它要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej/Hi),尽 管有些时候P(Ej/Hi)比 P(Hi/Ej)相对容易得到,但总的来说,想得到 这些数据是相当困难的; 另外,Bayes公式的应用条件很严格,它要求各事件相互独立。,18,4.4 主观 Bayes 方法 鉴于上节所述的直接使用Bayes公式带来的诸多不便,1976年杜达 (R.O.Duda)、哈特(P.E.Hart) 等人在 Bayes 公式的基础上经适当改进提出了主观 Bayes 方法,建立了相应的不确定推理模型,并在地矿勘探专家系统 P
16、ROSPECTOR 中得到了成功的应用。 1. 知识不确定性的表示 在主观 Bayes 方法中,知识是用产生式规则表示的,具体形式为: if E then (LS, LN) H ( P(H) ) 其中 E 是该条知识的前提条件,它既可以是一个简单条件, 也可以是用 and 、or 把单个条件连接起来的复合条件。 H 是结论。 P(H) 是 H 的先验概率,它指出在没有任何专门证据的情况 下,结论为真的概率,其值由领域专家根据以往的实 践及经验给出。,19, LS 称为充分性量度,用于指出 E 对 H 的支持程度,取值范围 为 0, ),其定义为: LS = LS 的值由领域专家给出,具体情况在
17、下面论述。 LN 称为必要性量度,用于指出 E 对 H 的支持程度,取值范 围为 0, ),其定义为: LN = = LN 的值也由领域专家给出,具体情况在下面论述。 LS, LN 相当于知识的静态强度。,20,2. 证据不确定性的表示 在主观 Bayes 方法中,证据的不确定性也是用概率表示的。 例如,对于初始证据 E ,由用户根据观察 S 给出 P(E/S), 它相当于动态强度。 但由于 P(E/S) 的给出相当困难,因而在具体的应用系统中 往往采用适当的变通方法,如在 PROSPECTOR 中引进了可信 度的概念,让用户在 5 至 5 之间的 11 个整数中选一个数作为 初始证据的可信度
18、。 可信度 C(E/S) 与 概率 P(E/S) 的对应关系如下: C(E/S)= 5 ,表示在观察 S 下证据 E 肯定不存在,即 P(E/S)=0; C(E/S)= 0 , 表示 S 与 E 无关,即 P(E/S) =P(E) ; C(E/S)= 5 , 表示在观察 S 下证据 E 肯定存在,即 P(E/S)=1;,21,C(E/S) = 其它数值时与 P(E/S) 的对应关系,可通过对上述三点进行分段线性 插值得到,如下图。,由上图可得到 C(E/S) 与 P(E/S) 的关系式:,这样,用户只要对初始证据给出相应的可信度 C(E/S),就可将其转换为P(E/S) 。,22,3. 组合证
19、据不确定性的算法 当组合证据是多个单一证据的合取时,即 E=E1 AND E2 AND AND En,如果已知P(E1/S),P(E2/S),P(En/S), 则: P(E/S) = min P(E1/S), P(E2/S), , P(En/S) 当组合证据是多个单一证据的析取时,即 E=E1 OR E2 OROR En , 如果已知P(E1/S),P(E2/S),P(En/S), 则: P(E/S) = max P(E1/S), P(E2/S), , P(En/S) 对“非”运算,则: P( E/S) = 1 P(E/S),23,4. 不确定性的传递算法 在主观 Bayes 方法的知识表示中
20、,P(H) 是专家对结论 H 给出的先验概率, 它是在没有考虑任何证据的情况下根据经验给出的。随着新证据的获得,对 H 的信任程度应该有所改变。主观 Bayes 方法推理的任务就是根据证据 E 的概率 P(E)及 LS , LN 的值,把 H的先验概率 P(H) ,更新为后验概率 P(H/E) 或 P(H/ E)。 即: P(H) P(H/E) 或 P(H/E) 下面分三种情况讨论。 (1) 证据肯定存在的情况 证据肯定存在时,P(E) = P(E/S) = 1,24,由 Bayes 公式得: P(H/E) = P(E/H) P(H) / P(E) 同理有: P(H/E) = P(E/H) P
21、(H) / P(E) 除以,得: P(H/E) P(E/H) P(H) P(H/E) P(E/H) P(H) 由 式 及 “非”运算 P(H/E) = 1 P(H/E) , 得:,=,25,充分性量度LS: 当 LS 1 时,P(H/E) P(H),这表明由于证据 E 的存在,将增大 结论 H 为真的概率,且 LS 越大,P(H/E) 就越大,即 E 对 H 为真的支持越强。当 LS ,P(H/E) 1, E 的存在对 H 为真是充分的,故称 LS 为充分性量度。 当 LS = 1 时,P(H/E) = P(H) ,这表明 E 与 H 无关。 当 LS 1 时, P(H/E) P(H),表明由
22、于证据 E 的存在,将导致 H 为真的可能性下降。 当 LS = 0 时,P(H/E) = 0 ,这表明证据 E 的存在,导致 H 为假。 上述 LS 的讨论,可作为领域专家为 LS 赋值的依据,当证据E 越是支持 H 为真时,则应使 LS 的值越大。,26,(2) 证据肯定不存在的情况 证据肯定不存在时, P(E) = P(E/S) = 0 ,P(E)= 1 。 由 Bayes 公式得: P(H/E) = P(E/ H) P(H) / P(E) 同理有: P(H/E) = P(E/H) P(H) / P(E) 除以,得: P(H/E) P(E/H) P(H) P(H/E) P(E/H) P(
23、H) 由 式 及 “非”运算 P(H/E) = 1 P(H/E) , 得:,27,必要性量度LN: 当 LN 1 时,由上式得:P(H/E) P(H) 这表明由于证据 E 的不存在,将增大 结论 H 为真 的概率,且 LN 越大,P(H/E) 就越大,即 E 对 H 为真的支持越强。当 LN ,P(H/E) 1 。 当 LN = 1 时,P(H/E) = P(H) ,这表明 E 与 H 无关。 当 LN 1 时, P(H/E) P(H),表明由于证据 E 的不存在,将导 致 H 为真的可能性下降。 当 LN = 0 时,P(H/E) = 0 ,这表明证据 E 的不存在,导致 H 为 假。 由此
24、也可看出 E 对 H 为真的必要性,故称 LN 为必要性量度。 上述 LN 的讨论,可作为领域专家为 LN 赋值的依据,当证据E 对 H 愈是必要,则相应 LN 的值愈小。,28,另外,由于 E 和 E 不可能同时支持 H 或反对 H ,所以在一条知识中,LS 和 LN 不应该出现下列情况中的任何一种: LS 1,LN 1 LS 1,LN 1 (3) 证据不确定的情况 在现实中,证据肯定存在或肯定不存在的极端情况是不多的, 更多的是介于两者之间的不确定情况。 现在要在 0 P(E/S) 1 的情况下确定 H 的后验概率 P(H/S) 。 在证据不确定的情况下,不能再用上面的公式计算后验概率,
25、而需使用 R.O.Duda 等人1976年证明的如下公式: P(H/S) = P(H/E) P(E/S) + P(H/E) P(E/S) ,29,下面分四种情况讨论: 1) P(E/S) = 1 当 P(E/S) = 1 时, P(E/S) = 0,此时公式 变为: P(H/S) = P(H/E) = 这是证据肯定存在的情况。 2) P(E/S) = 0 当 P(E/S) = 0 时, P(E/S) = 1,此时公式 变为: P(H/S) = P(H/E) = 这是证据肯定不存在的情况。,30,3) P(E/S) = P(E) 当 P(E/S) = P(E) 时,此时公式 变为: P(H/S)
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能4 不确定性推理 人工智能课程课件 人工智能 不确定性 推理 课程 课件

链接地址:https://www.31ppt.com/p-1622005.html