第5章知识表示与机器推理(二) 本章简要介绍不确定性和不确切性知识的表示与推理方法。 5.1不确定性和不确切性信息处理 首先声明: 这里的信息一词是广义的,它也包含知识。 视频讲解 1. 什么是不确定性信息 这里的不确定性信息(uncertain information)是指那些不能确定真实性的信息。例如: 明天下雨。 如果头痛且发烧,则患了感冒。 所描述的信息和知识就是不确定性信息。 对于不确定性信息,只能对其为真的可能性给出某种估计。在通常的语言和文字交流中,我们用“可能”“大概”等副词来表述不确定性信息为真的可能性程度。例如, 明天可能下雨。 如果头痛且发烧,则大概是患了感冒。 需要注意的是,我们这里所说的不确定性(uncertainty)仅指因事物的随机性或者人们对事物的认识不足而导致的(信息)不确定性,而并非有些文献中所说的那种包括模糊性(即不确切性)以及非专一性、不一致性、不协调性、无知性和时变性等的不确定性,它也不包括不可靠、不稳定、不准确、不完全及含糊性等(在文献[82]中我们曾将这些性质统称广义不确定性,而将不肯定称为狭义不确定性)。 2. 什么是不确切性信息 这里的不确切性信息(imprecise information)是指那些意思不够明确、不够严格(有一定弹性)的信息。例如, 小王是个高个子。 这句话所表达的信息就是不确切性信息。因为多高的个子算是“高个子”,并没有一个明确的、严格的、刚性的标准。 其实,造成信息不确切的原因是其中有的词语的含义不确切。例如上面的“高个子”一词的含义就不确切。又如: 小明是个好学生。 张三和李四是好朋友。 如果向左转,则身体就向左稍倾。 这几个命题中的“好学生”“好朋友”“稍倾”等词语的含义都是不确切的。所以,这几个命题所描述的信息就是不确切的,亦即不确切性信息。 需要说明的是,这里的不确切(imprecise,在有些文献中译为不精确)也就是模糊集理论中的模糊(fuzzy),但模糊技术中并未明确地将含义模糊的信息称为不确切性信息。笔者发现,所谓“模糊”(fuzzy),本质上更应该是“柔软”“灵活”“有一定弹性”(flexible)。所以,这种“模糊性”(fuzziness)实际上是一种不确切性(imprecision)。 3. 不确定性与不确切性的区别与联系 从表达方式看,不确切性信息由相关语句直接表达(其不确切性就表现在相关语句中的词语上),不确定性信息一般不能直接表达,它要借助于一个含有“可能”“大概”等词的主从式复合语句(我们将其称为可能型模态命题)来间接表达。例如,上面的不确定性信息“明天下雨”就是通过“明天可能下雨”亦即“‘明天下雨’是可能的”这种模态命题来表达的。 由上所述,我们看到: 不确定性信息是指那些不能确定真伪的信息,即其所表达的事件或者事物性状、关系或行为是不确定、不肯定的; 而不确切性信息则是对事物的性状、关系或行为描述得不够具体、不够严格、不够精确的信息。可见,不确定性和不确切性(或者说确定性和确切性)是两个相互独立的信息属性。于是,基于这两个属性,信息就可分为确定确切性信息、不确定确切性信息、确定不确切性信息和不确定不确切性信息等四大类。前三类信息的存在是显而易见的。那么,存在第四类不确定不确切性信息吗?答案是肯定的。例如,下面的命题: 明天下大雨。 如果头很痛并且发高烧,则患了重感冒。 所表达的就是不确定不确切性信息。 4. 不确定性信息处理与不确切性信息处理 既然不确定性信息与不确切性信息是两种性质不同的信息,那么,针对不确定性的信息处理即不确定性信息处理(uncertaininformation processing)与针对不确切性的信息处理即不确切性信息处理(impreciseinformation processing)也就是性质不同的两种信息处理。事实上,不确定性信息处理解决的是信息真(或伪)的可能性问题,不确切性信息处理解决的是信息真(或伪)的强弱性问题。从问题求解的角度看,不确定性信息处理解决可能解的问题,不确切性信息处理解决近似解的问题。 除了对信息进行常规的各种处理外,在人工智能中,这两种信息处理还有而且主要是推理、计算、归纳、抽象、挖掘、学习、转换等智能性处理,以解决有关预测、诊断、分类、识别、决策、控制、规划等实际问题。可见,这两种信息处理实际上贯穿于人工智能的各个领域。它们对于人工智能的重要性及在人工智能中的地位是不言而喻的。 最后需要说明的是,对于不确定性信息处理,人们已经有了相当深入的研究并取得了丰硕的成果。由于有概率和数理统计的支持,不确定性信息处理已形成较为成熟和完善的理论和技术体系。相比之下,不确切性信息处理还缺乏坚实的理论基础,其技术还不够成熟。尽管自1965年美国的Zadeh教授提出模糊集合的概念以来,以模糊集理论为基础的模糊技术发展迅速,并在不确切性信息处理中取得了不少成绩,但时至今日,模糊技术中一些重要理论和技术问题仍未得到很好解决。虽然有不少学者致力于模糊集理论的改进和发展,提出了许多新见解、新理论和新方法,但总体来讲,大家的认识还未统一,所存在问题还未真正解决,因此,不确切性信息处理仍然是一个需要认真研究的重大课题。 对于不确切信息处理,本书作者——我自己也做了一些工作。经过多年的潜心钻研,笔者发现,信息的不确切性源于事物特征量值的连续分布或变化(或者说事物的均匀连锁相似)现象和人脑对此的软聚类处理方式。于是,笔者便以此为依据,并结合日常语言中人脑对不确切性信息的处理方式,全面探讨不确切性信息处理的原理和方法,结果得到了一系列有别于模糊技术的新理论和新方法,形成了一个新的不确切性信息处理理论和技术体系。于是,便明确地提出了不确切性信息与不确切性信息处理的概念,并于2009年出版了专著《不确切性信息处理原理》(科学出版社),2016年又推出了该书的第二版Principles of ImpreciseInformation Processing: A New Theoretical and Technological System (Springer Nature)。 后面的5.3节将简要介绍笔者在不确切性知识表示及推理方面的一些研究成果,以供读者参考和讨论。 5.2不确定性知识的表示及推理 5.2.1不确定性知识的表示 对于不确定性知识(uncertain knowledge),其表示的关键是如何描述不确定性。一般的做法是用信度(believability)来量化不确定性。一个命题的信度是指该命题为真的可信程度。例如, (这场球赛甲队取胜,0.9) 这里的0.9就是命题“这场球赛甲队取胜”的信度。它表示“这场球赛甲队取胜”这个命题为真(即该命题所描述的事件发生)的可能性程度是0.9。 一般地,设c(S)为命题S的信度。这样,二元组(S,c(S))就可作为不确定性命题的一种表示形式,进而我们将不确定性产生式规则A→B表示为 (A→B,c(A→B))(51) 或 A→(B,c(B|A))(52) 其中c(B|A)表示规则的结论B在前提A为真的情况下为真的信度。例如,对上节中给出的不确定性条件命题,若采用式(52),则可表示为 如果头痛且发烧,则患了感冒(0.8)。 这里的0.8就是对应规则结论的信度,它们代替了原命题中的“可能”。 信度一般是基于概率的一种度量,或者就直接以概率作为信度。例如,著名的专家系统MYCIN中的信度就是基于概率而定义的,而在贝叶斯网络中就是直接以概率作为信度的。对于上面的式(52),要直接以概率作为信度则只需取c(B|A)=P(B|A)即可。 5.2.2不确定性推理 基于不确定性知识的推理一般称为不确定性推理(uncertain reasoning)。如果我们用信度来量化前提的不确定性,则推理的结果仍然应含有信度。这就是说,不确定性推理时,除了要进行符号推演操作外,还要进行信度计算。不确定性推理的一般模式可简单地表示为 不确定性推理=符号推演+信度计算 可以看出,不确定性推理与通常的确定性推理相比,区别在于多了一个信度计算过程。然而,正是因为含有信度及其计算,所以不确定性推理与通常的确定性推理就存在显著差别。 (1) 不确定性推理中规则的前件能否与证据事实匹配成功,不但要求两者的符号模式能够匹配(合一),而且要求证据事实所含的信度必须达到一定的阈值。 (2) 不确定性推理中一个规则的触发,不仅要求其前提能匹配成功,而且前提条件的总信度还必须至少达到阈值。 (3) 不确定性推理中所推得的结论是否有效,也取决于其信度是否达到阈值。 (4) 不确定性推理还要求有一套关于信度的计算方法,包括“与”关系的信度计算、“或”关系的信度计算、“非”关系的信度计算和推理结果信度的计算等。这些计算也就是在推理过程中要反复进行的数值计算。 总之,不确定性推理要涉及信度、阈值以及信度的各种计算和传播方法的定义和选取。所有这些就构成了所谓的不确定性推理模型。 20世纪70年代专家系统的建造引发和刺激了关于不确定性推理的研究,人们相继提出了许多不确定性推理模型,其中有传统的概率推理、有别于纯概率推理的信度推理和基于贝叶斯网络的不确定性推理等。 概率推理就是直接以概率作为不确定性度量,并基于概率论中的贝叶斯公式而进行规则结论的后验概率计算的推理方法。最初人们对这一方法充满希望,但是很快发现这种方法无法大规模发展,因为在全联合概率分布中所需要的概率数目呈指数级增长。结果,大约从1975年到1988年,人们对概率方法失去了兴趣。于是,各种各样的不确定性推理模型作为替代方法便应运而生。 不确定性推理模型中比较著名和典型的有确定性理论(或确定因素方法)、主观贝叶斯方法和证据理论等,这些模型都有一定的特色和很好的应用实例,特别是证据理论,曾被认为是最有前途、能与传统概率推理竞争的一种不确定性推理模型。但实践证明这些经典的不确定性推理模型也都有一些局限和缺点,比如缺乏坚实的数学基础。 20世纪80年代中期以后,出现了称为贝叶斯网络的不确定性知识表示及其推理的新方法。贝叶斯网络为人们提供了一种方便的框架结构来表示因果关系,这使得不确定性知识在逻辑上变得更为清晰,可理解性更强。贝叶斯网络是一种表示因果关系的概率网络,基于贝叶斯网络的推理是一种基于概率的不确定性推理。贝叶斯网络的出现,使概率推理再度兴起。事实上,自从1988年被Pearl提出后,贝叶斯网络现已成为不确定性推理领域的研究热点和主流技术,已在专家系统、故障诊断、医疗诊断、工业控制、统计决策等许多领域得到了广泛应用。例如,在我们熟知的Microsoft Windows中的诊断修理模块和Microsoft Office中办公助手中都使用了贝叶斯网络。 5.3不确切性知识的表示及推理* 5.3.1软语言值及其数学模型 视频讲解 考察“大”“小”“多”“少”“高”“低”“快”“慢”“热”“冷”“很”“非常”等形容词和副词,可以看出,这些词语都是相应的一批数量值的概括描述。所以,它们也就是相应数量值域上的一种值——语言值。又由于它们所概括的数量值一般并没有硬性的明确的边界,或者说其边界有一种柔性或弹性,所以,我们称这类语言值为软语言值(flexible linguistic value)。软语言值的语义也就是软概念(flexible concept)。 有了软语言值这个术语,我们就可以说,信息的不确切性是由软语言值造成的。或者说,正是软语言值才导致了信息的不确切性。 定义51设A是论域U=[a,b]上的一个软语言值,令 cA(x)=x-s-Ac-A-s-A,a≤x≤ξA s+A-xs+A-c+A,ξA≤x≤b (53) 称为该软语言值A的相容函数。对于x∈U,cA(x)称为x与A的相容度。其中区间[s-A,s+A]为A的支持集,记为supp(A),s-A,s+A为A的临界点; [c-A,c+A]为A的核,记为core(A)c-A,c+A为A的核界点; ξA为A的峰值点; 集合{x | x∈U,0.5< cA(x)≤1}称为A的扩展核,记为core(A)+。相容函数cA(x)的图像如图51所示。 图51软语言值A的相容函数cA(x)示意图 例51设“低”“中等”“高”为男性成人的身高域[1.2,2.2](假设)上的三个相邻的软语言值。我们设“中等”的两个临界点分别为1.5(m)和1.8(m),两个核界点分别为1.6(m)和1.7(m)。由上面的定义式(53),“中等”的相容函数就是 c中等(x)= 10x-15,1.2≤x≤1.65 18-10x,1.65≤x≤2.2 其图像如图52所示(略去了横轴下面的部分)。“低”和“高”的相容函数留给读者完成。 图52软语言值的相容函数示例 由上面的定义和例子可以看出: (1) 一个软语言值的相容函数完全由其核和支持集确定。 (2) 相容函数的值域为区间[α,β] (α≤0,1≤β)。 (3) 论域U上一个相容函数就决定了或者说定义了U上的一个软语言值。所以,相容函数就是软语言值(软概念)的数学模型。 说明: 软概念还有一种数学模型——软集合(flexible set,详见文献[96]的Chapter 2)。软集合与软语言值是对应的,前者可以看作是后者的数值模型。 软语言值还有全峰和半峰之分。全峰软语言值的相容函数为三角形函数,而半峰软语言值的相容函数为线性函数,其图像只有一条斜线。一般来讲,位于论域边界处的软语言值为半峰软语言值(其峰值点刚好为论域的边界点)。例如,图52中“中等”就是全峰软语言值,而“低”和“高”则是半峰软语言值。这样,上面式(53)所定义的相容函数只是全峰软语言值的相容函数,而半峰软语言值的相容函数则仅有一个表达式。 从图52可以看出,在“低”“中等”“高”这组软语言值中,前一个语言值的临界点同时也是后一个语言值的核界点,后一个语言值的临界点同时也是前一个语言值的核界点。这种关系的两个软语言值实际是一种互否关系,称为互否软语言值。这样,“低”“中等”“高”这三个软语言值之间就是依次两两互否。一组依次两两互否的软语言值,如果还刚好覆盖了所属论域,则称这组软语言值为相应论域上的一个基本软语言值组。据此,“低”“中等”“高”构成了论域[1.2,2.2]上的一个基本软语言值组。 5.3.2不确切性知识的表示 传统的知识表示中,软语言值也被作为符号来处理。现在有了相容函数和相容度,我们就可以用其对软语言值进行量化表示。例如,用 (胖,1.2) 刻画一个人“胖”的程度。 我们把这种附有相容度的软语言值称为程度化软语言值(flexible linguistic value with degree)。其一般形式为 (W,d) 其中,W为软语言值,d为程度,即 (<软语言值>,<程度>) 下面,我们就利用这种程度即相容度和程度化软语言值实现不确切性知识(imprecise knowledge)的表示。我们将元组、谓词、规则、框架、语义网等通常的知识表示形式量化为程度化元组、程度化谓词、程度化规则、程度化框架、程度化语义网。 1. 程度化元组 其一般形式为 (<对象>,<特征>,(<语言值>,<程度>))(54) 或用变量表示为 (x,F,(W,cW(x)))(55) 例如: (这个苹果,味道,(甜,0.95)) 这就是一个程度化元组,可解释为: 这个苹果比较甜。 2. 程度化谓词 谓词也就是语言值。按照程度化语言值的做法,给谓词也附以程度,即细化为程度化谓词,以精确刻画相应个体对象的特征。根据谓词的形式特点,我们将程度化谓词书写为 Pd(<对象1,对象2,…,对象n>)(56) 或 dP(<对象1,对象2,…,对象n>)(57) 其中,P表示谓词,d表示程度; Pd为下标表示法,dP为乘法表示法。 或者用变量表示为 Pd(x1,x2,…,xn)(58) 或 dP(x1,x2,…,xn)(59) 其中d=cp(x1,x2,…,xn)。 例如 white1.0(雪)或1.0white(雪) 就是程度化谓词,可解释为: 雪是白的。又如 friends1.15(张三,李四)或1.15friends(张三,李四) 也是程度化谓词,可解释为: 张三和李四是好朋友。 3. 程度化规则 含有程度化语言值的产生式规则称为程度化产生式规则,简称程度化规则。单条件程度化规则的一般形式为 (<对象>,<特征>,(<语言值>,<程度>))→(<对象>,<特征>,(<语言值>,<程度>))(510) 或者 (A,d)→ (B,f(d))(511) 其中,d=cA(x)是规则前件语言值A的程度,函数值f(d)是规则后件语言值B的程度,f(d)为原规则A(x)→B(y)的伴随程度函数(即后件语言值的程度与前件语言值的程度之间的函数关系(其及求取方法可参见文献[96]的Chapter 14)。 例如 (香蕉,颜色,(黄,0.7))→(香蕉,生熟,(熟,0.9)) 就是一个程度化规则,可解释为: 如果香蕉有些黄,则就比较熟。 又如,设有规则: 如果严重鼻塞、头很痛并且发高烧,则患了重感冒。用程度化规则可描述如下: (严重(鼻塞),dx)∧((头)很痛,dy)∧(高烧,dz)→(重感冒,1.2(0.3 dx+0.2 dy+0.5 dz)) 4. 程度化框架 含有程度化语言值的框架称为程度化框架。例如下面是一个描述大枣的程度化框架。 框架名: <大枣> 类属: (<干果>,0.8) 形状: (圆,0.7) 颜色: (红,1.0) 味道: (甘,1.1) 用途: 范围: (食用,药用) 缺省: 食用 5. 程度化语义网(知识图谱) 含有程度化语言值的语义网称为程度化语义网。例如,如图53所示的就是一个描述狗的程度化语义网(或程度化知识图谱)。 图53程度化语义网示例 可以看出,用程度刻画不确切性,其思想类似于用概率刻画不确定性。 5.3.3基于软语言规则的推理 我们将前件或者后件中含有软语言值的产生式规则称为软语言规则(flexible linguistic rule),简称软规则(flexible rule)。基于软语言规则的推理是不确切性信息处理的一个核心技术。这种推理有多种形式和方法,如自然推理、真度推理、程度推理、多规则程度推理、带数据转换的程度推理、基于程度推理的近似推理、并行程度推理、AT推理等,由于篇幅所限,本节仅简要介绍其中3种方法。 1. 自然推理 所谓自然推理(natural reasoning)就是通常的那种演绎推理。虽然软语言规则中的符号(语言值)是软的,但在证据事实与相应规则的前提完全匹配的情况下,基于软语言规则的推理与通常基于一般规则的推理并无区别。然而,由于软语言值与数量值可以互相转换(转换方法见文献[118]第14章),所以基于软语言规则的自然推理就有其独特之处了。事实上,配上数据转换接口,基于软语言规则的自然推理就可实现数量值到软语言值、软语言值到数量值和数量值到数量值的变换(详见文献[118]14.3节)。 2. 程度推理 基于伴随程度函数和程度计算的软语言规则推理称为程度推理(reasoning with degrees),其形式如下: (A,d)→ (B,f(d)) (A,dA) (512) 所以(B,dB) 或者更简单地写为 (A→ B,f(d)) (A,dA) (513) 所以(B,dB) 其中,f(d)是原规则A(x)→B(y)的伴随程度函数,dA=cA(x0)>0.5是证据事实命题A(x0)中语言值A的程度,dB=f(dA)>0.5是推理结果命题B(y0)中语言值B的程度,即cB(y0)。 程度推理的语义是: 如果x具有A的程度dA>0.5,则y具有B的程度f(dA)>0.5。现已知某x0具有A的程度为dA且>0.5,所以,存在y0,其具有B的程度dB=f(dA),而且dB>0.5。 程度推理的过程是: 先进行证据事实语言值与规则前件语言值的符号模式匹配,再判断是否dA>0.5; 如果是,则将dA代入f(d),得dB=f(dA); 进而得结果(B,dB),由伴随程度函数的值域(见文献[96]的Section 14.2)可知,一定有dB>0.5。 可以看出,程度推理实际上是一种谓词层次上的推理。故程度推理的基本原理简单来讲就是: 谓词符号推演+程度计算。例52设有软语言规则: 如果市场对某商品的需求旺盛而供货却不足,则该商品的价格就会上涨。又已知事实: 该商品的需求大增(假设具体数量对“旺盛”相容度为1.25)并且供货有些不足(假设具体供货量对“不足”的相容度为0.78)。试用程度推理给出该货物价格情况的预测。 解设A1,A2和B分别表示软语言值“旺盛”“不足”和“涨”。则原规则就是A1∧A2→B,而已知事实为: (A1,1.25)和(A2,0.78)。根据上述的程度推理一般模式,拟进行的程度推理就是 (A1∧A2→B; f(d)) (A1∧A2,dA1∧A2) (B,dB) 可以看出,要进行这一程度推理,则需要先构造规则A1∧A2→B的伴随程度函数f(d),再将原来的证据事实(A1,1.25)和(A2,0.78)合成为(A1∧A2,dA1∧A2)。 为简单起见,参照文献[96]的Section 14.3中所给出的参考模型,我们直接取规则A1∧A2→B的伴随程度函数f(d)为 f(d)=βB-0.5β∧-0.5(d-0.5)+0.5 其中β^=min{βA1,βA2},βA1,βA2分别为A1和A2的相容度最大值,βB为B的相容度最大值。现假设βA1=2.5,βA2=1.7,则得β^=min{2.5,1.7}=1.7; 又假设βB=2.0。将这两个数代人上面所设的函数式,得规则A1∧A2→B的实际伴随程度函数f(d)为 f(d)=114d-18 又由程度化软语言值的运算法则(见文献[96]的Chapter 7) (A1,1.25)∧(A2,0.78) =(A1∧A2,dA1∧A2=min{1.25,0.78}) =(A1∧A2,0.78) 现在,该程度推理的大、小前提分别为 A1∧A2→B; 114dA-18 和 (A1∧A2,0.78) 显然,小前提中的合成语言值A1∧A2与大前提中的前件语言值完全匹配,而且dA1∧A2=0.78>0.5。因此,相应的程度推理可以进行。 将dA1∧A2=0.78代入函数f(d)=1516d+132得f(dA1∧A2)=0.85,即dB=0.85。于是,该程度推理的结果为: (B,0.85)。可解释为: 该商品的价格会有一定上涨,且强度为0.85。 程度推理实际是真度推理(reasoning with truthdegrees)的一种变体,而真度推理则是在真度逻辑(truthdegrees logic)和软语言真值逻辑及其推理的基础上产生的,一方面,它实际是“偏真全称假言推理”和“约真全称假言推理”的进一步量化(详见文献[96]的Chapter 15),故程度推理有坚实的逻辑基础; 另一方面,程度推理也是软谓词推理的量化,是一种兼有定性与定量的谓词逻辑推理。程度推理也可看作是传统谓词推理的一种推广。事实上,伴随程度函数为f(d)=dA且程度dA=1的程度推理就相当于传统的谓词推理。 最后需要说明的是: 程度推理虽然有其特定的模式和方法,但如果灵活运用,则用其可实现多种情况和多种要求的推理,如带数据转换的推理、多步推理、多路推理、并行推理甚至近似推理和计算等。 3. AT推理 基于软语言规则的近似推理还有一种重要方法——AT(Approximatedegree transmission and Translation transformation,近似度传递与平移变换)推理。其具体描述如下。 设有软语言规则A→B和近似于软语言值A的A′,则可用以下步骤导出相应的结论软语言值B′: (1) 求出软语言值A和A′的峰值点ξA和ξA′,再用ξA和ξA′求出扩展核XA′与XA的距离dA′A; (2) 用公式dB′B=dA′ArBrA计算距离dB′B(rA,rB分别为A,B的近似半径,即扩展核半径); (3) 根据规则A→B所决定的方位对应关系,确定扩展核YB′相对于YB的方位,然后选用式(514)~(519)中的合适公式求出软语言值B′的临界点s-B′,s+B′和核界点c-B′,c+B′,得到B′的扩展核YB′,进而(如果需要的话)写出B′的相容函数cB′(y); 或者用式(520)~式(522)直接对软语言值B的相容函数cB(y)做平移变换而求出B′的相容函数cB′(y)。 从式(514)~式(519)中选取公式的原则是: 当B为负半峰值,即YB′位于YB的负方时,取 s-B′=s-B- dB′B,s+B′=s+B- dB′B(514) c-B′=c-B-dB′B,c+B′=c+B- dB′B(515) 当B为正半峰值,即YB′位于YB的正方时,取 s-B′= s-B+dB′B,s+B′=s+B+dB′B(516) c-B′=c-B+ dB′B,c+B′=c+B+ dB′B(517) 当B为全峰值,即YB′=YB时,取 s-B′= s-B,s+B′=s+B(518) c-B′=c-B,c+B′=c+B(519) 从式(520)~式(522)中选取公式的原则是: 当B为负半峰值,即YB′位于YB的负方时,取 cB′(y)=cB(y+dB′B)(520) 当B为正半峰值,即YB′位于YB的正方时,取 cB′(y)= cB(y-dB′B)(521) 当B为全峰值,即YB′=YB时,取 cB′(y)=cB(y)(522) 例53设有软语言规则“如果炉温低,就将风门开大”和事实“炉温有些低”。试用AT推理进行近似推理,并做出控制风门大小的决策。 解设炉温域为U=[100,1000],风门的开启度域为V=[0,100],“低”和“大”分别为U和V的软语言值,且都是半峰值,“低”为正半峰,“大”为负半峰。从而规则前后件软语言值的方位对应关系为: 正负。将U上的软语言值“低”和“有些低”记为A和A′,将V上的软语言值“大”记为B; 定义A的正临界点s+A=500,正核界点c+A=300,峰值点ξA=100; 定义A′的正临界点s+A′=600,正核界点c+A′=400,峰值点ξA′=200; 定义B的负临界点s-B=50,负核界点c-B=80,峰值点ξB=100。相应的相容函数如下 cA(x)=500-x200,x∈U cA′(x)=600-x200,x∈U cB(y)=y-5030,y∈V 其函数曲线如图54和图55所示。 图54软语言值“低”和“有些低” 图55软语言值“大”和“B′” 可以看出,软语言值A′位于A的正方。于是,所求的B′应该位于B的负方。又容易求得: 中位点m+A=400,m-B=65,近似半径r+A=m+A-ξA=300,近似半径r-B=ξB-m-B=35,距离dA′A=ξA′-ξA=100,于是,距离 dB′B=dA′Ar-Br+A=100×35/300≈11.7 进而,由于YB′位于YB的负方,于是由式(54),B′相容函数为 cB′(y)=cB′(y+dB′B)=y-38.330,y∈V 函数曲线如图55所示。 从距离和函数曲线来看,软语言值B′可命名为“有些大”。这就是说,由近似推理得到的决策为: 把风门开大一些。 这个AT推理是由近似推理的数学本质和软语言函数近似求值的AT方法而得(详见文献[96]的Chapter 16和Chapter 17),它有坚实的数学基础。 延伸学习导引  关于不确定性知识表示及推理,文献[118]中的第8章中还有确定性理论、主观贝叶斯方法、证据理论等不确定性推理模型及贝叶斯网络等内容,可进一步延伸学习。  关于不确切性知识表示及推理,文献[96]中有系统、完整的论述,有兴趣的读者可在本章的基础上参阅此书,继续延伸学习。 习题5 1. 何为不确定性信息?何为不确切性信息?二者有何区别? 2. 举一个不确定性产生式规则实例,并用附有信度的规则形式表示。 3. 什么是不确定性推理?它与确定性推理的区别何在? 4. 举一个不确切性产生式规则实例,并用程度规则形式表示。 5. 试写一个程度化语义网络。 6. 试写出天气“热”“温和”“冷”这三个软语言值的相容函数。 7. 写出例51中软语言值“低”和“高”的相容函数。