智能主体的信念认知时态子结构逻辑模型

摘 要:智能主体获取信念的途径主要有两种:一种为他省,通过外界交互,从其他主体获取信息;另一种为自省,通过自己的历史数据库获取相关知识。对于主体信念的描述及刻画,两种途径缺一不可,但当前的BDI理论模型中较多地为他省系统,没有做到两者相结合。其次,在当前的许多理论模型中,通常使用的是二值逻辑、经典模态逻辑或其变形系统,使得相应的逻辑系统普遍存在逻辑全知和粗精度刻画等问题。针对上述问题进行了探讨,采用了认知时态子结构逻辑建模的方法,表达了智能主体获得“双省”信念的方式,针对其建立了相应的逻辑系统BSoET。

关键词:智能主体;信念;自省;他省;认知时态子结构逻辑

Substructural logic of epistemic and temporality in belief of agent

LIU Dong-ning?1,TANG Yong?2

(1.School of Computer, Guangdong University of Technology, Guangzhou 510006, China;2.School of Computer, South China Normal University, Guangzhou 510631, China)

Abstract:There are two kinds of approach to get belief as an agent. One is extrospectiveness, which gets information from other body through outside interaction. The other is introspectiveness, which gets information from own history database. The two ways are indispensable to describe belief of agent. However, nowadays BDI logics mostly use extrospectiveness, not combination of extrospectiveness and introspectiveness. Also, most BDI logics are usually based two-value logic, classical modal logic or its transmutation, which makes many logic systems have problems such as logic omniscience and coarse depiction.For these problems, this paper made some research and put forward a substructural logic of epistemic and temporality(BSoET)focusing as belief of agent.

Key words:agent; belief; introspectiveness; extrospectiveness; substructural logic of epistemic and temporality

0 引言

为适应环境变化和协作求解,智能主体(agent)必须利用知识修改内部状态,即心智状态(mental state)。主体的心智状态为主体如何行动提供了一种解释,也就是说主体的行动是由主体的心智状态驱动的,如认知、情感、意向等。逻辑是描述主体心智状态的重要工具[1]。1990年,Moore[2]使用形式逻辑对主体进行了建模,并主要研究了主体拥有的知识与实现的动作之间的关系;随后Cohen等人[3]系统地研究了信念、目标、持续目标、意图和理性的逻辑表达和演算问题,他们的工作基于线性时态逻辑,在语义上则以Kripke可能世界语义学为基础,并给出了BDI形式模型;其后,Rao等人[4]提出了理想agent的BDI模型,使用了三个基本的模态算符:信念(belief)、愿望(desire)和意图(intention)建立了主体的BDI模型;Jiao等人[5]针对主体是在进程级运行的程序,运用π演算描述了主体的理性和行为意图,利用π演算这种刻画通信系统的进程演算表示出主体间的交互;胡山立等人[6,7]在真假子集语义基础上通过对模型的代数结构施加一定的约束,开发了双子集语义改进模型,避免了基于正规模态逻辑表示的逻辑全知问题以及由此带来的副作用等问题。此外,Konolige等人[8~13]也做了相关值得肯定的工作,遍及BDI理论研究与应用的多个领域职称论文。

尽管BDI或类BDI模型已成为研究智能主体理论模型的主要工具,但这些模型仍普遍存在下述的一些问题:

a)主体理论模型中普遍存在逻辑全知(logic omniscience)[1]。

b)重视主体间知识交互,而轻视主体内部知识或状态。

c)由经典模态逻辑或二值逻辑引起的理论模型对真实世界的刻画粗精度。

基于此,本文针对上述问题进行了相关研究,并将研究工作聚焦于智能主体的信念,针对其作出了相关逻辑模型。考虑到对于愿望和意图,不同的应用和应用观对其有不同的看法和定义,因此本文并未进行深入研究,只着重刻画了认知和决策的关键,即信念。

1 智能主体信念的形成与表示

1.1 智能主体信念的形成及其问题

无论是BDI模型还是其他的智能主体的理论模型,对于信念的形成与表示都是建模的基础。但是在当前的许多理论模型中,对信念的形成存在一定的问题。例如,作为经典的模型,在Rao等人[4]的模型中,在建模时虽使用到时态逻辑模型及其技巧,但仅考虑到系统的未来状态,而不关注过去的认知。实际上,造成类似的问题主要在于其对信念(知识)的获取仅考虑与外部主体进行交互,而轻视了主体在过去的知识。

事实上,作为一个智能主体,其获取信念(知识)的途径主要有两种:a)他省(extrospectiveness),即通过外界交互,从其他主体中获取信息;b)自省(introspectiveness),即通过自己的历史数据库获取相关知识的信息。因此,对于主体信念的描述与刻画,两种途径缺一不可。在当前研究中,体现他省的BDI模型较多,却较少带自省功能的模型。但从时态数据库、时态知识库的角度看,智能主体的知识也是一个随着时间轴向前推进的历史数据库序列H=(H?0,…,H?n,Hn+1,…),在不同的阶段有不同的知识集,这些知识集对当前信念的建立影响巨大,自省不可忽视。因此,在逻辑建模中,必须体现他省和自省,并处理其间的各类知识冲突。

考虑到主体理论模型中普遍存在逻辑全知的问题,这也主要是因为相关模型使用了经典模态逻辑(或相关变形系统)、二值逻辑导致的结果。逻辑全知问题主要包括两个方面:

a)一个主体如果知道一个命题,那么它知道它所知道的命题的全部逻辑后承。

b)一个主体知道所有的真理(重言式)。

造成问题a)是因为理论模型采用了形如经典模态逻辑中的K公理式的内定理。造成问题b)的主要原因有两点:第一点是因为理论模型采用了形如经典模态逻辑中的RN规则式的规则造成;第二点是在计算科学,尤其是在机群协同工作下的智能主体的认知过程不应存在所谓的“重言式”模式的内定理,所有公式的成立与否都应采用构造性证明进行论证,而非传统的二值逻辑形式及其粗精度刻画。

为您推荐

返回顶部
首页
电子图书
视频教程
搜索
会员