AI:开放世界参考分辨率中的部分统一



在对描述对话表达式语义的谓词执行引用解析时,我需要允许由于在开放世界中工作而实现部分统一。

例如,考虑以下场景:

有一个蓝色的盒子在你的前面。我们使用id 3来引用这个蓝色框。

一组谓词box(x)^blue(x)可以很容易地解析为您所知道的蓝色框。执行此查询将返回3

一组谓词ball(x)^yellow(x)将不解析任何内容。

但现在考虑ball(x)^yellow(x)^box(y)^blue(y)^behind(x,y) 也就是蓝盒子后面的黄色球

我们不知道有黄色的球,但我们知道有蓝色的盒子!当然,也有可能在已知的盒子后面没有球,而另一个盒子正在被谈论。但我们很确定我们知道讨论的是哪个盒子。

我在一个概率框架中工作,在这个框架中我计算每个绑定集合满足命题集合的概率;然后,引用解析过程返回最可能的统一符/绑定集。不幸的是,当考虑behind(x,y)时,我的系统排除了3绑定到y的可能性,因为它不知道id为3的盒子后面有任何黄球。

是否有一种方法来做部分统一的谓词,使系统确定该语句的最可能的分辨率是y/3 x/?,即y被绑定到3,x的身份是未知的?

一个暂定的解决方案(如果有人想到更好的办法…)

在解析一个句子时,解析器可能能够确定某些实体比其他实体更有可能成立。在这个句子中,盒子比球更有可能被接地。在句子片段the brother of the king's gardener中,兄弟被认识的可能性最小,园丁被认识的可能性更大,国王被认识的可能性最大。

如果这些信息反映在语义中或与它们一起提供,它们可以通知启发式,启发式可以在面对未解析的引用表达式时,尝试假设引用在提供的顺序中未知,直到引用成功解析。

在我看来,问题不在于谓词的部分统一。这是统一的一个规则部分,因为我们统一了变量,而不是谓词,并且谓词可能包含多个变量,其中只有一些是统一的。

正如你所指出的,这个问题似乎更多的是关于开放世界,因为缺乏关于黄球的知识并不意味着没有。

除了我在你的另一个问题中已经给你的参考文献

对于这个特殊的问题,你可能想看看这些论文,它们专门处理这些问题:

David Poole,一阶概率推理:http://www.cs.ubc.ca/普尔/谈判/ijcai - 2011教程/展出poole-liftedVE.pdf

de Salvo Braz et al,提升一阶概率推理http://reason.cs.uiuc.edu/eyal/papers/fopl-res-ijcai05.pdf

最新更新