论文题目:Universal Representation Learning of Knowledge Bases by Jointly Embedding Instances and Ontological Concepts
论文作者:Junheng Hao, Muhao Chen, Wenchao Yu, Yizhou Sun, Wei Wang
论文地址:http://web.cs.ucla.edu/~yzsun/papers/2019_KDD_JOIE.pdf
代码地址:https://github.com/JunhengH/joie-kdd19
研究动机
许多大规模知识图谱都具备两个视图下的知识:以抽象概念(例如:Person、Artist)及概念间关系(例如:isA、livesIn)组成的本体视图,和以实例(例如:Barack Obama)与实例间关系(例如:has_award)组成的实例视图。如下图所示:
当前的知识表示方法大多只对两个视图中的一个进行了设计,而同时对两个视图的知识进行建模则有利于:1)保留实例表示的丰富信息;2)概念对实例的高度概括性,利于对极少被观察到的实例进行分类。但联合考虑实例与概念也会带来如下挑战:
实例与概念、关系(实例间关系)与元关系(概念间关系)往往在词形上有很大差异但又存在语义相关,使得现有方法难以同时对次进行建模;
现有的实例与概念间的上下位关系(isA)就实例规模而言是很少的,而链接两个视图最重要的就是isA关系;
实例视图的规模比概念规模要大很多,且概念间存在层次结构。
提出方法
针对以上挑战,作者提出使用跨视图关联模型(Cross-view Association Model)和内部视图模型(Intra-view Model)对知识图谱进行多方面的表示学习方法JOIE。跨视图关联模型注重将实例与概念进行关联,内部视图模型则注重实例视图内部的实例、本体视图内部的概念各自的结构学习。下面将详细介绍两个模块。
1.跨视图关联模型(Cross-view Association Model)
基于不同的假设,作者提出了两种跨视图关联模型:跨视图分组(Cross-view Grouping,CG)和跨视图转换(Cross-view Transformation,CT)。
跨视图分组(CG)可以被看作是基于分组的正则化,它假设本体视图和实例视图可以被嵌入表示到同一空间中,并强制任何所有属于概念c的实例e都与c在表示空间上位置相近。因此优化的目标为:
其中γCG是hinge loss中的超参,S表示具有isA关系的实例与概念关系对。
与CG不同,跨视图转换(CT)允许两个视图的向量空间彼此完全不同,但可以通过一个变换将其对齐在一起,即
,这里使用的是非线性仿射变换
。所以优化的目标定义为:
其中γCT是hinge loss中的超参。如下为两个子模块的示意图:
2.内部视图模型(Intra-view Model)
内部视图模型目标是在两个向量空间中分别保留每个视图中的原始结构信息。由于本体视图与实例视图中的关系语义相关但又不同,因此更适合将其分别建模。这里作者分了默认内部视图模型(Default Intra-view Model)和层次感知的视图模型(Hierarchy-Aware Intra-view Model for the Ontology)两个部分来对知识图谱的内部进行建模。
默认内部视图模型(Default Intra-view Model)即使用现有的知识图谱表示学习方法对两个视图分别进行学习。本文作者选择了较为经典的TransE[1],DistMult[2]和HolE[3]分别进行实验,各自的得分函数如下:
优化目标即最小化所有三元组(包括实例间三元组和概念间三元组)的hinge loss:
其中γG为超参。总的loss会增加参数α1用于平衡两个视图的loss:
默认内部视图模型并不能对本体视图的概念间上下位关系进行很好的建模,所以作者提出层次感知的视图模型(Hierarchy-Aware Intra-view Model for the Ontology)用于表示概念间subclass_of结构。这里设计方法类似CT,即给定一个具备subclass_of关系的概念对,认为存在非线形变换将粗粒度的概念(上位概念)映射为细粒度的概念(下位概念):
其中为需要学习的参数。同样地,可以定义本体视图层次感知的优化目标:
因此,总的内部视图模型优化目标为:
其中α2和α3为平衡每一部分loss的超参。
3.两个视图的联合训练
结合视图内模型和跨视图关联模型,JOIE使用AMSGrad[4]最小化如下hinge loss:
其中ω为平衡两个模型的超参。
实验分析
数据集方面,由于现有方法大多只关注对一个视图的知识建模,缺少融合两个视图特点的公开评测数据。所以作者从YAGO和DBpedia构建了两个更符合真实知识图谱结构的数据集YAGO26K-906和DB111K-174。数据集的相关信息统计如下:
作者使用如上所述的数据集在知识图谱补全(KG Triple Completion)和实体分类(Entity Typing)两个任务上对JOIE的性能进行了评测。
1.知识图谱补全(KG Triple Completion)
知识图谱补全任务目标是补全知识图谱缺失的关系或实体以组成正确的事实三元组。该任务可分为实例视图的知识补全和本体视图的知识补全两个子任务。Baselines方面使用的是经典的TransE,DistMult和HolE,以及分别对概念和实例进行建模的TransC[5]。方法中注明“base”的为用两组参数分别学习两个视图的知识,“all”增加联系两个视图的关系type_of,并用同一组参数同时学习两个视图的知识。实验结果如下:
可以看到,在DB111K-174的本体视图上,JOIE的效果显著地比baselines高了近10个百分点,这表明了融合实例视图的知识有益于概念视图的知识学习。对比使用不同的内部视图模型,基于翻译的方法要优于基于相似度的模型,这是由于TransE受到图稀疏性的影响相对小一点。考虑本体视图层次结构、使用CT的JOIE在实例视图中有很好的效果。
2.实体分类(Entity Typing)
实体分类任务就是给定实例为其预测所属分类(概念)。这里使用的baselines包括TransE,DistMult,HolE和MTransE[6]。实验结果如下:
可以看到,考虑本体视图层次结构、使用CT的JOIE在两个数据集上均有很好的发挥。
3.案例分析
除此之外,作者还对实验进行了一些案例分析,可以归纳为以下两点:
(a)JOIE能够发现一些数据集中不存在、但在真实客观世界中存在的元关系三元组。
(b)JOIE对长尾实体分类具有更显著的效果提升
参考文献
[1] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. 2013. Translating embeddings for modeling multi-relational data. In NIPS.
[2] Bishan Yang, Wen-tau Yih, Xiaodong He, Jianfeng Gao, and Li Deng. 2015. Embedding entities and relations for learning and inference in knowledge bases. In ICLR.
[3] Maximilian Nickel, Lorenzo Rosasco, Tomaso A Poggio, et al. 2016. Holographic Embeddings of Knowledge Graphs.. In AAAI.
[4] Sashank J Reddi, Satyen Kale, and Sanjiv Kumar. 2018. On the convergence of adam and beyond. In ICLR.
[5] Xin Lv, Lei Hou, Juanzi Li, and Zhiyuan Liu. 2018. Differentiating Concepts and Instances for Knowledge Graph Embedding. In EMNLP.
[6] Muhao Chen, Yingtao Tian, Mohan Yang, and Carlo Zaniolo. 2017. Multilingual knowledge graph embeddings for cross-lingual knowledge alignment. In IJCAI.