UC伯克利&清华提出隐图神经网络
图神经网络(GNN)是广泛使用的深度学习模型,从图结构数据学习有意义的表示。由于底层循环结构的有限性质,当前的 GNN 方法可能难以捕获底层图中的长期依赖关系。为了克服这个困难,UC伯克利&清华的研究人员提出了一个图学习框架,称为隐式图神经网络(IGNN),其中的预测是基于一个涉及隐式定义的“状态” 向量的不动点平衡方程的解。利用 Perron-Frobenius 理论推导了保证框架良好性的充分条件。利用隐式微分,研究人员推出了一个易于处理的投影梯度下降方法来训练框架。对一系列任务进行的实验表明,IGNN 始终能够捕获长期依赖关系,并优于最先进的 GNN 模型。