醋醋百科网

Good Luck To You!

图神经网络的“C”位——图卷积神经网络

如果说图神经网络是AI未来的研究重点,那图卷积神经网络必定是重点中的重点。这是为什么呢?一切还要从卷积神经网络说起。

卷积神经网络想必大家并不陌生,自2012年起,AlexNet[1]这个由GPU计算集群支持的复杂卷积神经网络多次成为ImageNet大规模视觉识别竞赛(ImageNet Large Scale Visual Recognition Challenge, ILSVRC)的优胜算法后,包括之后ZFNet [2]、VGGNet[3]、GoogLeNet [4]和ResNet [5]的卓越表现,使得卷积神经网路越来越火。

但是随着深入的研究,研究人员发现卷积神经网络只能处理规则的图(如图像、视频等),而难以处理那些不规则的图(如社交网络、交通流量图等)。其中最主要的是原因是很难为不规则的图构建合适的卷积核。

卷积核可谓是卷积神经网络的核心,它通常是3X3大小的矩阵(图一中间)。卷积核通过滑过图中的节点来提取局部特征。从图二中可以看到这种图的结构是非常有规则的。每个节点都有8个相邻的节点。但是针对于不规则的图来说,图中的每个节点的邻居数量都是不确定的,因此很难去设计一个固定大小的卷积核。


其次,就是卷积神经网路没有办法处理边的信息的。通常对于规则的图的边一般是默认不计的,或者说节点之间的关系是一样的,因此在用卷积神经网络处理不规则图时,边的信息是不能体现的。

针对以上这两个主要的问题,就研究出了图卷积神经网络。对于卷积核设计,一开始研究人员的想法是既然不能确定节点邻居的个数,就干脆为整个图设计一个大的卷积核,即卷积核的大小和图的大小一样。但是这样就会导致得到的模型只能处理一张图,不具有通用性。因此之后也出现了能够局部处理的卷积核,例如基于Chebyshev多项式的局部卷积核[6]。

对于不能处理边信息的这个问题,采用图的邻接矩阵来解决。邻接矩阵是用来描述图中节点和节点之间的关联强度,可以通过计算节点信息之间的相关系数得到。

在解决了这两个主要问题之后,图卷积神经网络便得到了更快的发展。可以看出它的主要思想是通过汇总节点v自身的特征和节点v邻居节点的特征来生成节点v新的特征,这与卷积神经网络的思想是一致的。因此图卷积神经网络也可以看作卷积神经网络在图上的一个拓展。

与循环图神经网络、图自编码和图时空网络等其他的图神经网络模型相比,图卷积神经网络因为具有能够堆叠多层、应用领域更多等优势,成为了图神经网络中的主要研究对象。


参考论文

[1]AlexNet(2012 NIPS):ImageNet Classification with Deep Convolutional Neural Networks

[2]ZFNet(2014 ECCV):Visualizing and Understanding Convolutional Networks

[3]VGG(2015 ICLR):Very Deep Convolutional Networks for Large-Scale Image Recognition

[4]Inception-V1(2015 CVPR):Going Deeper with Convolutions

[5]ResNetv1(2016 CVPR):Deep Residual Learning for Image Recognition

[6]ChebNet(2016 NIPS):Convolutional neural networks on graphs with fast localized spectral filtering

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言