在 GNN笔记:图卷积_UQI-LIUWJ的博客-CSDN博客中,我们知道了谱图卷积相当于是

那么问题在于,如何设计含有可训练的、共享参数的kernel呢?
Spectral Networks and Deep Locally Connected Networks on Graphs
,也就是说,每个βk应该是一个常数
时,βk是1*1的,然后将对dim个
的乘积结果相加
? 第一类切比雪夫多项式的解析形式是
由于有arccos(x)函数,所以输入必须在[-1,1]之间
拉普拉斯矩阵半正定
——>拉普拉斯矩阵的特征值非负
——>
——>![\frac{\Lambda}{\lambda_{max}} \in [0,1]](https://1000bd.com/contentImg/2023/10/30/220537008.png)
——>![\tilde \Lambda =2\frac{\Lambda}{\lambda_{max}}-I \in [-1,1]](https://1000bd.com/contentImg/2023/10/30/220536951.png)

即图卷积的感受野


注:实际的ChebNet 中,每一次卷积是把图中的所有顶点都做了一次上述的邻居点message passing
具有很好的spatial localization
K是卷积核的感受野
中的K=1
我们再令
![]()
![]()
那么我们有:

堆叠K个一阶近似的图卷积可以获得和平行的K阶卷积相同的效果,所有的卷积可以从一个顶点的K阶邻居中获取到信息。
【相比于直接使用邻接矩阵,这边的W+In个人觉得更合理:计算新特征的时候,添加自连接之后,相当于考虑了自己的特征】
【至于
,我觉得进行归一化是有必要的:因为进行特征更新的时候,如果不进行归一化的话,度大的节点特征会越来越大,对于度小的节点则正相反】