• 编写高效的消息传递代码-对消息进行降维


    DGL优化了消息传递的内存消耗和计算速度。利用这些优化的一个常见实践是通过基于内置函数的 update_all() 来开发消息传递功能。

    除此之外,考虑到某些图边的数量远远大于节点的数量,DGL建议避免不必要的从点到边的内存拷贝。对于某些情况,比如 GATConv,计算必须在边上保存消息, 那么用户就需要调用基于内置函数的
    apply_edges()。有时边上的消息可能是高维的,这会非常消耗内存。 DGL建议用户尽量减少边的特征维数

    下面是一个如何通过对节点特征降维来减少消息维度的示例:

    该做法执行以下操作:拼接 源 节点和 目标 节点特征, 然后应用一个线性层,即 W×(u||v)。 源 节点和 目标 节点特征维数较高,而线性层输出维数较低。 一个直截了当的实现方式如下:(伪代码)

    import torch
    import torch.nn as nn
    
    linear = nn.Parameter(torch.FloatTensor(size=(node_feat_dim * 2, out_dim)))
    def concat_message_function(edges):
         return {'cat_feat': torch.cat([edges.src['feat'], edges.dst['feat']], dim=1)}
    g.apply_edges(concat_message_function)
    g.edata['out'] = g.edata['cat_feat'] @ linear
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    建议的实现是将线性操作分成两部分,一个应用于 源 节点特征,另一个应用于 目标 节点特征。 在最后一个阶段,在边上将以上两部分线性操作的结果相加,即执行 Wl×u+Wr×v,因为 W×(u||v)=Wl×u+Wr×v,其中 Wl和 Wr分别是矩阵 W的左半部分和右半部分:(伪代码)

    import dgl.function as fn
    
    linear_src = nn.Parameter(torch.FloatTensor(size=(node_feat_dim, out_dim)))
    linear_dst = nn.Parameter(torch.FloatTensor(size=(node_feat_dim, out_dim)))
    out_src = g.ndata['feat'] @ linear_src
    out_dst = g.ndata['feat'] @ linear_dst
    g.srcdata.update({'out_src': out_src})
    g.dstdata.update({'out_dst': out_dst})
    g.apply_edges(fn.u_add_v('out_src', 'out_dst', 'out'))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    以上两个实现在数学上是等价的。后一种方法效率高得多,因为不需要在边上保存feat_srcfeat_dst, 从内存角度来说是高效的。另外,加法可以通过DGL的内置函数 u_add_v 进行优化,从而进一步加快计算速度并节省内存占用。

  • 相关阅读:
    C++和汇编混编开发
    C语言指针进阶内容讲解-成长路上必看
    前端面试题总结
    线程的启动和终止
    中国人民大学与加拿大女王大学金融硕士——在金融领域里持续探索、成长
    发现XWPFDocument写入Word文档时的小BUG:两天的探索与解决之旅
    预防山体滑坡,泥石流监测智能预警系统
    生产力工具评测:云笔记、离线笔记、云 Office、Markdown 编辑器
    温故而知新六(C++)
    嵌入式C 语言中的三块技术难点
  • 原文地址:https://blog.csdn.net/qq_43858783/article/details/134518885