• 简单介绍一下tensorflow与pytorch的相互转换(主要是tensorflow转pytorch)


    本文以一段代码为例,简单介绍一下tensorflow与pytorch的相互转换(主要是tensorflow转pytorch),可能介绍的没有那么详细,仅供参考。

    由于本人只熟悉pytorch,而对tensorflow一知半解,而代码经常遇到tensorflow,而我希望使用pytorch,因此简单介绍一下tensorflow转pytorch,可能存在诸多错误,希望轻喷~

    1.变量预定义

    在TensorFlow的世界里,变量的定义和初始化是分开的。
    tensorflow中一般都是在开头预定义变量,声明其数据类型、形状等,在执行的时候再赋具体的值,如下图所示,而pytorch用到时才会定义,定义和变量初始化是合在一起的。
    在这里插入图片描述

    2.创建变量并初始化

    tensorflow中利用tf.Variable创建变量并进行初始化,而pytorch中使用torch.tensor创建变量并进行初始化,如下图所示。
    在这里插入图片描述

    3.语句执行

    在TensorFlow的世界里,变量的定义和初始化是分开的,所有关于图变量的赋值和计算都要通过tf.Session的run来进行。

    sess.run([G_solver, G_loss_temp, MSE_loss],
                 feed_dict = {X: X_mb, M: M_mb, H: H_mb})
    
    • 1
    • 2

    而在pytorch中,并不需要通过run进行,赋值完了直接计算即可。

    4.tensor

    pytorch运算时要创建完的numpy数组转为tensor,如下:

    if use_gpu is True:
    	X_mb = torch.tensor(X_mb, device="cuda")
    	M_mb = torch.tensor(M_mb, device="cuda")
    	H_mb = torch.tensor(H_mb, device="cuda")
    else:
    	X_mb = torch.tensor(X_mb)
    	M_mb = torch.tensor(M_mb)
    	H_mb = torch.tensor(H_mb)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    最后运行完还要将tensor数据类型转换回numpy数组:

    if use_gpu is True:
    	imputed_data=imputed_data.cpu().detach().numpy()
    else:
    	imputed_data=imputed_data.detach().numpy()
    
    • 1
    • 2
    • 3
    • 4

    而tensorflow中不需要这种操作。

    5.其他函数

    在tensorflow中包含诸多函数是pytorch中没有的,但是都可以在其他库中找到类似,具体如下表所示。

    tensorflow中函数pytorch中代替(所在库)参数区别
    tf.sqrtnp.sqrt(numpy)完全相同
    tf.random_normalnp.random.normal(numpy)tf.random_normal(shape = size, stddev = xavier_stddev)
    np.random.normal(size = size, scale = xavier_stddev)
    tf.concattorch.cat(torch)inputs = tf.concat(values = [x, m], axis = 1)
    inputs = torch.cat(dim=1, tensors=[x, m])
    tf.nn.reluF.relu(torch.nn.functional)完全相同
    tf.nn.sigmoidtorch.sigmoid(torch)完全相同
    tf.matmultorch.matmul(torch)完全相同
    tf.reduce_meantorch.mean(torch)完全相同
    tf.logtorch.log(torch)完全相同
    tf.zerosnp.zeros完全相同
    tf.train.AdamOptimizertorch.optim.Adam(torch)optimizer_D = tf.train.AdamOptimizer().minimize(D_loss, var_list=theta_D)
    optimizer_D = torch.optim.Adam(params=theta_D)

    【说明】:本文的介绍仅供参考,实际转换请多查阅相关资料,如果有能力,建议这两种深度学习框架都进行掌握~

  • 相关阅读:
    排序算法(二)
    【前端技巧】css篇
    用DIV+CSS技术设计的美食主题网站(web前端网页制作课作业)美食餐饮网站设计与实现(HTML+CSS+JavaScript)
    高精度算法详解
    实战 Creator 2.x 项目升级 3.x!避坑要点与基础 API 写法差异总结
    数据库-玩转数据-Pgsql 使用UUID做主键
    Kubernetes CI/CD 实战:5分钟部署你的第一个应用
    【考研】栈在表达式求值中的应用(真题分析)
    B2901A 是德科技keysight精密型电源
    【数据结构】谈谈ArrayList和LinkedList的区别
  • 原文地址:https://blog.csdn.net/didi_ya/article/details/125461794