• 跑yolo训练时,用nvidia-smi查看我的显卡发现WDDM下面是ERR报错


    关注 码龄 粉丝数 原力等级 -- 被采纳 被点赞 采纳率 _C'est la vie. 2024-03-27 10:44 采纳率: 0% 浏览 5 首页/ 人工智能 / 跑yolo训练时,用nvidia-smi查看我的显卡发现WDDM下面是ERR报错 pytorch机器学习gru 显存也只能跑一半,不知道是问题在哪1050ti的显卡请教大家,初学,不太确定是哪里的错误是我的cudann版本没装对吗? 收起 写回答 好问题 0 提建议 追加酬金 关注问题 微信扫一扫 点击复制链接 分享 邀请回答 编辑 收藏 删除 结题 收藏 举报 追加酬金 (90%的用户在追加酬金后获得了解决方案) 当前问题酬金 ¥ 0 (可追加 ¥500) ¥ 15¥ 20¥ 50¥ 100¥ 200 支付方式 扫码支付 二维码出错 点击刷新 支付金额 15 元 提供问题酬金的用户不参与问题酬金结算和分配 支付即为同意 《付费问题酬金结算规则》 结题 再想想 删除 再等等

    1条回答 默认 最新

    • 码农阿豪 Java领域优质创作者 2024-03-27 10:47
      关注
      让阿豪来帮你解答,本回答参考chatgpt3.5编写提供,如果还有疑问可以评论或留言
      问题描述:
      • 使用1050ti的显卡跑程序,发现显存只能跑一半。
      • 不确定错误出在哪里,猜测可能是cudann版本没装对。 回答:
      • 首先,显存只能跑一半可能是因为程序中存在某些内存泄漏或者未释放的显存。
      • 其次,显存的问题并不一定与cudnn版本相关,可以先排除这个因素。
      • 如果确定是代码问题导致的显存问题,可以考虑进行一些优化,比如减少显存占用等。
      • 对于显存占用问题,可以使用Tensorflow和PyTorch中的with tf.device('gpu:0')和torch.cuda.empty_cache()等方法来控制显存的使用和释放。
      • 下面给出一个简单的代码示例,使用PyTorch来控制显存使用和释放:
      import torch
      # 指定使用的gpu设备
      device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
      # 使用with语句控制显存使用
      with torch.cuda.device(device):
          x = torch.ones((1024, 1024), device=device)
          y = torch.ones((1024, 1024), device=device)
          z = x + y
      # 释放显存
      torch.cuda.empty_cache()
      
      评论
      编辑
      预览

      报告相同问题?

    • 相关阅读:
      NGINX源码之:listen和server_name命令与listening监听创建
      Three.js 实现3D开放世界小游戏:阿狸的多元宇宙 🦊
      Linux 下模拟制作块设备并挂载
      Shell(9)函数
      直播技术賦能,线上教育再站风口
      HTML5期末大作业:个人生活网站设计——嘉尔明星(7页)带特效带音乐
      系统架构设计师(第二版)学习笔记----计算机语言
      HttpServletResponse对象
      谷歌翻译可用地址
      一站式数据可视化与分析平台JVS智能BI强大的数据节点功能
    • 原文地址:https://ask.csdn.net/questions/8079642