文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

在服务器上指定GPU跑代码

2023-08-31 22:50

关注

一、准备工作

查看GPU状态和信息,找到空闲的GPU:

nvidia-smi 

二、指定单GPU

从图中 Processes 表格我们可以发现0、1、2号GPU均是可以利用的。于是我们可以在python文件中加入以下代码,表示使用0号GPU:

import osos.environ["CUDA_VISIBLE_DEVICES"] = "0"  # 使用0号GPU

或者可以在命令行窗口处输入,表示使用1号GPU运行代码:

CUDA_VISIBLE_DEVICES=1 python your_model.py # 使用1号GPU运行代码

再或者使用 torch.cuda.set_device()函数指定gpu使用编号:

import torchtorch.cuda.set_device(2) # 使用2号GPU

三、指定多GPU

若此时所有GPU都是空闲的,那么最简单的做法是:

import torchmodel = torch.nn.DataParallel(model) # 使用默认所有存在的GPU

而假如像上文所述只有0、1、2号显卡空闲,那么可以使用以下代码指定多个GPU:

注意:无论是指定单个GPU还是多个GPU,设定 os 的语句需要放在 import torch 语句之前,否则指定GPU的操作可能无法生效

import osos.environ["CUDA_VISIBLE_DEVICES"] = ','.join(map(str, [0,1,2])) # 一般在程序开头设置import torchmodel = torch.nn.DataParallel(model) # 等价于os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2'

可以看到两者相比,后者其实就是限定了GPU范围。

或者直接使用更简便的方法:

import torchtorch.nn.DataParallel(model, device_ids=[0, 1, 2]) # 使用0、1、2号GPU

四、补充

为GPU设置随机种子

import torchtorch.cuda.manual_seed(seed)torch.cuda.manual_seed_all(seed)

来源地址:https://blog.csdn.net/weixin_45684362/article/details/129214025

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-服务器
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯