我的编程空间,编程开发者的网络收藏夹
学习永远不晚

pytorch 如何在GPU上训练

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

pytorch 如何在GPU上训练

1.网络模型转移到CUDA上


net = AlexNet()
net.cuda()#转移到CUDA上

2.将loss转移到CUDA上


criterion = nn.CrossEntropyLoss()
criterion = criterion.cuda()

这一步不做也可以,因为loss是根据out、label算出来的


loss = criterion(out, label)

只要out、label在CUDA上,loss自然也在CUDA上了,但是发现不转移到CUDA上准确率竟然降低了1%

3.将数据集转移到CUDA上

这里要解释一下数据集使用方法


#download the dataset
train_set = CIFAR10("./data_cifar10", train=True, transform=data_tf, download=True)
train_data = torch.utils.data.DataLoader(train_set, batch_size=64, shuffle=True)

dataset是把所有的input,label都制作成了一个大的多维数组

dataloader是在这个大的多维数组里采样制作成batch,用这些batch来训练


    for im, label in train_data:
        i = i + 1
        im = im.cuda()#把数据迁移到CUDA上
        im = Variable(im)#把数据放到Variable里
        label = label.cuda()
        label =Variable(label)
        out = net(im)#the output should have the size of (N,10)

遍历batch的时候,首先要把拿出来的Image、label都转移到CUDA上,这样接下来的计算都是在CUDA上了

开始的时候只在转成Variable以后才迁移到CUDA上,这样在网络传播过程中就数据不是在CUDA上了,所以一直报错

训练网络时指定gpu显卡

查看有哪些可用的gpu


nvidia -smi

实时查看gpu信息1代表每1秒刷新一次


watch -n -1 nvidia -smi

指定使用的gpu


import os
# 使用第一张与第三张GPU卡
os.environ["CUDA_VISIBLE_DEVICES"] = "0,3"

以上为个人经验,希望能给大家一个参考,也希望大家多多支持编程网。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

pytorch 如何在GPU上训练

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

pytorch怎么用gpu训练

在PyTorch中使用GPU进行训练非常简单,只需按照以下步骤操作:检查是否有可用的GPU设备:import torchdevice = torch.device('cuda' if torch.cuda.is_avai
pytorch怎么用gpu训练
2024-04-08

pytorch的多GPU训练的方式有哪些

这篇文章将为大家详细讲解有关pytorch的多GPU训练的方式有哪些,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。方法一:torch.nn.DataParallel1. 原理如下图所示:小朋友一个人做4份
2023-06-29

如何在GitHub上训练代码

GitHub是世界上最大的开源代码托管平台之一,它有助于软件开发人员共同合作并管理他们的项目。近年来,随着深度学习和机器学习的兴起,越来越多的开源项目在GitHub上涌现。而训练这些代码,已经成为了人们最感兴趣的话题之一。一、什么是GitH
2023-10-22

如何使用Pytorch训练分类器

如何使用Pytorch训练分类器,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。一、 数据通常来说,当你处理图像,文本,语音或者视频数据时,你可以使用标准python包将数据加载
2023-06-02

怎么在pytorch中使用float64训练

怎么在pytorch中使用float64训练?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。原因在于:使用float16训练模型,模型效果会有损失,而使用double(float
2023-06-15

Pytorch如何保存训练好的模型

本篇内容介绍了“Pytorch如何保存训练好的模型”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!为什么要保存和加载模型用数据对模型进行训练后
2023-07-05

亚马逊gpu服务器训练在哪

以下是亚马逊GPU服务器训练的一些主要选项:EthereumNeuralNetwork:EthereumNeuralNetwork是亚马逊的GPU服务器上的分布式计算框架,可用于训练深度神经网络。该框架使用亚马逊网络服务提供的GPU资源进行训练。Caffe:Caffe是亚马逊的另一款GPU服务器上的深度学习框架,它使用亚马逊的AWS资源进行训练。Caffe还包括其他分布式计算服务,如NiallHamilton和TomasSwanhunter。Keras:Keras是一个高度可配置...
2023-10-27

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录