我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Cuda 和 GPU版torch安装最全攻略,以及在GPU 上运行 torch代码

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Cuda 和 GPU版torch安装最全攻略,以及在GPU 上运行 torch代码

Cuda 和 GPU版torch安装最全攻略,以及在GPU 上运行 torch代码


在 conda prompt 中 检查是否有可用的GPU版本 torch.cuda,发现False
在这里插入图片描述

命令行输入nvidia-smi,查看 cuda 信息:
在这里插入图片描述
从官网下载对应版本的安装程序 CUDA Toolkit Archive | NVIDIA Developer

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

cudnn下载地址(无需注册)

版本匹配,下载最新
在这里插入图片描述

下载cudatoolkit

在这里插入图片描述

conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia

在这里插入图片描述

在这里插入图片描述

检查:下载完了在cmd里面查看conda的库,conda list,
在这里插入图片描述

先查看当前有哪些Torch 版本

pip list:
在这里插入图片描述

下载torch 和torchvision的 whl 文件

GPU版本pytorch和pytorchvision下载地址
torch:
在这里插入图片描述

torchvision:
在这里插入图片描述

在下载地址所在的文件夹中cmd,进行安装,但是报错
在这里插入图片描述


说明需要更高版本:torch1.10以上,再下载
在这里插入图片描述

对应torchvision 版本:
在这里插入图片描述

在这里插入图片描述

pip install 安装并检查

在这里插入图片描述
cmd中 pip list 检查:
在这里插入图片描述

import torch 并检查是否可用的 cuda版本

pythonimport torchtorch.cuda.is_available()torch.__version__

CMD中:
在这里插入图片描述
Anaconda Prompt 中:
在这里插入图片描述
二者是一致的。

此时:用pip install 方法安装了gpu版本的torch和torchvision,所以pip list 显示二者,但conda list 可能与之不一致,因为用的不是 conda install 命令。

但在pycharm虚拟环境中,base环境下显示的和 conda list 的版本是一样的

pip list:
在这里插入图片描述

conda List 和 pycharm 环境中显示的一样
在这里插入图片描述
在这里插入图片描述
但是,在pycharm中运行以下命令时,输出的是TrueTorch: 1.10.2+cu113 而不是 1.8.1+cu111

import torchprint(torch.cuda.is_available())print(f"Torch: {torch.__version__}") 

安装好GPU版本的 torch 后,只要 torch.cuda.is_available() 是Ture ,就可以在GPU运行代码了”:

  1. 设置 device='cuda'
  2. 将 model 放到 gpu 上 model.to(device)
  3. 将label和data 放到 gpu 上 label.to(device) data.to(device)
# 设置 device='cuda'device = 'cuda'# 将 model 放到 gpu 上model = ViT(    dim=128,    image_size=224,    patch_size=32,    num_classes=2,    transformer=efficient_transformer,    channels=3,).to(device)# 将label和data 放到 gpu 上for epoch in range(epochs):    for data, label in tqdm(train_loader):        data = data.to(device)        label = label.to(device)        
import torch

指定 device 为 CPU 或 GPU

# 指定 CPUcpu1 =torch.device("cpu:0")print("CPU Device:【{}:{}】".format(cpu1.type,cpu1.index))# 指定 GPUgpu =torch.device("cuda:0")print("GPU Device:【{}:{}】".format(gpu.type,gpu.index))

查看GPU是否可用及设备名称

print("Total GPU Count:{}".format(torch.cuda.device_count()))   #查看所有可用GPU个数print("Total CPU Count:{}".format(torch.cuda.os.cpu_count()))   #获取系统CPU数量print(torch.cuda.get_device_name(torch.device("cuda:0")))       #获取GPU设备名称   NVIDIA GeForce GT 1030print("GPU Is Available:{}".format(torch.cuda.is_available()))  #GPU设备是否可用  True

在GPU上建立Tensor

# 建立 Tensordevice = torch.device('cuda:0')# 使用 tensor 在 cpu 建立再转移到 gpugpu_tensor1= torch.Tensor([[1,4,7],[3,6,9],[2,5,8]]).to(device)  # 使用to()方法将cup_tensor转到GPU上# 直接在 gpu 上建立gpu_tensor2 = torch.tensor([[1,4,7],[3,6,9],[2,5,8]],device=device)gpu_tensor3 = torch.rand((3,4),device=device)                           # 方法一 直接申明 devicegpu_tensor4  = torch.randn(3,4).float().to(device)                      # 方法二 使用 to device 转移print(gpu_tensor1)print(gpu_tensor2)print(gpu_tensor3)print(gpu_tensor4)

查看内存大小和显存信息

torch.cuda.empty_cache()                      # 释放没有使用的缓存数据print(torch.cuda.memory_cached())             # 获取缓存数据大小print(torch.cuda.max_memory_cached())         # 最大缓存大小print(torch.cuda.max_memory_allocated())       # 最大分配内存大小print(torch.cuda.memory_summary())            # 查看显存信息

如果GPU设备可用,将默认热备改为GPU

#创建默认的CPU设备device = torch.device("cpu")#如果GPU设备可用,将默认设备改为GPUif(torch.cuda.is_available()):    device = torch.device("cuda")

  • 所以有时候即使pycharm里的torch看起来是有cuda版本的,但实际代码运行起来报错: AssertionError Torch not compiled with CUDA enabled 还是要去 Cmd 或者 Anaconda Prompt 中看一下是否有可用的 GPU 版本 torch 如果是 False , 就要重新 Pip install 安装
  • 而且,运行Vit-pytorch 的时候,要求 torch >=1.10.0,所以要选1.10以上的torch
  • 而且,安装torchvision 的时候,要和刚刚安装torch 的版本对应,不然会给你uninstall 掉刚刚安装的torch(一不小心又变回cpu版本)
  • 安装好GPU版本的 torch 后, torch.cuda.is_available() 是Ture ,就可以在GPU运行代码了

解决AssertionError Torch not compiled with CUDA enabled问题
pytorch gpu版本的最全安装教程,含环境配置、CUDA(百度云下载)安装程序失败解决方案
Pytorch(GPU版)安装
GPU版本pyTorch安装教程(实测,特别详细)

来源地址:https://blog.csdn.net/weixin_46833029/article/details/127946022

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Cuda 和 GPU版torch安装最全攻略,以及在GPU 上运行 torch代码

下载Word文档到电脑,方便收藏和打印~

下载Word文档

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录