我的编程空间,编程开发者的网络收藏夹
学习永远不晚

PyTorch中torch.tensor()和torch.to_tensor()的区别

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

PyTorch中torch.tensor()和torch.to_tensor()的区别

前言

在跑模型的时候,遇到如下报错

UserWarning: To copy construct from a tensor, it is recommended to use sourceTensor.clone().detach() or sourceTensor.clone().detach().requires_grad_(True), rather than torch.tensor(sourceTensor).

网上查了一下,发现将 torch.tensor() 改写成 torch.as_tensor() 就可以避免报错了。

# 如下写法报错
 feature = torch.tensor(image, dtype=torch.float32)
 
# 改为
feature = torch.as_tensor(image, dtype=torch.float32)

然后就又仔细研究了下 torch.as_tensor()torch.tensor() 的区别,在此记录。

1、torch.as_tensor()

new_data = torch.as_tensor(data, dtype=None,device=None)->Tensor

作用:生成一个新的 tensor, 这个新生成的tensor 会根据原数据的实际情况,来决定是进行浅拷贝,还是深拷贝。当然,会优先浅拷贝,浅拷贝会共享内存,并共享 autograd 历史记录。

情况一:数据类型相同 且 device相同,会进行浅拷贝,共享内存

import numpy
import torch

a = numpy.array([1, 2, 3])
t = torch.as_tensor(a)
t[0] = -1

print(a)   # [-1  2  3]
print(a.dtype)   # int64
print(t)   # tensor([-1,  2,  3])
print(t.dtype)   # torch.int64
import numpy
import torch

a = torch.tensor([1, 2, 3], device=torch.device('cuda'))
t = torch.as_tensor(a)
t[0] = -1

print(a)   # tensor([-1,  2,  3], device='cuda:0')
print(t)   # tensor([-1,  2,  3], device='cuda:0')

情况二: 数据类型相同,但是device不同,深拷贝,不再共享内存

import numpy
import torch

import numpy
a = numpy.array([1, 2, 3])
t = torch.as_tensor(a, device=torch.device('cuda'))
t[0] = -1

print(a)   # [1 2 3]
print(a.dtype)   # int64
print(t)   # tensor([-1,  2,  3], device='cuda:0')
print(t.dtype)   # torch.int64

情况三:device相同,但数据类型不同,深拷贝,不再共享内存

import numpy
import torch

a = numpy.array([1, 2, 3])
t = torch.as_tensor(a, dtype=torch.float32)
t[0] = -1

print(a)   # [1 2 3]
print(a.dtype)   # int64
print(t)   # tensor([-1.,  2.,  3.])
print(t.dtype)   # torch.float32

2、torch.tensor()

torch.tensor() 是深拷贝方式。

torch.tensor(data, dtype=None, device=None, requires_grad=False, pin_memory=False)

深拷贝:会拷贝 数据类型 和 device,不会记录 autograd 历史 (also known as a “leaf tensor” 叶子tensor)

重点是:

  • 如果原数据的数据类型是:list, tuple, NumPy ndarray, scalar, and other types,不会 waring
  • 如果原数据的数据类型是:tensor,使用 torch.tensor(data) 就会报waring
# 原数据类型是:tensor 会发出警告
import numpy
import torch

a = torch.tensor([1, 2, 3], device=torch.device('cuda'))
t = torch.tensor(a)
t[0] = -1

print(a)
print(t)

# 输出:
# tensor([1, 2, 3], device='cuda:0')
# tensor([-1,  2,  3], device='cuda:0')
# /opt/conda/lib/python3.7/site-packages/ipykernel_launcher.py:5: UserWarning: To copy construct from a tensor, it is recommended to use sourceTensor.clone().detach() or sourceTensor.clone().detach().requires_grad_(True), rather than torch.tensor(sourceTensor).
# 原数据类型是:list, tuple, NumPy ndarray, scalar, and other types, 没警告
import torch
import numpy

a =  numpy.array([1, 2, 3])
t = torch.tensor(a) 

b = [1,2,3]
t= torch.tensor(b)

c = (1,2,3)
t= torch.tensor(c)

结论就是:以后尽量用 torch.as_tensor()

总结

到此这篇关于PyTorch中torch.tensor()和torch.to_tensor()区别的文章就介绍到这了,更多相关torch.tensor()和torch.to_tensor()区别内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

PyTorch中torch.tensor()和torch.to_tensor()的区别

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

PyTorch中torch.tensor()和torch.to_tensor()的区别

在Pytorch中Tensor和tensor都用于生成新的张量,但二者并不相同,下面这篇文章主要给大家介绍了关于PyTorch中torch.tensor()和torch.to_tensor()区别的相关资料,需要的朋友可以参考下
2023-01-28

PyTorch中tensor.detach()和tensor.data的区别解析

这篇文章主要介绍了PyTorch中tensor.detach()和tensor.data的区别解析,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
2023-05-14

PyTorch中Tensor和tensor的区别是什么

这篇文章主要介绍“PyTorch中Tensor和tensor的区别是什么”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“PyTorch中Tensor和tensor的区别是什么”文章能帮助大家解决问题。
2023-07-02

PyTorch中tensor.detach()和tensor.data的区别有哪些

这篇文章主要介绍“PyTorch中tensor.detach()和tensor.data的区别有哪些”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“PyTorch中tensor.detach()和te
2023-07-05

PyTorch和TensorFlow的区别是什么

PyTorch和TensorFlow都是流行的深度学习框架,它们之间的一些主要区别包括:动态图 vs 静态图:PyTorch使用动态图,这意味着它在运行时构建计算图,可以更容易地进行调试和动态修改网络结构。而TensorFlow使用静态图,
PyTorch和TensorFlow的区别是什么
2024-03-05

pytorch中.to(device) 和.cuda()的区别有哪些

这篇文章主要介绍了pytorch中.to(device) 和.cuda()的区别有哪些,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。原理.to(device) 可以指定CPU
2023-06-15

pytorch中.to(device) 和.cuda()有什么区别

这篇文章主要介绍了pytorch中.to(device) 和.cuda()有什么区别,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。原理.to(device) 可以指定CPU
2023-06-15

pytorch中Tensor.to(device)和model.to(device)的区别是什么

这篇文章主要介绍了pytorch中Tensor.to(device)和model.to(device)的区别是什么的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇pytorch中Tensor.to(device)
2023-07-02

PyTorch中的LSTM和GRU模块有什么区别

参数数量:LSTM模块通常比GRU模块有更多的参数,因此在训练中需要更多的计算资源和时间。训练时间:由于LSTM模块的参数更多,因此在训练中通常需要更多的时间。训练效果:在某些数据集上,LSTM模块可能会比GRU模块表现更好,但在其他数据集
PyTorch中的LSTM和GRU模块有什么区别
2024-03-05

显卡驱动CUDA 和 pytorch CUDA 之间的区别

本文主要介绍了显卡驱动CUDA 和 pytorch CUDA 之间的区别,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2023-03-19

Pytorch中 torch.cat与torch.stack有什么区别

今天就跟大家聊聊有关Pytorch中 torch.cat与torch.stack有什么区别,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。torch.cat()函数可以将多个张量拼接成
2023-06-15

tensorflow与pytorch的区别是什么

TensorFlow和PyTorch是两个流行的深度学习框架,它们在设计和使用上有一些不同:静态计算图 vs 动态计算图:TensorFlow使用静态计算图,用户首先定义计算图,然后执行。而PyTorch使用动态计算图,计算图是在运行过程中
tensorflow与pytorch的区别是什么
2024-03-12

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录