我的编程空间,编程开发者的网络收藏夹
学习永远不晚

PyTorch模型转TensorRT是怎么实现的?

短信预约 信息系统项目管理师 报名、考试、查分时间动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

PyTorch模型转TensorRT是怎么实现的?

转换步骤概览

  • 准备好模型定义文件(.py文件)
  • 准备好训练完成的权重文件(.pth或.pth.tar)
  • 安装onnx和onnxruntime
  • 将训练好的模型转换为.onnx格式
  • 安装tensorRT

环境参数


ubuntu-18.04
PyTorch-1.8.1
onnx-1.9.0
onnxruntime-1.7.2
cuda-11.1
cudnn-8.2.0
TensorRT-7.2.3.4

PyTorch转ONNX

Step1:安装ONNX和ONNXRUNTIME

网上找到的安装方式是通过pip


pip install onnx
pip install onnxruntime

如果使用的是Anaconda环境,conda安装也是可以的。


conda install -c conda-forge onnx
conda install -c conda-forge onnxruntime

Step2:安装netron

netron是用于可视化网络结构的,便于debug。


pip install netron

Step3 PyTorch转ONNx

安装完成后,可以根据下面code进行转换。


#--*-- coding:utf-8 --*--
import onnx 
# 注意这里导入onnx时必须在torch导入之前,否则会出现segmentation fault
import torch
import torchvision 

from model import Net

model= Net(args).cuda()#初始化模型
checkpoint = torch.load(checkpoint_path)
net.load_state_dict(checkpoint['state_dict'])#载入训练好的权重文件
print ("Model and weights LOADED successfully")

export_onnx_file = './net.onnx'
x = torch.onnx.export(net,
					torch.randn(1,1,224,224,device='cuda'), #根据输入要求初始化一个dummy input
					export_onnx_file,
					verbose=False, #是否以字符串形式显示计算图
					input_names = ["inputs"]+["params_%d"%i for i in range(120)],#输入节点的名称,这里也可以给一个list,list中名称分别对应每一层可学习的参数,便于后续查询
					output_names = ["outputs"],# 输出节点的名称
					opset_version  = 10,#onnx 支持采用的operator set, 应该和pytorch版本相关
					do_constant_folding = True,
					dynamic_axes = {"inputs":{0:"batch_size"}, 2:"h", 3:"w"}, "outputs":{0: "batch_size"},})

net = onnx.load('./erfnet.onnx') #加载onnx 计算图
onnx.checker.check_model(net) # 检查文件模型是否正确
onnx.helper.printable_graph(net.graph) #输出onnx的计算图

dynamic_axes用于指定输入、输出中的可变维度。输入输出的batch_size在这里都设为了可变,输入的第2和第3维也设置为了可变。

Step 4:验证ONNX模型

下面可视化onnx模型,同时测试模型是否正确运行


import netron
import onnxruntime
import numpy as np
from PIL import Image
import cv2

netron.start('./net.onnx')
test_image = np.asarray(Image.open(test_image_path).convert('L'),dtype='float32') /255.
test_image = cv2.resize(np.array(test_image),(224,224),interpolation = cv2.INTER_CUBIC)
test_image = test_image[np.newaxis,np.newaxis,:,:]
session = onnxruntime.InferenceSession('./net.onnx')
outputs = session.run(None, {"inputs": test_image})
print(len(outputs))
print(outputs[0].shape)
#根据需要处理一下outputs[0],并可视化一下结果,看看结果是否正常

ONNX转TensorRT

Step1:从NVIDIA下载TensorRT下载安装包 https://developer.nvidia.com/tensorrt

根据自己的cuda版本选择,我选择的是TensorRT 7.2.3,下载到本地。


cd download_path
dpkg -i nv-tensorrt-repo-ubuntu1804-cuda11.1-trt7.2.3.4-ga-20210226_1-1_amd64.deb
sudo apt-get update
sudo apt-get install tensorrt

查了一下NVIDIA的官方安装教程https://docs.nvidia.com/deeplearning/tensorrt/quick-start-guide/index.html#install,由于可能需要调用TensorRT Python API,我们还需要先安装PyCUDA。这边先插入一下PyCUDA的安装。


pip install 'pycuda<2021.1'

遇到任何问题,请参考官方说明 https://wiki.tiker.net/PyCuda/Installation/Linux/#step-1-download-and-unpack-pycuda
如果使用的是Python 3.X,再执行一下以下安装。


sudo apt-get install python3-libnvinfer-dev

如果需要ONNX graphsurgeon或使用Python模块,还需要执行以下命令。


sudo apt-get install onnx-graphsurgeon

验证是否安装成功。


dpkg -l | grep TensorRT

在这里插入图片描述

得到类似上图的结果就是安装成功了。

问题:此时在python中import tensorrt,得到ModuleNotFoundError: No module named 'tensorrt'的报错信息。

网上查了一下,通过dpkg安装的tensorrt是默认安装在系统python中,而不是Anaconda环境的python里的。由于系统默认的python是3.6,而Anaconda里使用的是3.8.8,通过export PYTHONPATH的方式,又会出现python版本不匹配的问题。

重新搜索了一下如何在anaconda环境里安装tensorRT。


pip3 install --upgrade setuptools pip
pip install nvidia-pyindex
pip install nvidia-tensorrt

验证一下这是Anconda环境的python是否可以import tensorrt。


import tensorrt
print(tensorrt.__version__)
#输出8.0.0.3

Step 2:ONNX转TensorRT

先说一下,在这一步里遇到了*** AttributeError: ‘tensorrt.tensorrt.Builder' object has no attribute 'max_workspace_size'的报错信息。网上查了一下,是8.0.0.3版本的bug,要退回到7.2.3.4。
emmm…


pip unintall nvidia-tensorrt #先把8.0.0.3版本卸载掉
pip install nvidia-tensorrt==7.2.* --index-url https://pypi.ngc.nvidia.com # 安装7.2.3.4banben 

转换代码


import pycuda.autoinit 
import pycuda.driver as cuda
import tensorrt as trt
import torch 
import time 
from PIL import Image
import cv2,os
import torchvision 
import numpy as np
from scipy.special import softmax

### get_img_np_nchw h和postprocess_the_output函数根据需要进行修改

TRT_LOGGER = trt.Logger()

def get_img_np_nchw(img_path):
	img = Image.open(img_path).convert('L')
	img = np.asarray(img, dtype='float32')
	img = cv2.resize(np.array(img),(224, 224), interpolation = cv2.INTER_CUBIC)
	img = img / 255.
	img = img[np.newaxis, np.newaxis]
	return image
class HostDeviceMem(object):
    def __init__(self, host_mem, device_mem):
        """host_mom指代cpu内存,device_mem指代GPU内存
        """
        self.host = host_mem
        self.device = device_mem

    def __str__(self):
        return "Host:\n" + str(self.host) + "\nDevice:\n" + str(self.device)

    def __repr__(self):
        return self.__str__()

def allocate_buffers(engine):
    inputs = []
    outputs = []
    bindings = []
    stream = cuda.Stream()
    for binding in engine:
        size = trt.volume(engine.get_binding_shape(binding)) * engine.max_batch_size
        dtype = trt.nptype(engine.get_binding_dtype(binding))
        # Allocate host and device buffers
        host_mem = cuda.pagelocked_empty(size, dtype)
        device_mem = cuda.mem_alloc(host_mem.nbytes)
        # Append the device buffer to device bindings.
        bindings.append(int(device_mem))
        # Append to the appropriate list.
        if engine.binding_is_input(binding):
            inputs.append(HostDeviceMem(host_mem, device_mem))
        else:
            outputs.append(HostDeviceMem(host_mem, device_mem))
    return inputs, outputs, bindings, stream

def get_engine(max_batch_size=1, onnx_file_path="", engine_file_path="",fp16_mode=False, int8_mode=False,save_engine=False):
    """
    params max_batch_size:      预先指定大小好分配显存
    params onnx_file_path:      onnx文件路径
    params engine_file_path:    待保存的序列化的引擎文件路径
    params fp16_mode:           是否采用FP16
    params int8_mode:           是否采用INT8
    params save_engine:         是否保存引擎
    returns:                    ICudaEngine
    """
    # 如果已经存在序列化之后的引擎,则直接反序列化得到cudaEngine
    if os.path.exists(engine_file_path):
        print("Reading engine from file: {}".format(engine_file_path))
        with open(engine_file_path, 'rb') as f, \
            trt.Runtime(TRT_LOGGER) as runtime:
            return runtime.deserialize_cuda_engine(f.read())  # 反序列化
    else:  # 由onnx创建cudaEngine
        
        # 使用logger创建一个builder 
        # builder创建一个计算图 INetworkDefinition
        explicit_batch = 1 << (int)(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)
        # In TensorRT 7.0, the ONNX parser only supports full-dimensions mode, meaning that your network definition must be created with the explicitBatch flag set. For more information, see Working With Dynamic Shapes.

        with trt.Builder(TRT_LOGGER) as builder, \
            builder.create_network(explicit_batch) as network,  \
            trt.OnnxParser(network, TRT_LOGGER) as parser, \
            builder.create_builder_config() as config: # 使用onnx的解析器绑定计算图,后续将通过解析填充计算图
            profile = builder.create_optimization_profile()
            profile.set_shape("inputs", (1, 1, 224, 224),(1,1,224,224),(1,1,224,224))
            config.add_optimization_profile(profile)

            config.max_workspace_size = 1<<30  # 预先分配的工作空间大小,即ICudaEngine执行时GPU最大需要的空间
            builder.max_batch_size = max_batch_size # 执行时最大可以使用的batchsize
            builder.fp16_mode = fp16_mode
            builder.int8_mode = int8_mode

            if int8_mode:
                # To be updated
                raise NotImplementedError

            # 解析onnx文件,填充计算图
            if not os.path.exists(onnx_file_path):
                quit("ONNX file {} not found!".format(onnx_file_path))
            print('loading onnx file from path {} ...'.format(onnx_file_path))
            # with open(onnx_file_path, 'rb') as model: # 二值化的网络结果和参数
            #     print("Begining onnx file parsing")
            #     parser.parse(model.read())  # 解析onnx文件
            parser.parse_from_file(onnx_file_path) # parser还有一个从文件解析onnx的方法

            print("Completed parsing of onnx file")
            # 填充计算图完成后,则使用builder从计算图中创建CudaEngine
            print("Building an engine from file{}' this may take a while...".format(onnx_file_path))

            #################
            # import pdb;pdb.set_trace()
            print(network.get_layer(network.num_layers-1).get_output(0).shape)
            # network.mark_output(network.get_layer(network.num_layers -1).get_output(0))
            engine = builder.build_engine(network,config)  # 注意,这里的network是INetworkDefinition类型,即填充后的计算图
            print("Completed creating Engine")
            if save_engine:  #保存engine供以后直接反序列化使用
                with open(engine_file_path, 'wb') as f:
                    f.write(engine.serialize())  # 序列化
            return engine

def do_inference(context, bindings, inputs, outputs, stream, batch_size=1):
    # Transfer data from CPU to the GPU.
    [cuda.memcpy_htod_async(inp.device, inp.host, stream) for inp in inputs]
    # Run inference.
    context.execute_async(batch_size=batch_size, bindings=bindings, stream_handle=stream.handle)
    # Transfer predictions back from the GPU.
    [cuda.memcpy_dtoh_async(out.host, out.device, stream) for out in outputs]
    # Synchronize the stream
    stream.synchronize()
    # Return only the host outputs.
    return [out.host for out in outputs]

def postprocess_the_outputs(outputs, shape_of_output):
    outputs = outputs.reshape(*shape_of_output)
    out = np.argmax(softmax(outputs,axis=1)[0,...],axis=0)
    # import pdb;pdb.set_trace()
    return out
# 验证TensorRT模型是否正确
onnx_model_path = './Net.onnx'
max_batch_size = 1
# These two modes are dependent on hardwares
fp16_mode = False
int8_mode = False
trt_engine_path = './model_fp16_{}_int8_{}.trt'.format(fp16_mode, int8_mode)
# Build an engine
engine = get_engine(max_batch_size, onnx_model_path, trt_engine_path, fp16_mode, int8_mode , save_engine=True)
# Create the context for this engine
context = engine.create_execution_context()
# Allocate buffers for input and output
inputs, outputs, bindings, stream = allocate_buffers(engine)  # input, output: host # bindings

# Do inference
img_np_nchw = get_img_np_nchw(img_path)
inputs[0].host = img_np_nchw.reshape(-1)
shape_of_output = (max_batch_size, 2, 224, 224)

# inputs[1].host = ... for multiple input
t1 = time.time()
trt_outputs = do_inference(context, bindings=bindings, inputs=inputs, outputs=outputs, stream=stream) # numpy data
t2 = time.time()
feat = postprocess_the_outputs(trt_outputs[0], shape_of_output)

print('TensorRT ok')
print("Inference time with the TensorRT engine: {}".format(t2-t1))

根据https://www.jb51.net/article/187266.htm文章里的方法,转换的时候会报下面的错误:

在这里插入图片描述

原来我是根据链接里的代买进行转换的,后来进行了修改,按我文中的转换代码不会有问题,

修改的地方在


with trt.Builder(TRT_LOGGER) as builder, \
            builder.create_network(explicit_batch) as network,  \
            trt.OnnxParser(network, TRT_LOGGER) as parser, \
            builder.create_builder_config() as config: # 使用onnx的解析器绑定计算图,后续将通过解析填充计算图
            profile = builder.create_optimization_profile()
            profile.set_shape("inputs", (1, 1, 224, 224),(1,1,224,224),(1,1,224,224))
            config.add_optimization_profile(profile)

            config.max_workspace_size = 1<<30  # 预先分配的工作空间大小,即ICudaEngine执行时GPU最大需要的空间
            engine = builder.build_engine(network,config)

将链接中相应的代码进行修改或添加,就没有这个问题了。

到此这篇关于PyTorch模型转TensorRT是怎么实现的?的文章就介绍到这了,更多相关PyTorch模型转TensorRT内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

PyTorch模型转TensorRT是怎么实现的?

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

PyTorch模型转TensorRT是怎么实现的?

转换步骤概览准备好模型定义文件(.py文件)准备好训练完成的权重文件(.pth或.pth.tar)安装onnx和onnxruntime将训练好的模型转换为.onnx格式安装tensorRT环境参数ubuntu-18.04 PyTorch-1
2022-06-02

PyTorch中的Transformer模型是如何实现的

在PyTorch中,Transformer模型主要由以下几个部分组成:Encoder:包括多个Encoder层,每个Encoder层由多头自注意力机制和前馈神经网络组成。Encoder的作用是将输入的序列进行特征提取和编码。Decoder:
PyTorch中的Transformer模型是如何实现的
2024-03-05

PyTorch模型转换为ONNX格式实现过程详解

这篇文章主要为大家介绍了PyTorch模型转换为ONNX格式实现过程详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
2023-05-17

PyTorch模型剪枝的概念是什么

PyTorch模型剪枝是指通过消除神经网络中不必要的参数或神经元,从而减少模型的大小和计算量的过程。剪枝技术可以帮助优化模型,提高推理速度,降低模型的内存占用和功耗,并且可以通过减少模型参数来提高模型的泛化能力。在PyTorch中,可以使用
PyTorch模型剪枝的概念是什么
2024-03-05

PyTorch的模型部署方式是什么

PyTorch模型的部署方式通常有以下几种:部署到本地计算机:可以在本地计算机上使用PyTorch的预训练模型或自己训练的模型进行推理或应用。部署到服务器:将PyTorch模型部署到服务器上,可以通过REST API或其他方式提供服务给客户
PyTorch的模型部署方式是什么
2024-03-14

pytorch实现模型剪枝的操作方法

PyTorch提供了内置剪枝API,也支持了一些非结构化和结构化剪枝方法,但是API比较混乱,对应文档描述也不清晰,所以后面我还会结合微软的开源nni工具来实现模型剪枝功能,这篇文章主要介绍了pytorch实现模型剪枝,需要的朋友可以参考下
2023-02-24

PyTorch中如何实现模型的集成学习

在PyTorch中实现模型的集成学习,可以通过以下步骤进行:定义多个模型:首先需要定义多个不同的模型,可以是同一种模型的不同实例,也可以是不同种类的模型。训练每个模型:针对每个模型进行独立的训练过程,使用训练数据集进行训练,并在验证集上进
PyTorch中如何实现模型的集成学习
2024-03-06

怎么调整PyTorch模型的超参数

调整PyTorch模型的超参数通常包括学习率、批大小、优化器类型、正则化参数等。以下是一些调整超参数的方法:学习率:学习率决定了模型在每次迭代中更新参数的大小。可以通过尝试不同的学习率来找到最优的学习率,通常可以使用学习率调度器来动态调整学
怎么调整PyTorch模型的超参数
2024-03-05

PyTorch中怎么进行模型的量化

在PyTorch中,可以使用torch.quantization模块来进行模型的量化。具体步骤如下:定义模型并加载预训练的模型参数。import torchimport torchvision.models as modelsmodel
PyTorch中怎么进行模型的量化
2024-03-05

Pytorch模型的保存/复用/迁移实现代码

本文整理了Pytorch框架下模型的保存、复用、推理、再训练和迁移等实现,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
2023-05-19

Tengine转换模型的规则是什么

Tengine转换模型的规则如下:1. 模型格式:Tengine支持转换Caffe、ONNX、TensorFlow等常见的深度学习模型格式。2. 网络结构:Tengine要求模型的网络结构必须符合Tengine的要求,包括网络层的类型、输入
2023-09-21

怎么在Pytorch模型中将读取的pth文件参数转换成numpy矩阵

怎么在Pytorch模型中将读取的pth文件参数转换成numpy矩阵?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。Pytorch给了很方便的读取参数接口:nn.
2023-06-06

java原型模式怎么实现

这篇文章主要介绍“java原型模式怎么实现”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“java原型模式怎么实现”文章能帮助大家解决问题。原型模式属于对象的创建模式。通过给出一个原型对象来指明所有创
2023-06-28

pytorch怎么获得模型的计算量和参数量

这篇文章给大家分享的是有关pytorch怎么获得模型的计算量和参数量的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。方法1 自带pytorch自带方法,计算模型参数总量total = sum([param.nele
2023-06-15

GO并发模型的实现原理是什么

这篇文章主要介绍了GO并发模型的实现原理是什么的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇GO并发模型的实现原理是什么文章都会有所收获,下面我们一起来看看吧。前言请记住下面这句话:DO NOT COMMUNI
2023-06-30

ADO.NET实体数据模型怎么实现

这篇文章主要讲解了“ADO.NET实体数据模型怎么实现”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“ADO.NET实体数据模型怎么实现”吧!ADO.NET是.NET与数据库互操作的核心,而A
2023-06-17

PHP类型的隐式转换怎么实现

本篇内容主要讲解“PHP类型的隐式转换怎么实现”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“PHP类型的隐式转换怎么实现”吧!一、基本数据类型在PHP中,基本数据类型有四种,分别是整型(int)
2023-07-05

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录