autoware.universe源码略读(3.2)--perception:TensorRT

autoware.universe源码略读3.2--perception:TensorRT

Overview

依我个人通俗的理解,神经网络的使用可以分为两个部分:使用数据训练和对数据进行测试,那么在实际的应用中,是不应该一边训练一边推理的,或者说不应该从零开始一边训练一边推理的,那么就会使用到预先训练好的模型,TensorRT是可以在NVIDIA各种GPU硬件平台下运行的一个C++推理框架。我们利用Pytorch、TF或者其他框架训练好的模型,可以转化为TensorRT的格式,然后利用TensorRT推理引擎去运行我们这个模型,从而提升这个模型在英伟达GPU上运行的速度。速度提升的比例是比较可观的。(参考:TensorRT详细入门指北,如果你还不了解TensorRT,过来看看吧!
在这里插入图片描述

TensorRT库

比起下载安装包的方法,在安装autoware.universe的依赖库的时候,是有安装了ros-galactic-tensorrt这个库的,安装了这个库应该就可以直接用相关的东西了,这里再看回之前common中的tensorrt_common,这里应该就是为TensorRT库设计的一些接口,这里我们再稍微仔细地看一下。当然这里做的还是准备工作,定义了接口和类,后边可以直接使用

构造函数

构造函数里,涉及到了几个输入的参数

参数名 类型 作用
model_path string 模型的文件路径
precision string 模型推理精度。通常是 “fp32”、“fp16” 或 “int8”
calibrator std::unique_ptr<nvinfer1::IInt8EntropyCalibrator2> 用于 INT8 精度推理的校准器
batch_config tensorrt_common::BatchConfig 批处理配置
max_workspace_size size_t 最大工作空间大小。指定 TensorRT 运行时可以使用的最大内存空间,用于优化模型
plugin_paths std::vector<std::string> 插件路径列表

在构造函数里,核心的代码是下面这两句

  runtime_ = TrtUniquePtr<nvinfer1::IRuntime>(nvinfer1::createInferRuntime(logger_)); // 创建运行对象
  initLibNvInferPlugins(&logger_, ""); // 初始化插件

setup

核心函数,这里执行了主要的模型加载的功能,首先是根据后缀判断,如果是engine就直接调用loadEngine函数来加载这个模型,如果是onnx后缀的话,就先调用buildEngineFromOnnx进行转换,再来加载。

context_ = TrtUniquePtr<nvinfer1::IExecutionContext>(engine_->createExecutionContext());

这句代码是为一个已构建好的推理引擎创建一个执行环境。这个环境用于执行模型推理,包括处理输入数据、运行模型计算以及获取输出结果。所以执行完这句代码后,理论上就可以执行推理的步骤了吧。

loadEngine

这里就是加载模型(引擎可以理解为,有这个东西才能执行后边的步骤,所以也确实算一种引擎吧)的函数。这里的rdbuf()函数是一种缓冲流的操作,返回的是一个指针,把文件加载到缓冲区,然后再给输入输出流之类的,这里是给了字符串流中

std::ifstream engine_file(engine_file_path);  // 打开文件
std::stringstream engine_buffer;  // 创建字符串流
engine_buffer << engine_file.rdbuf();  // 将文件流缓冲区内容插入到字符串流中

下一句代码则是关键,调用的应该就是TensorRT的函数,来创建反序列化引擎的对象

engine_ = TrtUniquePtr<nvinfer1::ICudaEngine>(runtime_->deserializeCudaEngine(
  reinterpret_cast<const void *>(engine_str.data()), engine_str.size()));

buildEngineFromOnnx

这个函数也没什么好说的,就是根据onnx模型构建engine,都是用的库里的函数,具体每一步的注释放在下面的代码里了

bool TrtCommon::buildEngineFromOnnx(
  const std
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值