ubuntu tensorrt安装
时间: 2023-09-28 18:09:32 浏览: 246
要在Ubuntu上安装TensorRT,您可以按照以下步骤进行操作:
1. 下载TensorRT的tar包,并解压缩。您可以使用命令`tar xzvf TensorRT-7.x.x.x.<os>.<arch>-gnu.cuda-x.x.cudnn7.x.tar.gz`来解压缩。请确保将`x.x.x.x`替换为您要安装的TensorRT版本,`<os>`替换为您的操作系统(Ubuntu-14.04,Ubuntu-16.04,Ubuntu-18.04,CentOS-7.6),`<arch>`替换为您的架构(x86_64或ppc64le),`cuda-x.x`替换为您的CUDA版本(9.0,10.0或10.1),`cudnn7.x`替换为您的cuDNN版本(7.6)。
2. 进入解压后的TensorRT目录,并安装TensorRT的Python接口。您可以使用命令`cd TensorRT-7.x.x.x/python`进入Python接口目录,然后使用命令`pip install tensorrt-7.x.x.x-cp3x-none-linux_x86_64.whl`安装TensorRT的Python接口。请确保将`7.x.x.x`替换为您要安装的TensorRT版本。
安装完成后,您就可以在Ubuntu上使用TensorRT了。请注意,您还需要确保您的系统满足TensorRT的要求,包括正确的操作系统版本,适当的GPU型号和驱动版本,以及所需的CUDA和cuDNN版本。
相关问题
ubuntu tensorrt 安装
### 如何在 Ubuntu 系统上安装 TensorRT
#### 准备工作
确保系统已正确安装所需的依赖项,包括特定版本的CUDA和cuDNN。这些组件需与所选TensorRT版本兼容[^5]。
#### 安装方法一:通过 `.whl` 文件安装
对于已经获取了`.whl`文件的情况,在终端中切换至该文件所在路径并执行如下命令完成安装:
```bash
pip install --force-reinstall tensorrt-8.4.1.5-cp310-none-linux_x86_64.whl
```
此方式适用于Python环境下的快速集成[^1]。
#### 安装方法二:解压缩包后手动复制
下载对应的TensorRT版本压缩包,并将其放置于合适位置。接着利用以下指令将解压后的资料移动到目标文件夹内(例如根目录):
```bash
sudo cp -r TensorRT-8.6.1.6 /
```
之后还需进一步设置环境变量以便正常使用TensorRT库函数[^2]。
#### 安装方法三:Conda环境下安装
激活所需conda虚拟环境后进入TensorRT软件包所在的子目录,再运行下面这条语句来加载wheel文件中的资源:
```bash
conda activate
cd /path/to/TensorRT-version/python/
pip install tensorrt-8.0.1.6-cp38-none-linux_x86_64.whl
```
这种方法适合那些偏好Anaconda管理工具链的人群使用[^3]。
#### 解压Tarball文件
当收到的是tarball格式的数据集时,则先要对其进行解档操作:
```bash
tar -zxvf TensorRT-8.2.1.8.Linux.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz
```
这一步骤能够释放出所有必要的组成部分供后续处理调用[^4]。
Ubuntu TensorRT安装 c++
### Ubuntu 上 TensorRT 的 C++ 安装教程
要在 Ubuntu 系统上通过 C++ 使用 TensorRT,可以按照以下方法完成安装和配置。
#### 1. 下载并解压 TensorRT 软件包
首先需要从 NVIDIA 官方网站下载适合当前系统的 TensorRT 版本。假设已经成功获取 `.tar.gz` 文件,则可以通过 `tar` 命令将其解压缩:
```bash
tar -xvzf TensorRT-<version>.Ubuntu-<os_version>.x86_64-gnu.cuda-<cuda_version>.cudnn<cuDNN_version>.tar.gz
```
例如,对于版本号为 `7.1.3.4` 的 TensorRT,在 CUDA 11.0 和 cuDNN 8.0 的环境下运行如下命令[^4]:
```bash
tar -xvzf TensorRT-7.1.3.4.Ubuntu-16.04.x86_64-gnu.cuda-11.0.cudnn8.0.tar.gz
```
这一步完成后会得到一个目录结构,其中包含必要的库文件、头文件和其他资源。
#### 2. 配置环境变量
为了使编译器能够找到 TensorRT 提供的动态链接库以及开发所需的头文件,需设置相应的环境变量。编辑用户的 shell 配置文件(如 `.bashrc`),添加以下内容来指定路径位置:
```bash
sudo gedit ~/.bashrc
```
向该文件追加下面两行语句(注意替换实际路径):
```bash
export PATH=<path_to_TensorRT>/bin:${PATH}
export LD_LIBRARY_PATH=<path_to_TensorRT>/lib:${LD_LIBRARY_PATH}
```
举例来说, 如果 TensorRT 解压后的根目录位于 `/home/user/tensorrt`, 则应写成这样:
```bash
export PATH=/home/user/tensorrt/bin:${PATH}
export LD_LIBRARY_PATH=/home/user/tensorrt/lib:${LD_LIBRARY_PATH}
```
保存修改后执行以下指令让更改生效:
```bash
source ~/.bashrc
```
#### 3. 将 TensorRT 库复制至全局可见区域 (可选)
如果希望其他应用程序也能轻松访问这些共享对象而无需额外调整其构建脚本的话,可以把它们拷贝到标准系统级搜索范围内去。比如这样做[^2]:
```bash
sudo cp -r <path_to_TensorRT>/lib/* /usr/lib/
sudo cp -r <path_to_TensorRT>/include/* /usr/include/
```
同样以先前的例子为例即变为:
```bash
sudo cp -r /home/user/tensorrt/lib/* /usr/lib/
sudo cp -r /home/user/tensorrt/include/* /usr/include/
```
不过需要注意的是此操作可能引起权限冲突或者覆盖已有同名组件的风险,请谨慎行事!
#### 4. 编译测试程序验证安装成果
最后编写一段简单的代码片段用于确认整个流程无误。这里给出官方样例之一——hello_world.cpp 的实现形式作为参考[^5]:
```cpp
#include "NvInfer.h"
#include <iostream>
int main() {
nvinfer1::ILogger* logger = new SampleLogger();
std::cout << "TensorRT library version: " << NV_TENSORRT_MAJOR << "."
<< NV_TENSORRT_MINOR << "." << NV_TENSORRT_PATCH << std::endl;
delete logger;
return 0;
}
```
接着利用 g++ 工具链对其进行处理时记得附加 `-ltensorrt` 参数以便连接静态/动态档案资料集 :
```bash
g++ hello_world.cpp -o hello_tensorrt -I/usr/include/ -L/usr/lib/ -ltensorrt -lnvinfer -ldl -pthread
./hello_tensorrt
```
以上步骤全部顺利完成则表明已正确搭建好基于 C++ 平台下的 TensorRT 开发框架啦!
---
阅读全文
相关推荐















