tensorrt cudnn安装 linux
时间: 2025-05-16 10:55:03 浏览: 29
### TensorRT 和 cuDNN 的安装指南
#### 准备工作
在开始之前,确保已准备好以下条件:
- 已安装 NVIDIA 驱动程序并支持 CUDA 计算。
- 系统为 Ubuntu 20.04 或更高版本。
- 安装了适合的 CUDA 版本以及 Anaconda(如果计划通过 Python 使用 TensorRT)。
---
#### TensorRT 安装过程
1. **下载 TensorRT**
前往官方 NVIDIA 下载页面获取最新版 TensorRT。对于 Linux 用户,通常会提供 `.tar.gz` 格式的压缩包文件[^1]。
2. **解压文件**
将下载好的 `TensorRT-<version>.Linux.x86_64-gnu.cuda-<cuda_version>.cudnn<ver>/` 解压至目标目录。例如:
```bash
tar -xzvf TensorRT-8.4.3.1.Linux.x86_64-gnu.cuda-11.6.cudnn8.4.tar.gz -C /usr/local/
```
3. **配置环境变量**
修改系统的环境变量以便于编译器能够找到 TensorRT 库路径。编辑 `/etc/profile` 或者当前用户的 `~/.bashrc` 文件,添加如下内容:
```bash
export LD_LIBRARY_PATH=/usr/local/TensorRT/lib:$LD_LIBRARY_PATH
```
执行命令使更改生效:
```bash
source ~/.bashrc
```
4. **验证 C++ 支持**
如果需要使用 TensorRT 提供的 C++ API,则可以测试样例工程是否能成功构建运行。参考文档中的示例项目来确认开发工具链设置无误。
5. **Python 绑定安装**
对于希望利用 Python 接口操作 TensorRT 的开发者来说,在完成上述基础步骤之后还需额外处理 python 子模块部分。具体做法是从对应子目录下执行 pip install 操作:
```bash
cd TensorRT-8.4.3.1.Linux.x86_64-gnu.cuda-11.6.cudnn8.4/TensorRT-8.4.3.1/python/
conda activate your_env_name_with_python3.8
pip install .
```
这里假设已经创建了一个基于 Conda 的虚拟环境,并切换到了该环境中[^2]。
---
#### cuDNN 安装流程
1. **获取 cuDNN 软件包**
登录 NVIDIA 开发者门户网站后可获得与所选 CUDA 版本相匹配的 cuDNN 归档文件。
2. **提取归档数据**
类似地,把 cuDNN 数据库释放出来放到适当位置比如 `/usr/local/cuda/include/` 及其关联 lib 目录下面去覆盖默认值或者追加进去新的实现形式即可满足需求。
示例指令序列可能看起来像这样:
```bash
sudo cp cuda/include/cudnn*.h /usr/local/cuda/include/
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
```
3. **更新动态链接器缓存**
刷新系统关于共享对象的认识范围从而让应用程序自动探测新增组件的存在状态变得可行起来。
```bash
sudo ldconfig
```
---
#### 测试安装成果
最后一步就是检验整个部署环节到底有没有差错发生。可以通过编写简单的 HelloWorld 程序调用相关函数接口来进行功能性的初步判断;另外也可以借助 nvidia-smi 查看 GPU 是否被正常驱动加载等情况辅助分析问题所在之处。
```cpp
#include <NvInfer.h>
int main(){
nv::infer::createInferBuilder(0); // Just try to create builder instance.
}
```
以上代码片段展示了如何尝试实例化一个推理引擎建造者的简单例子用于检测核心 SDK 功能可用性情况。
---
阅读全文
相关推荐


















