安装 TensorRT CUDA12
时间: 2025-04-08 20:17:36 浏览: 49
### CUDA 12 下 TensorRT 的兼容性配置
TensorRT 是 NVIDIA 提供的一个高性能深度学习推理库,其版本与 CUDA 和 cuDNN 存在严格的依赖关系。对于 CUDA 12 环境下的 TensorRT 安装指南,需特别注意以下几点:
#### 1. **TensorRT 版本选择**
TensorRT 各版本对 CUDA 和 cuDNN 的支持有严格的要求。截至当前最新版本,TensorRT 8.6.x 已经开始支持 CUDA 12[^1]。因此,在 CUDA 12 环境下安装 TensorRT 时,应优先考虑使用 TensorRT 8.6 或更高版本。
#### 2. **cuDNN 版本匹配**
除了 CUDA 外,TensorRT 还需要特定版本的 cuDNN 支持。例如,TensorRT 8.6 要求搭配 cuDNN 8.9 及以上版本才能正常运行。如果使用的 cuDNN 不符合要求,则可能导致加载失败或其他错误。
#### 3. **环境准备**
在 Windows 11 上通过 WSL Ubuntu 安装 CUDA、cuDNN 和 TensorRT 的过程中,建议按照以下顺序操作:
- 首先确认已正确安装适用于目标系统的 NVIDIA 显卡驱动程序[^2]。
- 接着完成 CUDA Toolkit (v12) 的部署并验证 `nvcc` 是否可用以及路径设置无误。
- 下载对应架构预编译好的 cuDNN 库文件解压至指定目录并与现有 CUDA 文件夹结构集成起来。
#### 4. **TensorRT 安装方法**
针对 Linux 平台(如基于WSL2 的Ubuntu),推荐采用官方提供的 `.deb` 包形式来简化整个流程;或者手动下载 tar.gz 归档版后依据说明文档逐步执行命令行脚本来实现定制化构建过程。
以下是具体步骤中的关键部分展示:
```bash
# 更新系统软件源列表并升级已有包到最新状态
sudo apt update && sudo apt upgrade -y
# 添加NVIDIA APT仓库密钥及地址以便后续获取资源
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s https://nvidia.github.io/libnvinfer/$distribution/nvidia-libnvinfer.repo | \
sudo tee /etc/apt/sources.list.d/nvidia-libnvinfer.list
sudo apt-key adv --fetch-keys https://nvidia.github.io/libnvinfer/$distribution/7fa2af80.pub
# 刷新APT缓存索引数据后再安装所需组件
sudo apt update
sudo apt install tensorrt python3-tensorrt uff-converter-tf onnx-graphsurgeon
```
上述代码片段展示了如何利用APT工具链快速便捷地引入由NVIDIA维护的支持多种框架转换功能的强大插件集合。
---
####
阅读全文
相关推荐


















