windows配置tensorrt
时间: 2025-03-18 16:05:00 浏览: 28
### 如何在 Windows 系统中安装和配置 TensorRT
#### 准备工作
为了确保顺利安装和配置 TensorRT,在开始之前需要确认以下依赖项已正确安装:
- **操作系统**: Windows 11 (版本号22621.1413)[^1]。
- **显卡驱动**: 已更新至 GeForce Game Ready 驱动程序 531.29 版本[^1]。
- **CUDA Toolkit**: CUDA 11.8 应当已经完成安装,并验证其功能正常[^4]。
可以通过命令行工具 `nvidia-smi` 和 `nvcc -V` 来分别检查 GPU 的状态以及 CUDA 是否正确安装。如果这些命令返回预期的结果,则表明基础环境准备就绪。
#### 安装 cuDNN
cuDNN 是 NVIDIA 提供的一个用于深度神经网络的库,通常与 CUDA 结合使用来提升性能。虽然它不是 TensorRT 的硬性需求,但在许多情况下它是必需的组件之一。按照官方文档中的指导下载适合当前 CUDA 版本的 cuDNN 文件包,并将其解压后的文件复制到相应的 CUDA 路径下。
#### 获取 TensorRT
访问 NVIDIA Developer Portal 登录账户后可找到 TensorRT 的发行版列表。选择适用于目标平台(即 Windows)且兼容所使用的 CUDA/cuDNN 组合的那个版本进行下载[^3]。注意阅读许可协议并同意条款之后才能继续操作流程。
#### 解压缩与设置环境变量
将下载得到的 TensorRT 压缩档案提取出来放到指定目录比如 `C:\Program Files\NVIDIA GPU Computing SDK`. 接着把该路径下的 bin 子文件夹加入系统的 PATH 变量之中以便能够调用相关二进制执行档;同时也需设定 LIBRARY_PATH 指向 lib/x64/ 下面的位置让链接器知道在哪里寻找静态或动态连接库。
#### 测试安装成果
最后一步就是验证整个过程是否顺利完成。可以尝试编译运行一些简单的样例程式码来看看有没有错误发生。例如下面这个 Python 小片段展示了如何加载一个预训练好的 ONNX 格式的模型并通过 TensorRT 实现推理:
```python
import tensorrt as trt
from tensorflow.keras.applications.vgg16 import preprocess_input, decode_predictions
def build_engine(onnx_file_path):
TRT_LOGGER = trt.Logger(trt.Logger.WARNING)
with trt.Builder(TRT_LOGGER) as builder, \
builder.create_network(1 << int(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)) as network,\
trt.OnnxParser(network, TRT_LOGGER) as parser:
config = builder.create_builder_config()
config.max_workspace_size = 1 << 30
with open(onnx_file_path,'rb')as model:
if not parser.parse(model.read()):
print('Failed to parse the ONNX file.')
for error in range(parser.num_errors):
print(parser.get_error(error))
return None
engine = builder.build_serialized_network(network,config=config)
return engine
if __name__ == "__main__":
onnx_model="path/to/vgg16.onnx"
serialized_engine=build_engine(onnx_model)
```
上述脚本仅作为演示用途,请根据实际项目调整参数设置[^2]。
---
阅读全文
相关推荐

















