wsl配置cuda、tensorRT
时间: 2025-03-03 15:16:07 浏览: 64
### 配置 CUDA 和 TensorRT 在 WSL 中
#### 安装必要的依赖项
为了在 Windows Subsystem for Linux (WSL) 中安装和配置 CUDA 及其深度学习库 TensorRT,首先需要确保已安装一些基本工具和依赖包。对于基于 Debian 的发行版如 Ubuntu,可以通过以下命令来完成这些操作:
```bash
sudo apt-get update && sudo apt-get upgrade -y
sudo apt-get install -y build-essential cmake git wget curl unzip pkg-config
```
上述命令会更新软件源并升级现有包至最新版本,同时还会安装编译所需的工具链以及其它辅助开发工具[^2]。
#### 启用 WSL 2 并设置默认分发版
由于 NVIDIA 提供的官方支持仅限于 WSL 2 版本,因此需确认当前使用的确实是 WSL 2 而不是更早的 WSL 1。可以利用 PowerShell 来切换到 WSL 2:
```powershell
wsl --set-default-version 2
```
接着指定某个特定的 Linux 发行作为默认启动的目标,比如 Ubuntu:
```powershell
wsl --set-default <DistributionName>
```
这里的 `<DistributionName>` 应替换为你实际安装的那个 Linux 发行的名字,通常就是 `Ubuntu` 或者带有版本号的形式如 `Ubuntu-20.04`。
#### 下载与安装 NVIDIA GPU Driver 和 CUDA Toolkit
访问[NVIDIA 官方网站](https://developer.nvidia.com/cuda-downloads),按照提示下载适用于 WSL 的驱动程序及 CUDA 工具集。注意选择正确的平台选项——即 "Linux" -> "WSL"。完成后依照页面上的指导逐步执行安装过程即可。
#### 设置环境变量
成功安装之后,记得把 CUDA 的路径加入系统的 PATH 环境变量里去以便后续调用方便。编辑用户的 shell profile 文件(例如 `.bashrc`, `.zshrc`),添加如下几行内容:
```bash
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
```
使更改生效可重新加载该文件或重启终端窗口:
```bash
source ~/.bashrc # 如果使用的是 bash
# 或者如果是 zsh 则运行下面这句
source ~/.zshrc # 如果使用的是 zsh
```
#### 安装 TensorRT
TensorRT 是由 NVIDIA 开发的一个高性能推理优化器和支持库集合,专门用于加速神经网络模型部署。同样地,在[NVIDIA Developer Zone](https://developer.nvidia.com/tensorrt) 上找到对应版本的 TensorRT,并遵循文档说明来进行本地化部署工作。一般情况下,建议先通过 pip 安装 Python API 接口部分;而对于 C++ 用户,则可能还需要额外处理 tarball 形式的二进制发布包。
#### 测试安装成果
最后一步是要验证整个流程是否顺利完成。可以从 GitHub 获取一个简单的测试项目,它能够帮助快速检验 CUDA 和 TensorRT 是否正常运作。例如,尝试克隆 [NVIDIA/TensorRT-samples][tensorrt_samples_repo_link]仓库并依据其中 README.md 给出的操作指南构建样例工程。
[tensorrt_samples_repo_link]: https://github.com/NVIDIA/TensorRT/tree/master/samples
阅读全文
相关推荐


















