docker linux gpu
时间: 2025-06-20 15:23:05 浏览: 18
### 配置 Docker 使用 GPU 支持
要在 Linux 环境下设置 Docker 并启用 GPU 支持,可以按照以下方法操作:
#### 安装 NVIDIA Container Toolkit
NVIDIA 提供了一个工具集用于支持 Docker 和 GPU 的集成。安装此工具可以通过 AUR 或官方仓库完成。
运行以下命令以安装 `nvidia-container-toolkit`[^1]:
```bash
sudo apt update && sudo apt install -y nvidia-container-toolkit
```
对于 Arch 类发行版,可以从 AUR 中获取并安装该软件包:
```bash
yay -Ss nvidia-container-toolkit
```
完成后,重启 Docker 服务以应用更改:
```bash
sudo systemctl restart docker
```
#### 启动带有 GPU 支持的容器
从 Docker 版本 1.9 开始,无需额外下载独立的应用程序如 `nvidia-docker`,因为 GPU Runtime 已经被集成到标准 Docker 功能中[^2]。要启动一个具有 GPU 支持的容器,只需在 `docker run` 命令中加入 `--gpus` 参数即可。
例如,创建一个新的容器实例并将主机上的所有可用 GPU 映射给它:
```bash
docker run --rm --gpus all nvidia/cuda:11.0-base nvidia-smi
```
如果只需要分配特定数量或索引号的 GPU,则可指定如下选项:
```bash
docker run --rm --gpus '"device=0"' nvidia/cuda:11.0-base nvidia-smi
```
#### 解决 PID 可见性问题
当需要让容器内部能够看到宿主机进程 ID 名空间时,在版本 1.5 及更高版本中的 Docker 上可通过传递 `--pid=host` 来实现这一目标。这有助于调试以及监控来自容器内的资源使用情况。
示例命令如下所示:
```bash
docker run --pid=host --rm --gpus all ubuntu bash
```
通过上述步骤,便可以在 Linux 下成功配置好具备 GPU 加速功能的 Docker 环境。
---
### Python 开发环境下的 GPU Docker 设置 (Ubuntu 22.04)
为了构建适合于 Python 开发且利用 GPU 资源的工作流,还可以参考一些最佳实践指南。比如建立基于 TensorFlow 或 PyTorch 的镜像文件,并确保它们正确加载驱动器和库依赖项。
以下是简单的 Dockerfile 示例片段:
```Dockerfile
FROM nvidia/cuda:11.0-cudnn8-devel-ubuntu22.04
RUN apt-get update && \
DEBIAN_FRONTEND=noninteractive apt-get install -y python3-pip build-essential git && \
pip3 install torch torchvision torchaudio
CMD ["bash"]
```
构建后的映象允许开发者轻松测试机器学习模型训练过程而不用担心本地硬件兼容性问题。
---
阅读全文
相关推荐


















