docker run -d --runtime nvidia -v ollama:/root/.ollama -p 3002:11434 --restart unless-stopped --name ollama docker.m.daocloud.io/dustynv/ollama:r36.4.0
时间: 2025-03-16 14:08:58 浏览: 45
<think>嗯,用户想运行一个基于NVIDIA runtime的Docker容器,挂载卷、映射端口,使用特定镜像和标签。我需要确保命令正确配置这些选项。首先,Docker使用NVIDIA runtime需要安装nvidia-container-toolkit,用户可能已经装好了,但可能需要提醒他们检查。
接下来,挂载卷用-v参数,比如把本地的./ollama_data挂载到容器的/root/.ollama。端口映射用-p,比如11434:11434。然后指定运行时--runtime=nvidia,镜像用的是docker.m.daocloud.io/dustynv/ollama:r36.4.0。可能还需要设置环境变量,比如NVIDIA_VISIBLE_DEVICES来指定GPU设备。
另外,用户提供的引用中有提到daemon.json配置,可能需要确保他们的Docker配置支持NVIDIA runtime。例如,引用[3]中提到了配置insecure-registries,但这里主要是NVIDIA runtime的问题,所以可能需要确认用户是否已经正确配置了Docker的runtime选项。
组合这些参数的话,命令应该是docker run加上这些选项。可能还需要检查权限问题,比如用户是否有权限访问GPU设备。另外,如果用户遇到问题,可能需要建议他们检查nvidia-smi是否正常,以及Docker服务是否重启过应用配置。
最后,生成相关问题时要覆盖NVIDIA runtime的配置、卷挂载的其他应用、多GPU的情况以及容器网络配置,这些可能都是用户后续会关心的问题。</think>### 运行NVIDIA Runtime的Docker容器配置步骤
#### 1. **验证NVIDIA Container Toolkit安装**
确保已安装`nvidia-container-toolkit`并配置Docker使用NVIDIA运行时:
```bash
docker info | grep -i runtime
```
若输出包含`nvidia`则配置成功,否则需参考NVIDIA官方文档安装[^1]。
#### 2. **运行容器命令**
以下命令实现GPU支持、卷挂载和端口映射:
```bash
docker run -it --rm \
--runtime=nvidia \
-v ./ollama_data:/root/.ollama \
-p 11434:11434 \
--env NVIDIA_VISIBLE_DEVICES=all \
docker.m.daocloud.io/dustynv/ollama:r36.4.0
```
#### 参数说明
- `--runtime=nvidia`: 启用NVIDIA GPU加速[^1]
- `-v ./ollama_data:/root/.ollama`: 将主机当前目录的`ollama_data`挂载到容器内
- `-p 11434:11434`: 映射容器11434端口到主机同端口
- `NVIDIA_VISIBLE_DEVICES=all`: 暴露所有可用GPU设备
#### 3. **验证GPU访问**
进入容器后执行:
```bash
nvidia-smi
```
应显示GPU信息列表。
#### 4. **daemon.json配置参考**
若遇到镜像拉取问题,可参考以下配置(如引用[3]):
```json
{
"insecure-registries": ["docker.m.daocloud.io"],
"runtimes": {
"nvidia": {
"path": "/usr/bin/nvidia-container-runtime",
"runtimeArgs": []
}
}
}
```
阅读全文
相关推荐



















