docker部署vllm
时间: 2025-03-07 13:08:09 浏览: 284
### 使用 Docker 部署 vLLM
#### 创建并配置 Docker 容器环境
为了部署 vLLM (大型语言模型),首先需要确保本地环境中已正确安装 Docker 并启动了 Docker 引擎[^2]。接着,可以按照如下方式设置 Docker 容器来托管 vLLM。
#### 获取基础镜像
由于 vLLM 可能依赖特定的操作系统特性或库文件,在构建自定义镜像之前,建议先拉取一个适合开发需求的基础镜像作为起点:
```bash
docker pull nvidia/cuda:11.7.0-cudnn8-devel-ubuntu20.04
```
此命令会从官方仓库下载带有 CUDA 和 cuDNN 支持的 Ubuntu 20.04 版本镜像,这对于大多数 GPU 加速的应用程序来说是一个不错的选择[^1]。
#### 构建自定义镜像
创建 `Dockerfile` 文件用于描述如何定制化上述获取到的基础镜像以满足 vLLM 的特殊要求:
```Dockerfile
FROM nvidia/cuda:11.7.0-cudnn8-devel-ubuntu20.04
# 设置工作目录
WORKDIR /app
# 更新软件源并安装必要的工具和库
RUN apt-get update && \
apt-get install -y python3-pip git && \
pip3 install --upgrade pip setuptools wheel && \
rm -rf /var/lib/apt/lists/*
# 复制当前项目中的所有文件至容器内的应用根路径下
COPY . .
# 安装 Python 库和其他依赖项
RUN pip3 install -r requirements.txt
# 暴露服务端口
EXPOSE 8080
# 启动指令
CMD ["python3", "./main.py"]
```
这段脚本假设存在名为 `requirements.txt` 的文件列出了所有的 Python 包依赖关系,并且应用程序入口位于 `./main.py` 中。
#### 执行构建过程
完成以上准备工作之后,就可以利用下面这条命令来进行实际的镜像编译操作了:
```bash
docker build -t my-vllm-app .
```
这一步骤将会读取 `Dockerfile` 内容并将之转化为可执行形式存储于新生成的名字叫作 `my-vllm-app` 的镜像里。
#### 运行容器实例
最后一步就是激活这个刚刚制作好的镜像成为活跃状态下的容器对象以便对外提供 API 访问接口:
```bash
docker run -p 8080:8080 --gpus all -itd --name=my_vllm_container my-vllm-app
```
这里 `-p` 参数指定了主机与容器之间的端口号映射;而 `--gpus all` 则表示允许该进程访问全部可用图形处理器资源;另外还有几个常用选项如 `-itd` 表示交互模式加后台运行以及给定名称方便后续管理等。
通过这些步骤即可成功搭建起一套基于 Docker 技术框架之上稳定可靠的 vLLM 系统架构方案。
阅读全文
相关推荐

















