1、 拉取镜像
docker pull vllm/vllm-openai:latest
2、下载模型
我是运行本地代码的时候自动下载的,如果想直接下载我看网上的方式如下(作者与我下载的模型不一样,只看方法就行):
默认下载到的路径可以在配置文件~/.bashrc修改
export MODELSCOPE_CACHE="/mnt/datadisk0/suanfa/model_scope_cache"
3、编写dockerfile文件
Add后的Qwen2-VL-7B-Instruct是下载好的模型
这里的add后的模型路径一开始和dockefile文件路径不一致,docker build -t vllm_qwen2vl_7b:1.0 -f Dockerfile .一直报错
一直说路径不存在,但是我实际存在,网上查找原因:
于是我把dockerfile文件创建在了与模型同级目录下
4、构建镜像
docker build -t vllm_qwen2vl_7b:1.0 -f Dockerfile .
查看构建的镜像:
5、启动容器
docker run -itd --runtime nvidia --gpus all --name vllm_qwen2vlm --env "HUGGING_FACE_HUB_TOKEN=123" -p 8000:8000 vllm_qwen2vl_7b:1.0
查看运行的容器: