VLLM ubuntu安装
时间: 2025-05-05 07:05:26 浏览: 40
### 如何在 Ubuntu 上安装 VLLM
为了成功安装 VLLM 并配置其运行环境,以下是详细的说明:
#### 环境准备
确保系统已正确安装 NVIDIA 驱动程序以及支持的 CUDA 版本。对于 Ubuntu 18 和 CUDA 11.8 的组合,可以按照以下步骤操作。
#### 设置变量并安装 VLLM
通过设置必要的环境变量来指定版本号和 Python 解释器版本。随后利用 `pip` 命令完成安装过程。
```bash
export VLLM_VERSION=0.4.0
export PYTHON_VERSION=310
pip install https://github.com/vllm-project/vllm/releases/download/v${VLLM_VERSION}/vllm-${VLLM_VERSION}+cu118-cp${PYTHON_VERSION}-cp${PYTHON_VERSION}-manylinux1_x86_64.whl --extra-index-url https://download.pytorch.org/whl/cu118
```
上述脚本会从 GitHub 发布页面获取对应版本的预编译二进制文件,并附加 PyTorch 提供的支持 CUDA 11.8 的额外索引地址[^1]。
#### 使用 Ollama 替代方案
如果考虑其他模型服务框架作为补充选项,则可以通过简单的 Shell 脚本来快速部署 Ollama,在 Linux 下执行如下指令即可完成安装:
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
此命令将自动处理依赖关系并通过官方渠道下载最新稳定版软件包[^2]。
#### 结合 Docker 容器化管理 (可选)
针对更复杂的生产场景或者希望隔离开发测试环境的需求来说,采用容器技术不失为一种明智的选择。下面展示了一个用于初始化Docker CE存储库密钥材料的例子:
```bash
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
```
这一步骤有助于后续顺利拉取镜像资源和服务编排工作流[^3]。
综上所述,无论是单独运用还是搭配其它工具链一起构建大规模推理服务平台,VLLM都能提供强大灵活的功能特性满足不同层次的应用需求。
阅读全文
相关推荐

















