Ubuntu如何安装vllm
时间: 2025-05-24 21:04:42 浏览: 74
### 安装 vLLM 库或框架的具体方法
要在 Ubuntu 系统上成功安装 vLLM,可以按照以下说明操作:
#### 创建 Python 虚拟环境
为了确保依赖项不会与其他项目冲突,建议创建一个新的 Python 虚拟环境。以下是具体步骤:
```bash
sudo apt update && sudo apt install python3.10-venv -y
python3.10 -m venv vllm_env
source vllm_env/bin/activate
```
此部分的操作已在参考资料中提及[^1]。
#### 配置硬件和软件环境
在安装之前,请确认您的系统满足最低配置需求。例如,您需要具备支持 CUDA 的 GPU 卡以及兼容的驱动程序版本。对于特定的硬件设置,可参考以下信息:
- **CPU**: 至少 12 vCPU(推荐使用 Intel Xeon 或同等性能处理器)
- **GPU**: NVIDIA RTX 3080 或更高型号
- **内存**: 推荐至少 48 GB RAM
- **操作系统**: Ubuntu 22.04 LTS
- **CUDA 版本**: cuda_11.8 可通过 `nvcc --version` 命令验证其版本号[^3]。
如果您不确定当前系统的 GPU 是否已正确安装驱动程序,可以通过运行 `$ sudo ubuntu-drivers list --gpgpu` 来检查预构建的 GPU 包是否存在[^2]。
#### 下载并编译 vLLM 源码
完成上述准备工作之后,可以从 GitHub 上克隆 vLLM 项目的官方仓库,并执行必要的安装脚本:
```bash
git clone https://github.com/vllm-project/vllm.git
cd vllm
pip install -U -r requirements.txt
VLLM_TARGET_DEVICE="gpu" pip install .
```
如果目标设备为 AWS Neuron,则需额外安装 neuronx-cc 和 transformers-neuronx 软件包后再继续安装 vLLM[^4]:
```bash
pip install neuronx-cc transformers-neuronx
VLLM_TARGET_DEVICE="neuron" pip install .
```
#### 解决潜在错误
在网络条件较差的情况下,可能会遇到某些依赖无法正常下载的情况。比如下面这个典型的错误提示:
```
ERROR: Could not find a version that satisfies the requirement numpy (from vllm) (from versions: none)
ERROR: No matching distribution found for numpy (from vllm)
```
此时可通过手动指定国内镜像源来解决该问题[^5]。例如,将 PyPI 默认索引替换为中国科学技术大学提供的加速服务:
```bash
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
```
---
### 总结
以上就是在 Ubuntu 平台上部署 vLLM 所涉及的主要流程和技术要点。务必严格按照顺序逐步实施每一步骤,同时注意调整参数以适配实际使用的计算资源情况。
阅读全文
相关推荐

















