vllm 安装
时间: 2025-05-28 08:51:09 浏览: 31
### vLLM 的安装方法
为了成功安装并配置 vLLM,以下是详细的说明:
#### 良好的网络连接和镜像加速
在开始之前,请确保拥有稳定的网络连接,并推荐通过配置国内镜像源来加速 Python 包的下载过程[^1]。
#### 创建虚拟环境
为了避免与其他项目的依赖发生冲突,建议创建一个新的虚拟环境。可以运行以下命令完成此操作:
```bash
python3 -m venv llm
```
激活该虚拟环境的方法如下(Linux/MacOS 系统下):
```bash
source /path/to/your/venv/bin/activate
```
其中 `/path/to/your/venv` 是您实际保存虚拟环境的位置[^1]。
#### 更新包管理工具
升级 `pip` 到最新版本有助于解决潜在的兼容性问题:
```bash
pip install --upgrade pip
```
#### 配置国内镜像源
对于国外资源访问速度较慢的情况,可以通过设置 `.pip/pip.conf` 文件指定清华开源软件镜像站作为默认索引地址。执行下面的指令即可完成配置:
```bash
mkdir -p ~/.pip
cat <<EOF > ~/.pip/pip.conf
[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple
trusted-host = pypi.tuna.tsinghua.edu.cn
EOF
```
#### 安装核心组件
接下来按照顺序依次安装必要的库文件。首先是 vLLM 自身及其所需的 CUDA 版本自动适配功能:
```bash
pip install vllm
```
随后还需要额外引入两个辅助性的工具集——transformers 和 accelerate 来增强模型加载效率以及性能表现:
```bash
pip install transformers accelerate
```
#### 验证 CUDA 兼容性
最后一步非常重要的是确认当前系统的 NVIDIA GPU 驱动程序已更新至支持最新版 CUDA Toolkit 所需最低标准之上(即 >=525.85.12)。这可通过调用 `nvidia-smi` 命令查看相关信息实现验证目的[^1]。
如果在网络条件较差或者特定情况下遇到无法找到满足需求版本错误提示时,则可能是由于外部因素引起的数据传输失败所致[^2]。此时可尝试更换其他可用时间更充裕的时间段重试,亦或是手动调整 PyPI 源位置直至顺利完成整个流程为止。
---
### 使用实例展示
当一切准备就绪之后,就可以利用如下简单代码片段测试一下基本的功能是否正常运作了:
```python
from vllm import LLM
prompts = [
"Hello, my name is",
"The capital of France is"
]
llm = LLM(model="lmsys/vicuna-7b-v1.3")
outputs = llm.generate(prompts)
print(outputs)
```
以上脚本会基于预训练模型生成对应的回复内容[^4]。
---
阅读全文
相关推荐

















