llamafactory-cli 如何安装
时间: 2025-05-25 20:21:09 浏览: 19
### 安装 `llamafactory-cli` 并解析 `pip install -e '.[torch,metrics]'`
#### 1. 获取并克隆仓库
首先,需要从 GitHub 上获取 LLaMA-Factory 的源码。可以通过以下命令完成:
```bash
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
```
此操作会下载最新的代码到本地目录[^2]。
---
#### 2. 创建虚拟环境
为了避免与其他项目冲突,建议创建一个新的 Python 虚拟环境。可以使用 Conda 或 venv 工具来实现这一点。以下是基于 Conda 的示例:
```bash
conda create -n llama python=3.11.1
conda activate llama
```
这一步确保了所有依赖都将在独立环境中安装,从而减少潜在的兼容性问题[^3]。
---
#### 3. 解析 `pip install -e '.[torch,metrics]'`
该命令的核心作用是以开发模式(editable mode)安装当前目录中的 Python 包,并附带指定的额外依赖组。具体含义如下:
- **`pip install -e .`**: 表示以编辑模式安装当前目录下的包。这意味着即使后续修改了源代码,也不需要重新安装即可立即生效[^5]。
- **`.[]` 结构**: 方括号内的内容指定了额外的依赖组。例如 `[torch,metrics]` 将触发安装与这两个选项相关的依赖项。
- **`setup.py` 中的定义**: 在项目的 `setup.py` 文件中,通常会有类似的配置:
```python
from setuptools import setup, find_packages
setup(
name="llamafactory",
version="0.1",
packages=find_packages(),
entry_points={
"console_scripts": [
"llamafactory-cli=llama_factory.cli:main"
]
},
extras_require={
"torch": ["torch>=1.9.0"],
"metrics": ["nltk", "jieba", "rouge-chinese"]
}
)
```
这里,`entry_points` 定义了一个名为 `llamafactory-cli` 的命令行工具入口,指向模块 `llama_factory.cli` 中的函数 `main()` 方法[^4]。而 `extras_require` 则列出了可选的依赖分组。
因此,执行 `pip install -e ".[torch,metrics]"` 实际上完成了两件事:
1. 安装核心包本身;
2. 根据 `extras_require` 配置自动拉取 `torch` 和 `metrics` 组所需的依赖。
---
#### 4. 处理 `llamafactory-cli not recognized` 错误
如果在成功运行 `pip install -e ".[torch,metrics]"` 后仍然无法识别 `llamafactory-cli` 命令,可能的原因包括但不限于以下几点:
- **未激活正确的虚拟环境**:确保已经切换到了之前创建的虚拟环境(如 `conda activate llama`)。否则,虽然安装成功,但路径未被正确加载[^3]。
- **PATH 环境变量缺失**:检查是否将脚本所在的 bin 目录添加进了系统的 PATH 变量中。一般情况下,Conda 自动处理这个问题,但如果手动更改过环境设置,则可能导致异常。
- **Entry Point 配置错误**:验证 `setup.py` 文件里的 `entry_points` 设置无误。如果有拼写或其他语法上的偏差,也可能阻止 CLI 正常注册[^4]。
解决办法之一是直接调用 Python 模块的方式测试功能是否正常运作:
```bash
python -m llama_factory.cli version
```
假如这种方法可行却依旧找不到全局命令的话,那么很可能是由于系统未能找到对应位置所致。
---
#### 5. 测试安装效果
最后,在一切准备就绪之后,可以分别尝试以下几个指令来检验整体状况是否良好:
- 查看版本信息:
```bash
llamafactory-cli version
```
- 启动 Web UI 接口服务:
```bash
llamafactory-cli webui
```
只要每步均能顺利响应预期输出数据即表明部署顺利完成!
---
###
阅读全文
相关推荐


















