Mac LLaMA-Factory
时间: 2025-07-08 18:47:02 浏览: 3
在 Mac 上安装和使用 LLaMA-Factory 的过程与 Linux 环境相似,主要涉及 Git、Conda 和 pip 的操作。以下是一个详细的指南:
### 安装步骤
1. **克隆仓库**
使用 `git clone` 命令从 GitHub 克隆 LLaMA-Factory 项目到本地:
```bash
git clone https://github.com/hiyouga/LLaMA-Factory.git
```
2. **创建 Conda 虚拟环境**
推荐使用 Conda 创建独立的 Python 环境,避免依赖冲突。例如:
```bash
conda create -n llama_factory python=3.10
```
激活该虚拟环境:
```bash
conda activate llama_factory
```
3. **进入项目目录**
切换至 LLaMA-Factory 项目根目录:
```bash
cd LLaMA-Factory
```
4. **安装依赖项**
可以通过指定国内镜像来加速依赖的下载。推荐使用清华大学提供的 PyPI 镜像源:
```bash
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -e .[metrics]
```
如果需要额外的功能(如模型量化、LoRA 微调等),可以安装可选依赖项:
```bash
pip install deepspeed metrics unsloth galore vllm bitsandbytes gptq awq qlm qwen quality
```
5. **验证安装**
安装完成后,可以通过运行测试脚本或启动可视化界面 LLaMA Board 来确认是否成功:
```bash
llamafactory-cli webui
```
### 使用 LLaMA-Factory 进行微调
1. **准备数据集**
在进行模型微调前,需要准备好训练数据,并将其整理为 LLaMA-Factory 支持的格式。
2. **配置微调参数**
修改配置文件(如 YAML 文件)以适应你的任务需求。例如:
```yaml
model_name_or_path: /path/to/base/model
output_dir: /path/to/save/models
num_train_epochs: 3
per_device_train_batch_size: 4
learning_rate: 3e-4
save_steps: 1000
logging_steps: 100
```
3. **启动训练任务**
使用 CLI 工具启动训练:
```bash
llamafactory-cli train --config_file examples/train/your_config.yaml
```
4. **导出 LoRA 模型**
如果使用了 LoRA 微调技术,可以在训练完成后将适配器权重合并到基础模型中:
```bash
CUDA_VISIBLE_DEVICES=0 llamafactory-cli export \
--model_name_or_path /path/to/base/model \
--adapter_name_or_path /path/to/lora/checkpoint \
--finetuning_type lora \
--export_dir /path/to/exported/model
```
### 注意事项
- **硬件要求**:LLaMA-Factory 支持 CPU 和 GPU 训练,但在 Mac 上如果没有搭载合适的 GPU(如 Apple Silicon M 系列芯片支持 Metal Performance Shaders),可能只能使用 CPU 进行小规模实验。
- **性能优化**:如果使用 Apple Silicon 芯片(M1/M2),建议安装适用于 macOS 的 MPS 版本 PyTorch 以获得更好的性能[^1]。
- **社区资源**:可以参考相关博文获取更多关于 LLaMA-Factory 的部署和微调经验,例如 Ubuntu 上的详细教程以及 Qwen3 的微调实战指南[^2][^3]。
---
阅读全文
相关推荐

















