hugging face 下载模型到本地
时间: 2025-07-04 21:20:38 浏览: 18
要从 Hugging Face 下载模型到本地目录,可以使用 `huggingface_hub` 提供的命令行工具或 Python API。以下是几种常见的方法:
### 方法一:使用 `huggingface-cli` 命令行工具下载模型
通过 `huggingface-cli` 可以直接在终端中下载模型,并指定本地存储路径。
```bash
huggingface-cli download --cache-dir /path/to/local/directory model_name
```
- `/path/to/local/directory` 是你希望保存模型的本地目录。
- `model_name` 是你要下载的模型名称(例如 `bert-base-uncased`)。
如果网络不稳定,可以使用 `--resume-download` 参数进行断点续传 [^2]:
```bash
huggingface-cli download --cache-dir /path/to/local/directory --resume-download model_name
```
---
### 方法二:使用 Python 脚本下载模型并指定本地路径
可以通过编程方式加载模型并指定本地缓存路径,示例如下:
```python
from transformers import AutoModel, AutoTokenizer
model_name = "bert-base-uncased"
local_directory = "./local_model_directory"
# 加载模型和分词器
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name)
# 保存到本地目录
tokenizer.save_pretrained(local_directory)
model.save_pretrained(local_directory)
```
这段代码将模型下载后保存至指定的本地文件夹。如果模型已经下载过,后续运行会从本地加载。
---
### 方法三:加速下载(推荐)
对于大模型或数据集,推荐安装加速工具来提高下载速度。可以升级 `huggingface_hub` 并结合其他工具优化下载流程 [^1]:
```bash
pip install --upgrade huggingface_hub
```
此外,可使用第三方工具如 `aria2` 或 `Axel` 多线程下载模型文件,提高下载效率。
---
### 方法四:查看本地缓存模型信息
Hugging Face 默认将模型缓存于 `~/.cache/huggingface/hub/` 目录中。你可以手动删除某个模型缓存以便重新下载 [^2]:
```bash
rm -rf ~/.cache/huggingface/hub/models--username--model_name
```
替换 `username` 和 `model_name` 为实际用户名与模型名即可。
---
阅读全文
相关推荐


















