如何下载huggingface上的模型
时间: 2025-03-04 11:57:23 浏览: 91
### 如何从 Hugging Face 下载模型
为了成功下载来自 Hugging Face 的模型,需先确保环境已准备好必要的依赖项[^1]。
#### 安装必要依赖
首先,在终端或命令提示符下运行以下 Python 命令来安装 `transformers` 和 `datasets` 库:
```bash
pip install transformers datasets
```
这一步骤会自动处理所有必需的依赖关系并完成安装过程。
#### 使用命令行工具下载模型
对于特定模型如 MaskGCT ,如果遇到缓存问题或其他异常情况,可尝试清理旧版本文件再重新下载。具体操作如下所示:
删除现有缓存中的指定模型数据:
```bash
rm -rf ~/.cache/huggingface/hub/models--amphion--MaskGCT
```
接着利用官方提供的 CLI 工具执行带断点续传功能的下载指令:
```bash
huggingface-cli download --resume-download amphion/MaskGCT
```
上述方法适用于解决因网络波动等原因造成的中途失败情形下的恢复性下载需求[^2]。
#### 加载本地或远程模型至Python脚本中
除了直接通过CLI获取外,还可以借助于 Python API 实现更灵活的应用场景集成。下面给出一段简单的代码片段用于加载预训练好的 BERT 模型实例:
```python
from transformers import BertModel, BertTokenizer
model_name = 'bert-base-uncased'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertModel.from_pretrained(model_name)
text = "Replace me by any text you'd like."
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
print(output)
```
此段程序展示了如何快速上手使用 Hugging Face 提供的各种 NLP 预训练模型及其配套组件。
阅读全文
相关推荐
















