云服务器设置huggingface镜像
时间: 2025-05-04 16:43:16 浏览: 47
### 如何在云服务器中设置 Hugging Face 模型镜像站点
为了在云服务器上配置 Hugging Face 的模型镜像站点,可以利用 `hf-mirror.com` 提供的服务来实现更高效的下载体验。具体操作可以通过调整环境变量或修改加载逻辑完成。
#### 方法一:通过环境变量设置缓存路径
可以在运行环境中设置 `TRANSFORMERS_CACHE` 和 `HF_DATASETS_CACHE` 变量指向本地存储位置,从而间接使用镜像站点的数据。例如:
```bash
export TRANSFORMERS_CACHE=/path/to/local/cache
export HF_DATASETS_CACHE=/path/to/local/dataset_cache
```
当调用 Hugging Face 库中的函数(如 `AutoModel.from_pretrained()` 或 `load_dataset()`)时,这些库会自动检测并优先从指定的缓存目录加载资源[^1]。
#### 方法二:手动替换 URL 地址
如果希望完全绕过官方地址而直接依赖于镜像站点,则可以直接更改默认的远程仓库链接至 hf-mirror.com。以下是一个 Python 脚本示例展示如何动态重写模型加载源:
```python
from transformers import AutoTokenizer, AutoModelForSequenceClassification
model_name = "bert-base-uncased"
mirror_url = f"https://hf-mirror.com/{model_name.replace('/', '--')}"
tokenizer = AutoTokenizer.from_pretrained(mirror_url)
model = AutoModelForSequenceClassification.from_pretrained(mirror_url)
```
此脚本将原本由 huggingface.co 承载的内容请求转向到 hf-mirror.com 上对应的副本文件夹结构下获取所需预训练权重参数集合[^2]。
#### 注意事项
- 需要确认所使用的云服务商允许外部互联网访问以及是否有额外防火墙策略影响正常通信。
- 对于大规模生产环境下建议定期同步最新版本以防因时间差造成功能缺失或者安全漏洞风险增加的情况发生。
阅读全文
相关推荐

















