comfyui 模型加载
时间: 2025-02-08 17:09:59 浏览: 208
### 如何在 ComfyUI 中加载模型
为了成功在 ComfyUI 中加载模型,确保环境配置正确以及网络连接正常至关重要。
#### 配置文件设置
对于特定路径的自定义配置,在 `ComfyUI_windows_portable/ComfyUI` 目录下存在名为 `extra_model_paths.yaml.example` 的模板文件。此文件需被重命名为 `extra_model_paths.yaml` 以便生效[^1]。通过编辑该 YAML 文件可以指定额外的模型存储位置,从而简化不同模型之间的切换操作。
#### 处理无法访问 Hugging Face 模型库的情况
当遇到错误提示 “We couldn't connect to 'https://huggingface.co'”,这通常意味着程序尝试从互联网下载所需资源失败了[^2]。解决方法包括:
- **检查网络状况**:确认设备能够稳定接入公共网络并能打开网页浏览器测试是否可浏览 huggingface 官网。
- **离线模式支持**:如果确实处于无网环境下,则应按照官方文档指引启用本地部署方式来运行 Transformers 库中的功能模块[^3]。具体做法是在项目根目录创建 `.env` 文件,并加入如下内容以禁用自动在线查找依赖项的行为:
```bash
TRANSFORMERS_OFFLINE=1
```
#### 加载预训练模型实例
假设已经获取到了目标模型的相关权重文件(如 .bin 或 .pt),则可通过 Python 脚本形式调用 transformers 库完成加载过程。下面给出一段简单的代码片段用于示范如何读取本地存在的 Blip 图像字幕生成器模型结构及其参数值:
```python
from transformers import AutoModelForVision2Seq, AutoProcessor
processor = AutoProcessor.from_pretrained("./path_to_local_blip_directory", local_files_only=True)
model = AutoModelForVision2Seq.from_pretrained("./path_to_local_blip_directory", local_files_only=True)
# 测试输入图片处理流程
image_url = "http://images.cocodataset.org/val2017/000000039769.jpg"
inputs = processor(images=image_url, return_tensors="pt")
outputs = model.generate(**inputs)
print(processor.decode(outputs[0], skip_special_tokens=True))
```
上述脚本中指定了 `local_files_only=True` 参数选项,指示仅限于使用已存在于本地磁盘上的数据而不再次发起远程请求。
阅读全文
相关推荐


















