dify创建模型供应商
时间: 2025-06-14 20:14:14 浏览: 19
<think>好的,用户询问如何在Dify平台上创建和管理模型供应商。我需要结合提供的引用内容来解答。首先,根据引用[1],在「模型供应商」顶部可以找到已配置的模型,例如Ollama DeepSeek,并提到如何添加其他模型。这应该涉及到进入模型供应商管理界面,进行添加操作。引用[2]提到本地部署Dify和使用Ollama部署模型,之后在Dify中接入这些模型,说明添加模型供应商可能需要配置API端点等信息。引用[3]中的示例展示了填写模型名称、API key和API endpoint URL的具体步骤,比如使用百度千帆的端点。
接下来需要整理步骤:首先进入Dify的模型供应商管理界面,然后创建新供应商,填写名称、API密钥和端点URL。可能还需要安装模型包,如引用[1]中的Ollama pull命令。同时,用户可能需要配置网络设置,如引用[2]提到的公网访问,确保模型供应商的可访问性。最后,测试连接是否成功,并管理已有的供应商,比如更新或删除。
需要注意用户可能不熟悉技术细节,所以步骤要简明,并提醒注意事项,如API密钥的保密和网络配置。可能还需要区分不同类型的模型,如LLM和嵌入模型,如引用[1]中的生成嵌入模型shaw/dmeta-embedding-zh。确保覆盖所有必要步骤,帮助用户顺利创建和管理模型供应商。</think>以下是在Dify平台上创建和管理模型供应商的详细步骤:
### 一、创建模型供应商
1. **进入模型管理界面**
- 登录Dify控制台后,点击顶部导航栏的「模型供应商」模块[^1]
- 在模型卡片区域点击「添加模型供应商」按钮
2. **配置基础信息**
```python
# 示例配置参数
模型名称 = "DeepSeek-R1" # 自定义标识名称
API密钥 = "sk-xxxxxxxxxxxxxxxx" # 从模型服务商获取
端点URL = "https://qianfan.baidubce.com/v2" # 不同服务商提供不同地址[^3]
```
3. **部署模型依赖(可选)**
- 对需要本地部署的模型(如Ollama),执行:
```bash
ollama pull deepseek-r1:7b # 拉取指定版本的模型包[^1]
```
### 二、管理已配置供应商
1. **多模型支持**
- 在已创建的供应商卡片内展开「模型列表」
- 支持添加同系列不同规格模型(如7B/32B参数版本)
2. **访问配置**
- 公网访问需配置反向代理:
```nginx
location /v1/chat/completions {
proxy_pass http://localhost:11434;
}
```
参考远程连接配置文档[^2]
3. **密钥轮换**
- 点击供应商卡片右上角菜单
- 选择「更新密钥」可替换失效凭证
### 三、特殊模型配置
1. **嵌入模型部署**
```bash
ollama pull shaw/dmeta-embedding-zh:latest # 中文嵌入模型安装
```
2. **多模态扩展**
- 在「模型能力」选项中勾选支持的功能类型(文本/图像/语音)
阅读全文
相关推荐


















