dify本地部署模型供应商
时间: 2025-04-05 11:19:33 浏览: 138
### Dify 本地部署支持的模型供应商列表
Dify 是一款强大的开发框架,能够与多种大型语言模型(LLMs)及其推理服务提供商无缝集成。以下是已知支持的模型供应商列表:
#### 开源模型供应商
- **Ollama**: Ollama 提供了一系列高性能的开源模型,如 Mistral 和 Llama 系列[^3]。
- **DeepSeek**: DeepSeek 的模型系列包括 `deepseek-r1` 等,可以通过特定的 API 配置接入[^4]。
#### 商业模型供应商
- **OpenAI**: 支持 GPT 系列模型,通过 OpenAI API 进行调用[^2]。
- **Anthropic**: 提供 Claude 系列模型,兼容性强。
- **Cohere**: Cohere 模型专注于自然语言处理任务,适合多场景应用。
- **Qwen (通义千问)**: 百度 Qwen 提供了丰富的中文语料支持,API 接口稳定可靠。
#### 自托管解决方案
除了上述商业和开源模型外,Dify 还允许用户通过自定义 API Endpoint 来连接任意与 OpenAI API 兼容的服务。这意味着只要目标模型提供类似的接口协议,都可以被纳入到 Dify 的工作流中。
---
### 示例配置说明
以下是一个典型的模型供应商配置示例,假设使用的是 Ollama:
```yaml
model_provider:
name: ollama
model_name: mistral
```
对于需要 API Key 认证的情况(如 Qwen),可以按照如下方式填写:
```yaml
model_provider:
name: qwen
api_key: YOUR_API_KEY_HERE
api_endpoint_url: https://qianfan.baidubce.com/v2
```
以上配置需根据实际使用的模型供应商调整参数。
---
阅读全文
相关推荐


















