dify中怎么添加ollama模型
时间: 2025-06-02 12:35:46 浏览: 5
### 如何在 Dify 中集成和使用 Ollama 模型
要在 Dify 中成功集成和使用 Ollama 模型,需按照以下方法操作:
#### 1. 安装并启动 Ollama
首先,在本地环境中安装 Ollama。可以通过官方文档获取详细的安装说明[^1]。完成后,验证 Ollama 是否正常工作,运行如下命令来测试模型加载情况:
```bash
ollama run mistral
```
如果一切顺利,则表明 Ollama 及其支持的模型已准备好供 Dify 调用。
---
#### 2. 配置 Dify 的环境变量
为了使 Dify 支持调用 Ollama 提供的服务,需要修改 Dify 的配置文件或者设置对应的环境变量。具体来说,添加 `OLLAMA_API_BASE` 来指定 Ollama 的服务地址,默认情况下为 `http://localhost:11434`[^2]。
以下是 Docker Compose 文件中的示例配置片段:
```yaml
services:
app:
image: ghcr.io/dify-community/dify:latest
environment:
- OLLAMA_API_BASE=http://host.docker.internal:11434 # 如果是在 Mac 或 Windows 上运行 Docker
- OLLAMA_API_BASE=http://localhost:11434 # 如果是在 Linux 上运行 Docker
```
保存更改后重新启动容器以应用新的配置。
---
#### 3. 登录至 Dify 控制台并启用 Ollama 模型
访问 Dify 的控制面板(默认地址为 `http://localhost:3000/`)。登录账户之后进入 **Settings** 页面下的 **Model Management** 部分[^3]。在此处新增一个外部模型连接器,并选择 “Ollama” 类型作为目标适配器。
填写必要的参数字段,比如名称、API 地址等信息。确认无误提交即可完成绑定过程。
---
#### 4. 创建基于 Ollama 的对话应用
返回到主界面创建一个新的应用程序实例。当被提示选择所使用的语言处理模块时,请挑选刚才已经关联成功的那个特定版本号的 Ollama 实体对象。这样就能确保新建立的应用程序能够充分利用来自选定的大规模预训练神经网络所带来的强大能力了!
一旦设定完毕,就可以开始尝试向这个全新的聊天机器人发送消息请求啦!它会依据背后驱动它的那款具体的算法架构来进行回复解答哦~
---
### 总结
通过以上步骤的操作指导,用户可以在自己的计算机设备上面顺利完成对于开源项目——Dify 平台上关于如何接入以及实际运用由另一项技术产品即名为‘Ollama’所提供的各类先进自然语言理解与生成解决方案的任务流程介绍[^2][^3]。
```python
print("Integration of Ollama into Dify is now complete!")
```
阅读全文
相关推荐


















