dify ollama Embedding 模型部署
时间: 2025-02-08 09:12:04 浏览: 242
### Dify 和 Ollama Embedding 模型部署指南
#### 配置环境准备
确保已经成功安装并配置好 Ollama 服务。由于 Ollama 默认仅监听 `127.0.0.1` 地址,当通过 Docker 运行的 Dify 尝试访问时会遇到网络不通的问题。因此,在开始之前需调整 Ollama 的启动参数使其能够被外部容器访问。
对于 Linux 系统而言,这通常涉及到编辑 `/etc/systemd/system/ollama.service` 文件中的 `[Service]` 节点下的 ExecStart 行命令来指定绑定 IP 或者允许所有接口接收请求[^4]。
#### 修改 Ollama 启动配置
找到 Ollama 服务对应的 systemd 配置文件路径,并对其进行如下修改:
```bash
sudo nano /etc/systemd/system/ollama.service
```
在 `ExecStart=` 参数后面追加 `-H 0.0.0.0:11434` 来让其监听所有可用网卡上的该端口。保存更改后执行以下指令使改动生效:
```bash
sudo systemctl daemon-reload && sudo systemctl restart ollama
```
#### 添加模型至 Dify 平台
完成上述操作之后就可以前往 Dify 控制面板进行下一步设置了。进入“设置 -> 模型供应商”,从中挑选 “Ollama”。
点击页面内的“添加模型”按钮,在弹出窗口内输入所要集成的具体模型名以及相应的基础 URL (`http://<服务器公网IP>:11434`) 。这里特别需要注意的是,“Text Embedding”的选项是用来支持基于向量的知识检索功能[^3]。
#### 测试连接稳定性
最后一步是验证两者之间能否正常通信。可以通过调用 API 接口测试或者直接利用 Dify 提供的功能模块来进行简单的查询尝试,观察返回的结果是否符合预期。
以上就是关于如何将 Ollama 文本嵌入模型集成到 Dify 应用程序中的全部流程介绍。
阅读全文
相关推荐


















