给本地部署dify添加模型
时间: 2025-03-17 12:16:23 浏览: 414
### 如何在本地部署的 Dify 中添加自定义模型
要在本地部署的 Dify 中添加自定义模型,可以通过配置文件以及设置环境变量来实现。以下是具体方法:
#### 配置 Ollama 模型供应商
为了使 Dify 能够访问 Ollama 提供的模型,在 Dify 的后台管理界面中需要完成相应的配置操作。进入 **设置 > 模型供应商 > Ollama** 页面,并按照提示填写必要的连接信息[^1]。
#### 添加环境变量支持 Ollama API 地址
除了通过图形化界面进行基础配置外,还需要修改运行环境中的一些参数以便更好地适配特定需求。可以在启动服务前或者更新现有的 `.env` 文件里加入如下几行代码片段以激活自定义功能并指向正确的 ollama 服务器位置[^2]:
```bash
CUSTOM_MODEL_ENABLED=true
OLLAMA_API_BASE_URL=host.docker.internal:11434
```
上述命令中的 `CUSTOM_MODEL_ENABLED=true` 表明启用了客户化的模型选项;而 `OLLAMA_API_BASE_URL=host.docker.internal:11434` 则明确了 ollama 所处的服务端口地址。
#### 参考官方文档执行完整的 Docker Compose 安装流程
对于希望采用容器技术简化安装过程的用户来说,遵循由 Dify 官方提供的指南将是最佳实践之一。这不仅涵盖了基本系统的搭建还涉及到了后续可能遇到的各种扩展场景说明。具体的步骤可查阅链接 https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose ,其中包含了关于 windows 平台下的特别注意事项等内容[^3]。
通过以上三个方面的调整就可以成功地让本地版 Dify 支持来自第三方插件形式的新颖算法框架啦!
阅读全文
相关推荐

















