dify本地部署教程接入ollama
时间: 2025-02-20 08:39:45 浏览: 264
### Dify 本地部署教程及接入 Ollama 指南
#### 一、环境准备
为了成功完成Dify的本地部署以及与Ollama的集成,需先准备好相应的运行环境。确保安装有Python解释器及其依赖包管理工具pip,并配置好虚拟环境来隔离项目所需的软件包版本。
对于Windows和Linux操作系统而言,可以参考具体的ollama部署教程[^1]来进行初步设置工作,这其中包括但不限于安装必要的开发工具链和服务组件。
#### 二、获取并启动Dify服务端程序
下载官方发布的最新版Dify源码或预编译好的二进制文件后,在命令行界面进入解压后的目录执行如下操作:
```bash
# 安装依赖项
pip install -r requirements.txt
# 启动服务器,默认监听于0.0.0.0:8000
uvicorn main:app --host 0.0.0.0 --port 8000
```
此时应该能够通过浏览器访问`http://localhost:8000/docs`查看到Swagger UI文档页面,表明API网关已正常运作。
#### 三、配置连接至Ollama实例
前往Dify后台管理系统中的“设置>模型供应商”,新增一条记录指定自定义接口的信息:
- **Endpoint**: `http://<your_ollama_ip>:11434/v1`
- **API Key**: 使用由Ollama分配的有效密钥字符串代替默认值`ollama`
- **Model Mapping**:
- `dify_model_name`: deepseek-r1-local
- `api_model_name`: deepseek-r1:14b
保存更改之后即可让两个平台之间建立通信桥梁,从而实现在Dify内部调用远端训练的大规模语言模型进行推理计算等功能[^3]。
#### 四、验证连通性和功能测试
最后一步是要确认整个系统的稳定性和可用性。可以通过编写简单的客户端脚本向新搭建的服务发送请求,观察返回的结果是否符合预期;也可以利用Postman这类图形化HTTP调试工具辅助完成这一过程。
例如,下面给出了一段基于Python的标准库requests发起GET请求的例子:
```python
import requests
url = "http://localhost:8000/api/predict"
headers = {"Authorization": f"Bearer {YOUR_API_KEY}"}
data = {
"prompt": "你好啊",
}
response = requests.post(url, headers=headers, json=data)
print(response.json())
```
以上就是有关如何在本地环境中架设Dify服务平台并与之配套使用的Ollama大型预训练模型相联接的一系列指导说明[^2]。
阅读全文
相关推荐


















