dify部署本地deepseek
时间: 2025-05-24 11:52:33 浏览: 5
### 如何在本地部署 Dify 和 DeepSeek 模型
#### 安装和配置 Ollama
为了在本地环境中使用 DeepSeek 模型,首先需要安装 Ollama 并设置其运行环境。Ollama 是一个轻量级工具,用于管理和运行大型语言模型。以下是具体的操作步骤:
- **MacOS 用户**
将 `/your/custom/path` 替换为实际路径,例如 `/Users/yourusername/models`[^1]。完成替换后,确保该目录具有写入权限以便存储下载的模型文件。
- **Windows 用户**
对于 Windows 系统,可以参考类似的流程来安装 Ollama,并通过 PowerShell 或 CMD 设置相应的环境变量[^2]。
#### 下载 DeepSeek 模型
根据硬件性能选择适合的 DeepSeek 模型版本。对于较低配置的设备推荐 `deepseek-r1:1.5b`,而对于高性能机器则可以选择更大的模型如 `deepseek-r1:14b` 或 `deepseek-r1:32b`[^1]。
执行以下命令以下载所需模型:
```bash
ollama run deepseek-r1:1.5b
```
此过程可能耗时较长,取决于网络速度以及所选模型大小。
#### 配置 Dify 应用程序
Dify 提供了一个直观界面让用户轻松集成各种 LLMs 到自己的项目当中去。下面是如何将刚刚加载好的 DeepSeek 模型连接至 Dify 的方法说明:
1. 登录到 Dify 主页并新建一个空白应用程序实例;
2. 命名新创建出来的对话机器人及其简介文字内容之后提交确认表单;
3. 默认情况下初始绑定的是云端 API 接口而非刚才准备完毕的那个本地版解决方案——所以得手动更改默认选项才行:点击页面顶部附近区域里的那个下拉菜单列表控件(位于“发布”按键旁边),从中挑选已经存在于当前主机上的 Ollama 所托管的服务项作为目标替代品。
最后一步完成后就可以尝试发起简单的提问比如询问对方身份之类的简单语句来进行初步验证工作了。“你是谁?”应该得到合理回复的话就表明整个搭建环节顺利完成啦!
#### Docker 方式快速部署 (适用于 Linux Ubuntu 22.04)
如果偏好采用容器化技术实现自动化运维管理目的的话,则还可以考虑利用官方镜像资源配合 docker-compose 工具一键搞定全部依赖关系处理事务从而进一步简化整体实施难度水平达到事半功倍的效果哦[^3]!
---
阅读全文
相关推荐



















