deepseek openwebui
时间: 2025-02-13 11:14:34 浏览: 93
### DeepSeek OpenWebUI 使用指南
#### 安装验证
为了确认已正确下载并准备就绪,可以执行命令 `ollama list` 来查看当前可用的模型列表。如果一切正常,应当能看到 `deepseek-r1:latest` 出现在返回的结果之中[^2]。
#### 启动交互式会话
对于希望直接通过命令行与 AI 进行交流的情况,可以通过输入 `ollama run deepseek-r1` 开启一次交互式的聊天体验。这允许用户实时发送提示词给模型,并接收其响应。
#### 利用API接口测试
另一种方式则是采用 HTTP 请求的形式来调用 API 接口进行调试。具体来说,在新的终端窗口里运行如下 cURL 命令:
```bash
curl http://localhost:11434/api/generate -d '{"model":"deepseek-r1","prompt":"用python写快速排序"}'
```
此操作将会向指定端点提交请求,其中包含了所选模型名称以及想要获取的回答或生成的内容作为参数传递过去。
#### 部署图形界面管理工具——OpenWebUI
为了让管理和监控更加直观便捷,建议利用 Docker 快速搭建起 OpenWebUI 服务环境。只需按照下面给出的一键启动脚本即可完成部署工作:
```dockerfile
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
--name openwebui \
--restart always \
ghcr.io/open-webui/open-webui:main
```
之后便可通过浏览器访问位于 `http://localhost:3000` 上线的应用程序页面来进行后续的操作设置和维护活动了。
#### WebUI配置实战技巧
当进入 OpenWebUI 控制面板后,可以根据实际需求调整各项参数选项,比如修改默认使用的模型版本、设定自定义指令集等。这些个性化定制能够帮助更好地适配不同的应用场景,提高工作效率和服务质量。
阅读全文
相关推荐


















