Page Assist - 本地 AI 模型(deepseek)的 Web UI Page Assist - 本地 AI 模型(deepseek)的 Web UI
时间: 2025-03-02 11:09:46 浏览: 173
### 如何使用 DeepSeek 本地 AI 模型的 Web UI
#### 准备环境
为了在本地环境中成功运行 DeepSeek 并通过 WebUI 进行调用,需先准备好必要的软件和硬件条件。这包括但不限于安装 Docker 和配置好网络设置以确保可以顺利拉取镜像和服务之间的通信正常[^1]。
#### 配置 Open-WebUI
创建 `open-webui` 文件夹用于存放项目文件,在此目录下新建名为 `docker-compose.yml` 的文件来定义服务参数。具体的服务描述应包含所使用的镜像地址、容器名称设定、挂载卷路径指定以及端口映射等重要信息:
```yaml
services:
open-webui:
image: ghcr.io/open-webui/open-webui
container_name: open-webui
volumes:
- ./open-webui:/app/backend/data
ports:
- "3000:8080"
environment:
- OLLAMA_BASE_URL=http://<your_ollama_ip>:<port>
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always
```
注意替换 `<your_ollama_ip>` 及其对应的端口号为实际 IP 地址与端口值[^3]。
#### 启动服务
完成上述配置之后,可以通过命令行执行 `docker-compose up -d` 来后台启动所有已定义的服务实例。此时应该能够看到日志输出表明各个组件正在初始化并准备就绪。
#### 初次访问与管理账户建立
当一切正常运作后,打开浏览器输入 URL `http://localhost:3000`(假设是在本机操作),按照页面指引完成初次加载过程中的向导步骤——通常涉及创建超级管理员账号等工作。一旦注册完毕即可凭借新设用户名密码登入系统控制面板。
#### 使用说明
登录后的界面上提供了多种功能选项供用户探索 DeepSeek 功能特性;比如上传文档资料给模型处理分析或是直接键入查询请求获取即时反馈等等。对于开发者而言,则可进一步研究 API 文档实现更深层次的应用集成[^2]。
阅读全文
相关推荐


















