windwos安装Open WebUI+ollamam
时间: 2025-04-01 14:13:10 浏览: 44
### 安装 Open WebUI 和 Ollama 的步骤
#### 准备工作
为了在 Windows 上成功安装并运行 Open WebUI 和 Ollama,需要确保系统满足以下条件:
- 已安装 Docker Desktop 并启用 WSL 2 支持[^3]。
- 系统已配置好网络环境以便容器间通信。
---
#### 安装 Open WebUI
以下是基于 Docker 在 Windows 上安装 Open WebUI 的具体方法:
1. **启动 Docker Desktop**
打开 Docker Desktop 应用程序,并确认其正在运行。
2. **拉取 Open WebUI 镜像**
使用命令行工具(如 PowerShell 或 CMD),执行以下命令来下载官方镜像:
```bash
docker pull ghcr.io/open-webui/open-webui:main
```
3. **运行 Open WebUI 容器**
创建一个新的容器实例并将端口映射到主机上的 `3000` 端口。同时设置数据卷用于持久化存储以及允许跨宿主通信:
```bash
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
```
这条命令的作用如下:
- `-d`: 后台运行容器。
- `-p 3000:8080`: 将容器内的 `8080` 端口映射到主机的 `3000` 端口。
- `--add-host=host.docker.internal:host-gateway`: 添加主机解析以支持本地服务间的连接。
- `-v open-webui:/app/backend/data`: 数据挂载路径,便于保存用户配置文件和其他重要资料。
- `--name open-webui`: 设置容器名称为 `open-webui`。
- `--restart always`: 自动重启策略,在意外关闭后自动恢复运行状态。
4. **访问 Open WebUI 图形界面**
浏览器输入地址 `http://localhost:3000` 即可进入初始页面。首次加载时需完成简单的注册流程,创建管理员账户。
---
#### 配置 Ollama
由于默认情况下 Open WebUI 不会自带任何 LLM 模型选项,因此还需要额外集成 Ollama 来提供这些资源。
1. **安装 Ollama CLI 工具**
下载适用于 Windows 的最新版本二进制包,并将其解压至任意目录。接着将该目录加入系统的 PATH 变量中以便全局调用。
2. **验证安装情况**
输入以下指令测试是否正常运作:
```bash
ollama version
```
3. **下载所需模型**
利用 Ollama 提供的功能获取目标预训练权重集。例如:
```bash
ollama pull llama2
```
4. **调整环境变量**
如果希望从 Open WebUI 中无缝对接 Ollama,则可能涉及修改某些高级参数或者新增特定键值对。对于 Windows 用户来说,建议手动编辑系统属性里的「高级」部分下的新项名设为 `OLLAMA_URL` 而对应的值则指向实际监听位置比如 `http://127.0.0.1:11434/`.
5. **重新加载应用**
返回前端刷新当前视图从而发现新的可用选项卡列出了刚才所添加的内容。
---
#### 总结说明
至此已完成整个搭建过程,现在可以借助直观的操作面板轻松管理各类复杂的自然语言处理任务而无需担心隐私泄露等问题因为一切都是封闭环境下独立完成的[^1][^2].
```python
print("Open WebUI and Ollama are now successfully installed on your local machine.")
```
阅读全文
相关推荐


















