ollama和Open WebUI
时间: 2025-02-24 17:30:09 浏览: 85
### Ollama 和 Open WebUI 的集成与使用教程
#### 1. 安装准备
为了使 Ollama 平台能够顺利运行并配合 Open WebUI 使用,需先安装必要的依赖环境。对于 Linux 系统而言,在具备 GPU 或 CPU 支持的情况下,推荐采用 Docker 方式部署整个项目[^2]。
```bash
sudo apt-get update && sudo apt-get install -y docker.io
```
确保已成功启动 Docker 服务:
```bash
sudo systemctl start docker
```
#### 2. 获取镜像文件
从官方仓库拉取最新的 Ollama 镜像版本,并加载至本地环境中以便后续操作。
```bash
docker pull ollama/ollama:latest
```
#### 3. 启动容器实例
创建一个新的容器实例用于承载 Ollama 应用程序及其关联组件(如数据库等),并将端口映射到主机上方便访问。
```bash
docker run --name=ollama-app -p 8080:8080 -d ollama/ollama:latest
```
此时可以通过浏览器访问 `http://localhost:8080` 查看默认页面是否正常显示。
#### 4. 配置 Open WebUI
下载最新版的 Open WebUI 压缩包解压后放置于指定目录下;编辑配置文件以适配当前系统的具体设置情况,特别是 API 地址部分应指向之前搭建完成的服务地址。
假设已经克隆了 GitHub 上面的 Open WebUI 项目,则可以直接进入该路径执行如下命令进行初始化安装:
```bash
cd /path/to/open-webui
npm install
```
修改 `/config/default.json` 文件中的 `"apiUrl"` 字段为刚才启动好的 Ollama 实例 URL:
```json
{
"apiUrl": "http://localhost:8080/api"
}
```
#### 5. 运行前端应用
最后一步就是让这个图形化界面跑起来啦!只需简单输入几条指令就能搞定一切:
```bash
npm run dev
```
现在应该可以在同一网络下的任意设备打开网页查看效果咯~ 访问 http://<your_server_ip>:3000 即可看到熟悉的登录界面[^1]。
---
阅读全文
相关推荐


















