ollama本地部署openwebui
时间: 2025-02-09 10:09:27 浏览: 80
### 部署Ollama OpenWebUI于本地环境
#### 准备工作
确保计算机已安装必要的软件包,包括但不限于Docker及其相关组件。对于Windows操作系统而言,建议采用WSL2作为Linux子系统的支持来增强兼容性和性能。
#### 获取OpenWebUI镜像
拉取官方提供的OpenWebUI项目镜像是开始部署的第一步。这一步骤可以通过执行如下命令完成:
```bash
docker pull openwebui/image_name:tag
```
#### 启动容器并映射端口
为了使OpenWebUI能够在指定的3000端口上提供服务,在启动Docker容器时需设置好相应的参数以暴露该端口给主机使用[^2]。具体操作可参照下面给出的例子:
```bash
docker run -d -p 3000:3000 --name=openwebui_container_name openwebui/image_name:tag
```
#### 访问Web界面
一旦上述配置无误且容器成功启动之后,则意味着OpenWebUI已经在本地监听着3000号端口了。此时只需打开任意一款现代网页浏览器,并在其地址栏输入`http://localhost:3000`即可加载出对应的图形化管理页面[^1]。
#### 运行大语言模型
除了通过图形界面对接外部API外,还可以利用命令行工具直接调用已经部署好的大型预训练模型来进行对话交流等活动。例如,可以尝试运行名为`Deepseek_R1`的语言处理单元,只需要简单地键入以下指令就能达成目的:
```bash
ollama run Deepseek_R1
```
阅读全文
相关推荐


















