deepseek容器化部署,浏览器访问
时间: 2025-03-04 07:49:50 浏览: 37
### DeepSeek 容器化部署教程
#### 一、启动 Ollama 平台
为了能够运行 DeepSeek 大模型,需先确保已成功安装并启动了 Ollama 平台环境。这通常涉及到 Docker 的预先设置与初始化工作[^1]。
```bash
docker pull ollama/ollama:latest
docker run -d --name=ollama -p 8080:8080 ollama/ollama:latest
```
上述命令用于拉取最新的 Ollama 镜像,并以后台模式启动该服务实例,同时映射主机端口至容器内部的服务端口以便后续访问操作。
#### 二、运行 DeepSeek 模型
针对特定版本的大规模预训练语言模型——`deepseek-r1:8b` 或者 `deepseek-r1:1.5b` ,可以通过如下指令来加载并激活它们:
对于较大参数量的 `deepseek-r1:8b` 版本:
```bash
ollama run deepseek-r1:8b
```
而对于较小尺寸但同样具备高效性能表现力的 `deepseek-r1:1.5b` 则只需简单输入以下语句即可完成调用过程[^2]:
```bash
ollama run deepseek-r1:1.5b
```
#### 三、验证模型状态
一旦模型被正确启动之后,则可通过简单的 API 请求测试其健康状况及响应速度等指标。一般情况下会提供一个简易接口供开发者快速检验当前所处的工作节点是否正常运作。
例如可以尝试向 `/v1/models/deepseek-r1:8b/ping` 发送 GET 方法请求查看返回结果中的消息字段是否显示为 `"OK"` 来判断目标实例的状态良好与否。
#### 四、开放 WebUI 访问权限
为了让用户更加便捷直观地管理和监控正在运行中的 DeepSeek 实例,官方还提供了图形界面化的管理工具即所谓的 WebUI 功能模块。要开启这项特性只需要额外指定一些必要的配置项给到之前创建好的 Ollama 容器之中去实现就可以了。
具体来说就是在原有基础上追加 `-e ENABLE_WEBUI=true` 参数选项从而允许外部设备经由网络连接方式进入可视化控制面板页面进行交互式体验:
```bash
docker stop ollama && docker rm ollama
docker run -d --name=ollama \
-p 8080:8080 \
-e ENABLE_WEBUI=true \
ollama/ollama:latest
```
此时应当能够在任意支持 HTML5 浏览器内通过访问 http://localhost:8080 地址获取到完整的前端展示效果了。
阅读全文
相关推荐


















