docker部署deepseek让局域网设备访问
时间: 2025-03-03 14:38:58 浏览: 86
### 局域网中通过Docker部署DeepSeek
为了实现在局域网内部署 DeepSeek 并让多个设备可以访问,需遵循一系列特定的操作流程。
确保系统的 Docker 已经安装并正确配置。这一步骤可通过执行 `docker --version` 命令来确认 Docker 的存在及其版本信息[^1]。对于网络环境的要求是保持稳定连接状态,这对于下载必要的镜像和模型至关重要。
针对 Ollama Docker 镜像的获取,应使用如下命令进行拉取操作:
```bash
docker pull ollama/deepseek:latest
```
创建容器时指定端口映射参数 `-p` ,使得外部流量能被导向到该应用的服务端口上。假设 DeepSeek 默认监听的是8080端口,则启动指令可写作:
```bash
docker run -d -p 8080:8080 --name deepseek_container ollama/deepseek:latest
```
为了让局域网内的其他机器也能顺利访问此服务,在防火墙设置方面要允许上述选定端口号的数据包传入,并且如果是在 Windows 主机上运行的话,还需调整其内置防火墙策略以开放对应端口给 LAN 中的信任设备[^2]。
最后值得注意的一点在于,当首次成功安装好 ollama 后仅需简单一条命令便足以完成整个部署过程[^3]。
相关问题
企业级部署DeepSeek,搭建局域网Web UI
### 企业级部署 DeepSeek 并搭建局域网 Web UI 教程
#### 部署准备
为了成功在企业环境中部署 DeepSeek 并配置局域网内的 Web 用户界面(Web UI),需先确认环境满足最低硬件和软件需求。确保服务器操作系统支持 Docker 和 Docker Compose 的安装,因为这些工具对于简化 AI 模型的容器化部署至关重要[^1]。
#### 安装依赖项
通过命令行执行必要的包管理器指令来安装所需的依赖组件。这通常涉及更新现有的包列表并安装最新版本的 Docker 及其扩展功能 Docker Compose:
```bash
sudo apt-get update && sudo apt-get install docker.io docker-compose -y
```
#### 获取 DeepSeek 资源文件
从官方渠道下载最新的 DeepSeek 发布版资源文件。此过程可能涉及到克隆 GitHub 上托管的相关仓库或是直接下载压缩包形式发布的二进制文件。按照官方文档指引完成这一操作步骤。
#### 启动服务
利用预先准备好的 `docker-compose.yml` 文件启动所需的服务实例。该文件定义了运行时所必需的各项参数和服务之间的交互逻辑。下面是一个简单的例子用于说明如何创建这样一个 YAML 文件以及怎样调用它来初始化整个系统:
```yaml
version: '3'
services:
deepseek-webui:
image: deepseek/webui:latest
ports:
- "8080:80"
networks:
- internal_network
networks:
internal_network:
```
保存上述内容至名为 `docker-compose.yml` 的文本文件中,并在同一目录下打开终端窗口输入如下命令以激活所有指定的服务:
```bash
docker-compose up -d
```
此时应该可以在浏览器地址栏里键入 http://localhost:8080 来访问新建立起来的企业内部专用 DeepSeek Web UI 页面。
#### 开放局域网访问 API 服务
为了让其他设备能够跨网络边界请求数据处理任务的结果,在防火墙设置允许外部 IP 地址连接的同时还需要调整应用层的安全策略以便让特定端口对外开放。具体做法可以参照 Windows Server 或 Linux 系统自带的防火墙管理工具来进行相应配置;另外也可以考虑采用第三方安全解决方案增强防护级别[^2]。
局域网部署deepseek
### 局域网环境下的 DeepSeek 部署指南
#### 1. 准备工作
为了在局域网环境中成功部署 DeepSeek,需准备如下组件:
- 支持 Docker 的 Linux 或 Windows Server 系统作为主机。
- 安装好 Docker 和 Docker Compose 工具。
#### 2. 获取 DeepSeek 资源包
从官方渠道下载适用于目标平台版本的 DeepSeek 发行版压缩文件,并解压至指定目录下[^1]。
#### 3. 修改配置文件适应内网需求
针对特定应用场景调整 `docker-compose.yml` 文件内的服务参数设置。对于仅限内部访问的情况,应确保所有对外暴露端口都映射到私有IP段范围内的地址上;同时关闭不必要的外部网络连接选项以保障安全性[^2]。
#### 4. 设置 Ollama 模型
创建 Ollama 模型配置文件用于定制化对话体验。此过程涉及定义模板字符串来控制输入输出格式,以及设定诸如温度系数 (temperature)、截断概率阈值(top_p)等超参调节生成质量。
```yaml
FROM ./deepseek-r1-7b-chat-q4_k_m.gguf
TEMPLATE """
{{- if .System }}
<|system|>{{.System}}</s>
{{end -}}
<|user|>{{.Prompt}}</s>
<|assistant|>"""
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
PARAMETER num_ctx 4096
ADAPTER ./ollama-deepseek/tokenizer
```
#### 5. 启动容器集群
通过命令行执行启动脚本,在后台运行所需的服务实例集合。此时应注意监控日志输出确认各部分正常运作无误后再继续后续操作。
```bash
docker-compose up -d
```
#### 6. 访问应用界面
当一切就绪之后即可利用浏览器或其他 HTTP 客户端尝试请求 API 接口测试功能是否可用。如果希望进一步简化调用流程,则可以考虑借助类似 Cpolar 这样的反向代理工具建立安全稳定的长期连接通道[^3]。
阅读全文
相关推荐















