本地搭建deepseek并提供给其它人使用(最全,完整可用)

最近deepseek非常火,可以称得上是国人的骄傲了。也导致他的网站和api都比较卡。因为是开源的,我们可以很方便的架设其蒸馏模型到自己的主机上。

PS:虽然也可以Cpu运行模型,但是如果没有8G以上的显存卡的话,只能搭建7B以下的模型,体验效果并不太好。

一、安装 Ollama

1.1 在线安装(推荐方式,需要科学上网)

在 Ubuntu 终端中直接执行下面的命令,下载安装脚本会自动下载适合你系统架构的 Ollama 二进制文件并安装到系统中:

curl -fsSL https://ollama.com/install.sh | sh

安装过程中需要 sudo 权限,并会自动创建系统用户、配置 systemd 服务等 。

安装完成后,你可以通过下面的命令检查版本:

ollama -v

若显示版本号(例如 0.5.7),则说明安装成功。

1.2 手动安装

如果你遇到网络或其他问题,也可以选择手动安装:

下载适合你的系统架构的二进制文件(例如,对于 x86_64 架构):

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

PS:如果下载太慢,可直接下我的资源

1.3为 Ollama 创建用户和组:

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

1.4 将 Ollama 添加为自动启动服务(推荐)

编辑 /etc/systemd/system/ollama.service(如果是在线安装方式,该文件一般会自动生成),修改或添加以下内容:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_MODELS=/path/to/ollama_models"  # 模型存放路径
Environment="OLLAMA_HOST=0.0.0.0:11434"  # 监听所有IP,端口11434
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"

[Install]
WantedBy=default.target

注意:

  • 修改 UserGroup 为你实际使用的 Linux 用户。
  • 确保 OLLAMA_MODELS指向你希望存储模型数据的目录。
  • ExecStart 的位置也有可能是 /usr/bin/ollama serve

最后启动服务

sudo systemctl daemon-reload
sudo systemctl enable ollama

2.2 安装nvidia GPU驱动

如果没有安装GPU驱动,Ollama默认会使用CPU运行,速度很慢。
安装参考我的另一篇文章:ubuntu安装深度学习环境

运行:nvidia-smi 显示如下即可
在这里插入图片描述

2.3 重载并重启服务

执行:

sudo systemctl daemon-reload
sudo systemctl restart ollama.service
sudo systemctl status ollama.service

如果显示如下,就说明已经安装Ollma成功了
在这里插入图片描述

这样 Ollama 就会监听在 0.0.0.0:11434 上,局域网内其他机器可以通过 http://<Ubuntu_IP>:11434 访问其 API

PS:如果配置失败,使用journalctl -e -u ollama 查看错误日志

三、部署 DeepSeek 模型

DeepSeek 模型在 Ollama 的模型库中已经发布(例如 DeepSeek-R1 系列)。你可以根据自己的硬件配置选择合适的参数版本(例如 1.5b、7b、14b 等)。

3.1 选择并运行模型

在终端中运行以下命令(以 1.5b 版本为例):

ollama run deepseek-r1:1.5b

这条命令会自动拉取模型数据并启动模型。下载和初始化过程可能需要一些时间,完成后你可以在命令行中与模型进行交互测试 。

PS:如果没有科学上网,可能会比较慢,可以直接下载我的模型文件使用。下载地址

根据实际需求,如果你的硬件条件允许,也可以尝试部署更高参数的版本,比如 7b(70亿参数)等。

3.2 配置需求

DeepSeek 蒸馏模型硬件要求

模型版本CPU要求内存要求硬盘要求显卡要求适用场景
DeepSeek-R1-1.5B4 核(推荐多核处理器)8GB+3GB+非必需(CPU推理);GPU可选 4GB 显存低资源设备部署,如树莓派、旧款笔记本、物联网设备等
DeepSeek-R1-7B8 核以上(推荐现代多核 CPU)16GB+8GB+推荐 8GB 显存(如 RTX 3070/4060)中小型企业本地开发测试,轻量级多轮对话系统
DeepSeek-R1-8B8 核以上(推荐现代多核 CPU)16GB+8GB+推荐 8GB 显存(如 RTX 3070/4060)轻量级任务,如代码生成、逻辑推理
DeepSeek-R1-14B12 核以上32GB+15GB+推荐 12GB 显存(如 RTX 4090/A5000)企业级复杂任务、长文本理解与生成
DeepSeek-R1-32B16 核以上(如 AMD Ryzen 9/i9)64GB+30GB+24GB 显存(如 A100 40GB)高精度专业领域任务、多模态任务预处理
DeepSeek-R1-70B32 核以上(服务器级 CPU)128GB+70GB+多卡并行(如 2x A100 80GB)科研机构/大型企业、高复杂度生成任务
DeepSeek-R1-671B64 核以上(服务器集群)512GB+300GB+多节点分布式训练(8x A100/H100)超大规模 AI 研究、通用人工智能(AGI)探索

四、提供 Web 交互界面(可选)

如果你希望通过浏览器进行更友好、直观的交互,可以部署 Open-WebUI。它基于 Docker 部署,能够将 Ollama 后端的模型通过一个网页界面展示出来。

直接安装open-webui

  1. Create a Conda Environment:
conda create -n open-webui python=3.11
  1. Activate the Environment:
conda activate open-webui
  1. Install Open WebUI:
pip install open-webui
  1. Start the Server:
open-webui serve

或者后台运行

nohup open-webui serve > /dev/null 2>error.log  &

启动成功后,你可以让局域网内其他机器通过访问 http://<机器局域网IP>:8080(默认端口为 8080)来使用 Web 界面 (需要防火墙开放8080端口)

4.1 通过Docker安装open-webui

可参考官方安装指南:

curl -fsSL https://get.docker.com -o get-docker.sh
sudo sh get-docker.sh

使用以下 Docker 命令启动 Open-WebUI,并指定 Ollama 的 API 地址(注意使用 host 网络模式保证能访问本机服务):

sudo docker run -d --network=host -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

启动成功后,你可以让局域网内其他机器通过访问 http://<机器局域网IP>:3000(默认端口为 3000)来使用 Web 界面 (需要防火墙开放3000端口)

五、局域网访问验证

在 Ubuntu 主机上确认 Ollama 服务正常运行并监听在 0.0.0.0:11434:

sudo systemctl status ollama.service

在同一局域网内其他机器上,通过浏览器访问:

http://<Ubuntu_IP>:11434

或者如果部署了 Open-WebUI,则访问:

http://<Ubuntu_IP>:8080

这样就能直接与 DeepSeek 模型交互。

六、其它问题

open-webui登录后空白

open-webui上传文件报错

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

唐大帅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值