deepseek 本地部署教程
时间: 2025-02-05 08:08:04 浏览: 157
### Deepseek 本地部署指南
#### 下载 Ollama
为了实现 Deepseek 的本地部署,首先需要下载 Ollama 工具。这一步骤对于后续的操作至关重要[^1]。
```bash
# 命令用于安装Ollama工具
pip install ollama
```
#### 启动 Ollama 服务
完成 Ollama 安装之后,启动该服务是必要的前置条件之一。通过下面的命令可以在本地环境中激活此服务:
```bash
# 启动Ollama服务
ollama start
```
#### 获取不同版本的 Deepseek 模型
依据个人需求以及硬件配置情况,可以选择适合自己的 Deepseek 版本进行加载。具体操作如下所示:
- **8B 版本**
```bash
ollama run deepseek-r1:8b
```
- **14B 版本**
```bash
ollama run deepseek-r1:14b
```
- **32B 版本**
```bash
ollama run deepseek-r1:32b
```
这些指令允许用户根据 GPU 显存大小来决定最适合运行哪个规模的模型[^2]。
#### 执行本地部署命令
最后,在确认一切准备就绪后,执行最终的部署命令即可让 Deepseek 成功落地于用户的计算资源之上:
```bash
# 部署Deepseek至本地环境
ollama run deepseek-r1
```
相关问题
DeepSeek本地部署教程
### DeepSeek 本地部署教程
#### 环境准备
##### 硬件需求
最低配置为 CPU 支持 AVX2 指令集,配备 16GB 内存以及至少 30GB 的存储空间。为了获得更佳性能,建议采用 NVIDIA GPU(如 RTX 3090 或更新型号),搭配 32GB 内存和不少于 50GB 存储的空间[^1]。
##### 软件依赖
操作系统应选择 Windows、macOS 或 Linux 中的一种。当计划使用 Open Web UI 进行交互时,则需预先安装 Docker 工具。
#### 安装方法
##### 使用 LM Studio 部署
- **下载并安装 LM Studio**:前往官方页面获取对应操作系统的最新版 LM Studio 并完成常规安装过程。
- **下载 DeepSeek R1 模型**:启动 LM Studio 后转至 Discover 页面搜索 "DeepSeek R1" 关键词。对于搭载 Apple 处理器的设备,请确认已勾选 MLX 参数;而对于基于 Windows 和 Linux 的平台则选取 GGUF 版本进行下载[^2]。
- **加载模型文件**:一旦下载完毕,在 Local Models 列表内定位到刚获取的 DeepSeek R1 条目并通过点击 Load 实现加载动作。
- **激活本地服务端口**:切换回 Developer 分区执行 Start Server 命令直至可通过浏览器正常访问 `http://localhost:1234` 地址表明一切顺利运作中。
##### 使用 Ollama 方式部署
- **获取并设置 Ollama 应用程序**:参照官方网站指引取得适用于当前计算节点架构类型的安装包,并依照提示逐步推进直到最终确立其可用状态——即通过命令行工具验证返回预期版本信息(例如显示 ollama version is 0.5.6 表明成功)即可。
```bash
ollama --version
```
阅读全文
相关推荐








