windows本地部署deep seek
时间: 2025-02-07 14:03:53 浏览: 244
### Windows 上本地部署 Deep Seek
#### 使用 PowerShell 启动 DeepSeek 模型
为了启动特定版本的 DeepSeek 模型,在 Windows 中可以通过按下 `Win + R` 组合键并输入 `powershell` 来打开终端窗口。对于不同大小参数量的模型,可以执行如下命令:
- 对于 7B 参数量的小规模模型:
```bash
ollama run deepseek-r1:7b
```
- 对于 70B 参数量的大规模模型[^2]:
```bash
ollama run deepseek-r1:70b
```
这些命令会调用 Ollama 平台来加载指定版本的 DeepSeek 模型。
#### 修改模型存储路径以节省 C 盘空间
由于默认情况下模型会被下载到用户的主目录下 `.ollama/models` 文件夹内,这可能会占用大量 C 盘空间。为了避免这种情况发生,建议通过设置环境变量的方式来改变模型的保存位置[^3]:
1. 打开文件资源管理器,右击“此电脑”,选择“属性”
2. 进入系统设置页面中的“高级系统设置”,点击“环境变量”
3. 在系统变量区新增一个名为 `OLLAMA_MODELS` 的变量,并将其值设为期望的模型存放路径
4. 完成配置后记得依次确认各个对话框以使更改生效
完成上述步骤之后,后续所有的模型都将被自动放置在新设定的位置中,从而有效保护系统的磁盘空间不受影响。
相关问题
windows本地部署Deep Seek
### Windows 上本地部署 Deep Seek
#### 准备工作
为了成功在Windows上部署Deep Seek,确保计算机满足最低硬件需求并已安装必要的软件环境。对于显卡用户,特别是使用AMD RX 580的设备,在Windows 10环境下操作时需注意特定驱动程序兼容性问题[^2]。
#### 下载与安装 Ollama
启动部署流程的第一步是从官方渠道获取最新版Ollama安装包(OllamaSetup.exe),通过双击该文件按照提示完成默认设置下的安装过程。
#### 获取 DeepSeek 模型
针对不同计算资源情况可以选择适合版本的大规模预训练模型。例如`deepseek-r1-8b`是一个较为轻量化但仍保持高效性能的选择;而对于拥有更强大GPU支持的情况,则可以考虑更大参数量如`deepseek-r1:70b`这样的高级选项[^3]。
```bash
ollama pull deepseek-r1-8b
```
或是
```bash
ollama pull deepseek-r1:70b
```
#### 启动 ChatBox 并加载模型
一旦上述准备工作就绪,下一步就是配置运行环境来使能交互功能。这通常涉及到启动一个名为ChatBox的应用服务端口,并指定要使用的具体模型实例:
```python
from chatbox import load_model, start_server
model_path = "path/to/deepseek-model"
chat_service = load_model(model_path)
start_server(chat_service)
```
以上步骤概括了基于Windows平台实现Deep Seek本地化部署的主要环节,实际执行过程中可能还会遇到一些细节上的调整需求,比如路径设定、依赖库管理等,这些都需要依据个人具体情况灵活处理。
win11本地部署deep seek
### Windows 11 上 Deep Seek 的本地部署
#### 准备工作
为了顺利在 Windows 11 上完成 Deep Seek 的本地部署,需先确认已安装必要的软件环境。这通常包括 Python 和 Git 工具链以及 Ollama 平台的支持[^1]。
#### 安装 Ollama
通过访问官方网站下载并按照指引安装最新版本的 Ollama 应用程序到本地计算机环境中。此过程涉及接受许可协议、选择组件选项等标准操作流程。
#### 配置模型存储路径
鉴于默认情况下模型会存放在 `C:\Users\用户名\.ollama\models` 文件夹内占用大量 C 盘空间,在实际应用前建议调整该目录至其他分区或磁盘位置。具体方法是在系统属性->高级系统设置->环境变量里新增名为 `OLLAMA_MODEL_PATH` 的全局变量,并将其值设为目标文件夹绝对路径[^2]。
#### 获取 DeepSeek-R1 大模型
登录注册后的账户获取授权密钥后,利用命令行工具执行如下指令来拉取所需的预训练权重文件:
```bash
ollama pull deepseek-r1-lightweight-1_5b --api-key YOUR_API_KEY_HERE
```
#### 启动服务端口监听
确保防火墙允许外部连接请求到达指定的服务端口号,默认为8080端口;如果更改过,则需要相应更新配置文件中的参数设定。
#### 测试运行效果
打开浏览器输入 http://localhost:8080 即可进入交互界面测试聊天功能是否正常运作。此时应该能看到由 ChatBox 提供支持的人机对话框等待用户提问交流。
阅读全文
相关推荐















