deepseek本地部署windowsd盘
时间: 2025-02-21 14:25:35 浏览: 94
### Windows D盘上的DeepSeek本地部署
#### 安装前准备
为了确保顺利安装,在开始之前确认D盘有足够的存储空间来容纳所需软件和模型文件。对于不同大小的模型,所需的磁盘空间差异较大,具体需求如下表所示[^3]:
| 模型名称 | 大小 |
|----------|----------|
| DeepSeek-R1-Distill-Qwen-1.5B | 1.1 GB |
| DeepSeek-R1-Distill-Qwen-7B | 4.7 GB |
| DeepSeek-R1-Distill-Llama-8B | 4.9 GB |
| DeepSeek-R1-Distill-Qwen-14B | 9 GB |
| DeepSeek-R1-Distill-Qwen-32B | 20 GB |
| DeepSeek-R1-Distill-Llama-70B | 43 GB |
#### 设置环境变量
建议创建一个新的用户环境变量`DEEPSEEK_HOME=D:\DeepSeek`指向目标目录,并将其加入到系统的PATH路径中以便后续操作更加便捷。
#### 下载并配置Ollama与AnythingLLM
按照官方指南完成Ollama及AnythingLLM的基础设置过程,注意指定自定义的数据保存位置为D盘下的特定文件夹内[^1]。
```powershell
# 创建用于存放DeepSeek相关数据的文件夹结构
mkdir "D:\DeepSeek"
cd "D:\DeepSeek"
# 初始化ollama仓库(假设已正确设置了OLLAMA_PATH)
ollama init --path="D:\DeepSeek\ollama_repo"
```
#### 获取DeepSeek模型
通过命令行工具下载所选版本的预训练模型至上述设定好的路径下。这里以较小规模的Qwen-1.5B为例说明基本语法;其他型号可参照相同方式执行相应指令。
```bash
# 运行选定的小尺寸模型实例
ollama run deepseek-r1:1.5b --model-path="D:\DeepSeek\Models\deepseek-r1-distilled-qwen-1_5b"
```
#### 启动服务端口监听
最后一步是启动服务器进程,使其能够接收来自客户端的应用请求。通常情况下,默认会自动绑定localhost地址并开放一定范围内的随机可用端口号供外部访问连接使用。
```batchfile
# 开启web API接口服务
ollama serve --host=0.0.0.0 --port=8080 --data-dir="D:\DeepSeek\data"
```
以上就是在Windows操作系统环境下于D分区实现DeepSeek框架快速搭建的方法概述[^2]。
阅读全文
相关推荐














