ollama run deepseek-r1:70b 怎么安装在D盘
时间: 2025-06-03 12:58:56 浏览: 20
### 在 Windows 环境下将 Ollama 和 DeepSeek-R1:70b 模型安装到 D 盘
#### 准备工作
为了在 D 盘上安装并运行 Ollama 和 DeepSeek-R1:70b 模型,需要先完成以下准备工作:
- **确认硬件需求**:DeepSeek-R1:70b 是一个大型语言模型,其体积约为 42GB。因此,确保 D 盘有足够的存储空间来容纳该模型以及可能的缓存文件[^1]。
- **环境准备**:Windows 系统需要具备管理员权限以顺利安装软件和创建必要的目录结构。
---
#### 步骤说明
##### 1. 下载并安装 Ollama 到指定路径
默认情况下,Ollama 的安装位置可能会位于 C:\Users\<用户名>\AppData\Local\Programs\. 如果希望将其安装到 D 盘,则可以通过手动设置安装路径实现。
- 访问官方文档或 GitHub 页面获取最新版本的 Ollama 可执行程序。
- 将解压后的 `ollama.exe` 文件放置于自定义路径,例如 `D:\Ollama`.
验证安装是否成功:
```cmd
D:
cd \Ollama
.\ollama version
```
此命令会显示当前已安装的 Ollama 版本号[^3]。
---
##### 2. 设置模型存储路径
Ollama 默认会在 `%APPDATA%\Ollama\models` 中保存下载的模型数据。为了避免占用 C 盘空间,可以修改这一行为,让模型存储到 D 盘上的特定目录。
创建一个新的目录用于存放模型文件,例如 `D:\Ollama\Models`. 接着,在启动任何操作前,通过环境变量调整模型路径:
```cmd
set OLlama_MODEL_PATH=D:\Ollama\Models
```
注意:每次重新打开 CMD 窗口都需要重新设定上述环境变量;或者可以选择永久性地添加到系统的全局环境变量中[^2]。
---
##### 3. 下载 DeepSeek-R1:70b 模型
一旦完成了基础配置,就可以开始下载目标模型了。使用如下指令触发下载过程:
```cmd
D:
cd \Ollama
.\ollama pull deepseek/r1:70b
```
这一步骤将会把所需的模型拉取下来,并依据之前所设好的路径规则自动放到对应的磁盘分区里去.
---
##### 4. 运行模型服务
当所有前期准备工作都完成后,最后就是实际调用模型提供服务的时候啦!
启动模型服务端口监听,默认是在 localhost 地址下的某个随机开放端口号之上运作:
```cmd
D:
cd \Ollama
.\ollama serve --model=deepseek/r1:70b --num_ctx=12800
```
这里额外指定了参数 `--num_ctx`, 表明我们期望扩大上下文长度达到更优效果.
---
### 注意事项
- 若机器内存不足或其他原因引发性能瓶颈时,请考虑采用量化技术降低消耗,比如选用更低精度版本(如 Q5_K_S).
- 对于生产环境中涉及高并发请求场景的话,则建议利用容器编排工具诸如 Kubernetes 来管理多个节点间的负载均衡等问题.
阅读全文
相关推荐


















