Ollama本地部署在D盘 DeepSeek
时间: 2025-03-23 22:10:40 浏览: 57
### Ollama 本地部署 D 盘 DeepSeek 模型配置教程
#### 设置环境变量
为了将 Ollama 的模型文件存储到指定的磁盘分区(如 D 盘),可以通过设置 `OLLAMA_MODELS` 环境变量来实现。该变量定义了模型镜像的存储位置[^2]。
在 Windows 系统中,可以按照以下方法设置环境变量:
1. 右键单击“此电脑”或“我的电脑”,选择“属性”。
2. 进入“高级系统设置”,点击“环境变量”按钮。
3. 在“系统变量”部分,点击“新建”并输入变量名为 `OLLAMA_MODELS`,变量值为 `D:\OLLAMA` 或其他希望使用的目录路径。
4. 点击确认保存更改。
完成上述操作后,重启终端窗口以使新设置生效。
#### 安装与启动 Ollama
确保已经安装好 Ollama 工具链。如果尚未安装,可以从官方文档获取最新版本的安装指南。通常情况下,在命令行运行以下指令即可完成初始化:
```bash
ollama pull deepseek/r1:1.5b
```
这条命令会下载 DeepSeek 提供的大规模语言模型至之前设定好的路径下,并标记其名称为 `deepseek-r1:1.5b`[^1]。
#### Chatbox 配置说明
打开支持 Ollama 接口的应用程序界面——例如 Chatbox 应用中的选项菜单。导航至应用内的“设置”区域,定位到有关 AI 模型服务提供商的部分。在此处选取 “Ollama API” 成为主导服务商之后,继续向下寻找可用模型列表里的条目 `deepseek-r1:1.5b` 并激活它;最后记得提交修改后的参数组合以便储存下来待后续调用时自动加载所选方案。
#### 测试连接状态
一切准备就绪以后,尝试发起一次简单的对话请求验证整个流程是否顺畅运作无误。比如向聊天框发送一句测试消息:“你好!”观察返回的结果是否正常回应预期的内容形式。
```python
import requests
url = 'http://localhost:11434/api/generate'
data = {
"model": "deepseek-r1:1.5b",
"prompt": "你好!"
}
response = requests.post(url, json=data)
print(response.json())
```
以上脚本片段展示了如何利用 Python 脚本来远程触发基于 HTTP 协议暴露出来的 RESTful API 来交互生成一段文字答复。
阅读全文
相关推荐

















