怎么在本地配置DeepSeek-R1
时间: 2025-03-01 17:48:41 浏览: 46
### 如何在本地环境配置DeepSeek-R1
#### 准备工作
为了成功地在本地环境中配置并运行 DeepSeek-R1,需先安装必要的软件包和服务。确保计算机已安装 Docker 或者其他容器化平台来支持 Ollama 的运行。
#### 获取模型文件
对于希望减少资源占用以及提高效率的情况,可以考虑使用蒸馏版本的 DeepSeek-R1 模型,比如 `DeepSeek-R1-Distill-Llama-8B`。通过 Hugging Face Hub 可以方便地获取该模型:
```python
from huggingface_hub import snapshot_download
model_id = "deepseek-ai/DeepSeek-R1-Distill-Llama-8B"
local_dir = snapshot_download(repo_id=model_id, local_dir="DeepSeek-R1-Distill-Llama-8B")
```
此段代码将会把指定 ID 对应的模型下载到当前目录下的子文件夹中[^3]。
#### 启动服务端口
完成上述准备工作之后,可以通过命令行工具启动 DeepSeek-R1 服务。假设已经正确设置了环境变量并且能够访问 Ollama,则只需简单执行如下指令即可让服务器监听默认端口号 (通常是 11434),从而允许客户端发送请求给它处理自然语言任务:
```bash
ollama run deepseek-r1:7b
```
这一步骤使得开发者能够在后续开发过程中调用 API 接口与模型互动[^1]。
#### 测试API接口
一旦确认服务正常运作后,便可通过 HTTP POST 请求向其传递 JSON 数据结构来进行测试。下面给出了一种利用 curl 工具的方式询问为什么天空呈现蓝色的现象作为例子说明:
```json
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt":"Why is the sky blue?",
"stream":false
}'
```
这段脚本将返回由 DeepSeek-R1 生产的回答字符串[^4]。
阅读全文
相关推荐


















