deepseek r1调用api
时间: 2025-07-01 11:04:25 浏览: 4
### 如何使用 Deepseek R1 调用 API
为了调用 Deepseek R1 的 API,在应用程序中集成此功能需要遵循特定的配置和方法。当指定 `model='deepseek-reasoner'` 时,可以调用 DeepSeek-R1 模型[^1]。
#### 安装依赖库
首先,确保安装了必要的 Python 库来处理 API 请求以及管理 Hugging Face 认证令牌:
```bash
pip install requests huggingface-hub
```
#### 获取认证令牌
由于访问某些资源可能受到限制,因此需从 Hugging Face 平台获取个人访问令牌 (Personal Access Token),这一步骤对于下载模型文件至关重要[^2]。
#### 下载并部署模型
利用 Hugging Face 提供的工具可以从远程仓库拉取预训练好的 Deepseek R1 模型到本地环境:
```python
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="deepseek-ai/deepseek-r1-8b-chat",
local_dir="./deepseek-r1-8b-chat",
token="your_hf_token"
)
```
上述代码片段展示了如何将 Deepseek R1 模型保存至当前目录下的子文件夹内,并指定了用于鉴权的令牌字符串。
#### 发起 HTTP POST 请求以调用 API
一旦完成了前期准备工作,则可以通过发送适当格式化的 JSON 数据给定端点来进行推理操作。下面给出了一段简单的例子说明怎样构建这样的请求体并向服务器提交查询:
```python
import json
import requests
url = 'http://localhost:7860/api/v1/predict'
headers = {'Content-Type': 'application/json'}
data = {
"inputs": {"text": "你想问什么?"},
"parameters": {},
"options": {}
}
response = requests.post(url, headers=headers, data=json.dumps(data))
print(response.json())
```
这段脚本假设目标服务运行于 localhost 上监听 7860 端口;实际应用环境中应当替换为正确的 URL 地址[^3]。
#### 参考完整项目实例
除了官方文档外,还可以参考由社区成员分享的具体案例学习更多细节。例如 lisakim0 在 GitHub Gist 中公开了一份基于 DeepSeek R1 和 Ollama 构建检索增强生成系统的源码链接。
阅读全文
相关推荐


















