anythingllm连接deepseek的API
时间: 2025-03-02 20:17:56 浏览: 209
### 如何连接 DeepSeek API 使用 AnythingLLM
为了成功连接 DeepSeek API 并使用 AnythingLLM 进行交互,需遵循一系列特定的操作流程。
#### 配置 DeepSeek 和 AnythingLLM 的集成
在配置过程中,确保已正确安装 Ollama 及其他必要组件[^1]。对于离线部署的 DeepSeek R1 版本,在本地环境中搭建私有知识库能够有效规避数据隐私风险并提供更高的定制灵活性[^2]。
#### 设置 DeepSeek API 参数
进入 AnythingLLM 应用程序界面后:
- 点击左下角设置图标;
- 在左侧导航栏选择 LLM 首选项;
- 将 LLM 提供商设为 Generic OpenAI;
- Base URL 输入 `https://api.siliconflow.cn/`;
- API Key 填入之前获取到的有效密钥;
- Chat Model Name 中填写具体的模型名称,例如 `deepseek-ai/DeepSeek-R1`;
- Token context window 设定为 4096 或者根据需求调整;
- 完成上述设定之后保存更改,并返回主页面继续后续操作[^4]。
#### 调用 DeepSeek API 实现互动
完成以上步骤后即可利用 AnythingLLM 所提供的接口与 AI 展开对话交流。此时可以通过编程方式发送请求给 DeepSeek API 来获得响应结果。下面是一个简单的 Python 请求示例:
```python
import requests
url = "http://localhost:8000/api/v1/chat/completions"
headers = {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
}
data = {
"model": "deepseek-ai/DeepSeek-R1",
"messages": [{"role": "user", "content": "你好"}],
}
response = requests.post(url, headers=headers, json=data)
print(response.json())
```
此代码片段展示了如何向运行于 localhost 上的服务端点发起 POST 请求以启动聊天会话,并打印服务器返回的信息。
阅读全文
相关推荐


















