无问芯穹调用deepseek
时间: 2025-05-13 16:51:20 浏览: 12
### 如何在无问芯穹中调用 DeepSeek 大模型 API 或接口
#### 调用 DeepSeek 大模型的服务流程
要成功调用 DeepSeek 的大模型服务,需完成以下几个方面的配置和操作:
#### 获取 API Key
首先需要前往 DeepSeek 官方网站注册账户并获取 API Key。通过登录到开发者平台,在导航栏找到 API Keys 选项,点击创建新的 API Key 即可[^2]。
#### 使用 Python 调用 DeepSeek API
一旦获得了有效的 API Key,可以利用 Python 编写脚本来调用 DeepSeek 提供的大规模语言模型服务。下面是一个简单的例子展示如何初始化连接以及发送请求给 DeepSeek 的服务器:
```python
import requests
def call_deepseek_api(prompt, api_key):
url = "https://api.deepseek.com/v1/completions"
headers = {
'Authorization': f'Bearer {api_key}',
'Content-Type': 'application/json'
}
data = {
'model': 'deepseek-v3',
'prompt': prompt,
'max_tokens': 50
}
response = requests.post(url, json=data, headers=headers)
if response.status_code == 200:
result = response.json()
return result['choices'][0]['text']
else:
raise Exception(f"Request failed with status code {response.status_code}")
# Example usage of the function
if __name__ == "__main__":
my_api_key = "<your-api-key>"
user_prompt = "Explain quantum computing briefly."
generated_text = call_deepseek_api(user_prompt, my_api_key)
print(generated_text)
```
上述代码片段展示了如何构建 HTTP 请求来与 DeepSeek API 进行交互,并指定所使用的具体模型版本(此处为 `deepseek-v3`),同时设置最大返回 token 数量等参数[^3]。
#### 本地部署 DeepSeek 模型
对于希望减少对外部网络依赖或者提升数据隐私保护的应用场景来说,可以选择将 DeepSeek 模型部署至本地环境运行。这通常涉及安装 Ollama 工具链以及其他必要的软件组件。以下是基本步骤概述:
- **安装 Ollama**: 参考官方文档下载适合目标系统的二进制文件并执行安装过程。
- **加载 DeepSeek 模型**: 利用 Ollama 命令行工具拉取所需的 DeepSeek 版本模型镜像。
- **查询已安装模型的状态**: 执行命令确认当前环境中可用的模型列表及其健康状况[^4]。
---
####
阅读全文
相关推荐


















