litellm调用 claude
时间: 2025-07-23 14:07:22 浏览: 2
### 如何使用 LiteLLM 调用 Claude 模型?
在 LiteLLM 中调用 Anthropic 的 Claude 模型非常简单,只需通过统一的 `litellm.completion()` 接口指定模型名称即可[^2]。以下是详细的配置和调用方法:
#### 1. 安装 LiteLLM
首先,确保已经安装了 LiteLLM。可以通过 pip 安装:
```bash
pip install litellm
```
#### 2. 设置 API 密钥
为了调用 Anthropic 的 Claude 模型,你需要一个有效的 API 密钥。你可以从 [Anthropic 控制台](https://console.anthropic.com/) 获取 API 密钥。
在调用前,将 API 密钥设置为环境变量或直接在代码中传递:
```bash
export ANTHROPIC_API_KEY='your-anthropic-api-key'
```
或者在代码中显式传递:
```python
import os
os.environ['ANTHROPIC_API_KEY'] = 'your-anthropic-api-key'
```
#### 3. 调用 Claude 模型
使用 `litellm.completion()` 函数并指定模型名称即可调用 Claude 模型。例如,调用 `claude-3-opus-20240229`:
```python
import litellm
response = litellm.completion(
model="claude-3-opus-20240229",
messages=[{"role": "user", "content": "写一首关于夏天的诗"}],
temperature=0.7,
max_tokens=100
)
print(response.choices[0].message.content)
```
LiteLLM 会自动处理请求的格式转换、身份验证以及响应的标准化输出[^3]。
#### 4. 使用自定义参数(可选)
你还可以根据需要添加更多参数,如 `temperature`、`max_tokens`、`top_p` 等,这些参数会被 LiteLLM 自动适配到目标模型的 API 中[^4]。
```python
response = litellm.completion(
model="claude-3-opus-20240229",
messages=[{"role": "user", "content": "解释量子计算的基本原理"}],
temperature=0.5,
max_tokens=200,
top_p=0.9
)
```
#### 5. 错误处理与负载均衡(可选)
LiteLLM 支持自动重试和模型回退机制。如果主模型调用失败,可以配置备用模型继续处理请求:
```python
response = litellm.completion(
model=["claude-3-opus-20240229", "gpt-4"],
messages=[{"role": "user", "content": "帮我写一个Python脚本,打印斐波那契数列"}],
fallback_strategy="fallback"
)
```
这样,在 Claude 不可用时,LiteLLM 会自动尝试使用 GPT-4 处理请求[^2]。
---
###
阅读全文
相关推荐


















