LM studio接口调用
时间: 2025-05-29 12:00:16 浏览: 13
### LM Studio API 调用方法
LM Studio 提供了一种灵活的方式来部署和调用大型语言模型。其核心功能可以通过命令行工具完成模型的部署,并通过暴露本地端口的方式实现局域网内的客户端调用[^1]。
#### 配置文件说明
在使用 `lm-studio` 命令之前,需要准备配置文件 `config.yaml`。此文件定义了模型加载的相关参数以及运行环境设置。例如:
```yaml
model_name: deepseek-coder-large
max_tokens: 500
temperature: 0.7
top_p: 0.9
port: 8080
```
上述配置指定了模型名称、最大生成令牌数、温度系数以及其他超参数[^2]。
#### 模型部署
执行以下命令可以基于指定的配置文件启动服务:
```bash
lm-studio deploy -c config.yaml
```
该命令会读取 `config.yaml` 文件中的参数并初始化模型实例。成功后,服务将在指定的端口号上监听请求,默认情况下为 `localhost:<port>`。
#### 接口调用示例
一旦服务启动完毕,就可以通过 HTTP 请求访问 LM Studio 的 API。以下是 Python 中的一个简单示例代码片段用于发送 POST 请求到 LM Studio 并获取响应数据:
```python
import requests
url = "http://127.0.0.1:8080/generate"
payload = {
"prompt": "Write a short story about an adventurous cat.",
"max_tokens": 100,
"temperature": 0.7,
"top_p": 0.9
}
response = requests.post(url, json=payload)
if response.status_code == 200:
result = response.json()
print(result["text"])
else:
print(f"Error occurred: {response.text}")
```
在此脚本中,我们向 `/generate` 终端传递了一个 JSON 对象作为输入提示(`prompt`)和其他生成选项。如果一切正常,则返回的结果将包含由模型生成的文字内容[^3]。
#### 局域网共享
为了让其他设备也能连接至您的计算机上的 LM Studio 实例,在防火墙设置里允许入站流量对于所使用的端口非常重要。按照引用材料描述的方法创建新规则以开放相应端口之后,任何处于同一网络下的机器都可以尝试通过 IP 地址加端口号的形式访问这个 API。
---
阅读全文
相关推荐


















