Ollama Server 外部调用
时间: 2025-01-26 19:03:31 浏览: 175
### 调用 Ollama Server 的外部接口
为了从外部调用 Ollama Server,通常会通过 HTTP API 进行交互。当服务器正常运行并显示 "Ollama is running" 时[^1],意味着可以开始配置对外部请求的支持。
#### 使用 RESTful API 接口
假设 Ollama 提供了一个标准的 RESTful API 来处理来自客户端的应用程序编程接口(API)请求。对于大多数API来说, 需要指定目标URL、HTTP 方法 (GET, POST 等), 并可能附带一些参数或负载数据。
##### 发送 GET 请求获取状态信息
可以通过发送一个简单的 `GET` 请求到特定端点来检查服务的状态:
```bash
curl http://your_ip:11434/status
```
这将返回有关当前实例健康状况的信息。请注意替换 `your_ip` 和端口号为实际使用的地址和端口。
##### 向模型提交查询
如果想要向部署在 Ollama 上的一个机器学习模型传递输入,则一般采用 `POST` 请求的方式,并携带 JSON 格式的 payload 数据作为请求体的一部分:
```bash
curl -X POST \
-H "Content-Type: application/json" \
-d '{"input": "example query"}' \
http://your_ip:11434/predict
```
这里 `-d` 参数后面跟的是JSON字符串形式的数据,其中包含了待预测的内容 `"input"` 字段;而 URL路径 `/predict` 是用于触发预测操作的具体路由[^2]。
#### Python 示例代码
除了命令行工具外,也可以利用像Python这样的高级语言编写脚本来实现更复杂的逻辑控制和服务集成。下面是一个基于 `requests` 库的例子:
```python
import requests
url = 'http://your_ip:11434/predict'
data = {"input": "example query"}
response = requests.post(url, json=data)
print(response.json())
```
这段代码实现了与上述 curl 命令相同的功能——它向给定的 URL 发起带有 JSON 数据的 POST 请求,并打印出响应结果。
阅读全文
相关推荐


















