linux 安装ollama调用api
时间: 2025-02-05 12:05:47 浏览: 68
### Linux系统中安装Ollama
为了在Linux环境里完成Ollama的安装,可以通过执行官方提供的简便脚本实现。具体而言,利用`curl`工具获取远程Shell脚本并立即运行之:
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
上述命令会自动下载并执行安装过程,从而简化了软件部署流程[^1]。
为了让外部设备或是宿主机能够依据IP地址访问到Ollama的服务接口,则需调整服务配置允许监听所有网络接口上的指定端口。这涉及到编辑位于`/etc/systemd/system/ollama.service`路径下的服务定义文件,在其中加入特定环境变量设置语句,并重启服务使更改生效:
```bash
systemctl stop ollama
sed -i '/\[Service\]/a Environment="OLLAMA_HOST=0.0.0.0:8080"' /etc/systemd/system/ollama.service
systemctl daemon-reload
systemctl start ollama
```
这里假设使用的默认HTTP端口号为8080;如果存在冲突或其他需求,则应适当修改该数值以适应实际场景[^2]。
### 调用Ollama API的方法
当考虑通过Python程序交互时,可借助requests库发起HTTP请求至已暴露出来的RESTful风格API端点。下面给出一段简单的例子用于发送GET类型的查询请求给Ollama服务器:
```python
import requests
response = requests.get('http://localhost:8080/api/v1/models')
if response.status_code == 200:
models_info = response.json()
else:
print(f"Failed to retrieve data, status code {response.status_code}")
```
此段代码尝试连接本地运行着的Ollama实例,并试图读取当前可用的大规模预训练语言模型列表信息。对于更复杂的操作比如创建新模型、管理已有资源等动作同样遵循类似的模式——构建恰当格式的消息体提交POST/PATCH/DELETE等方式对应的URL即可达成目的[^4]。
阅读全文
相关推荐


















