ollama本地打开地址
时间: 2025-05-23 10:33:41 浏览: 20
### Ollama 本地运行地址及配置方式
Ollama 默认的访问地址和侦听端口为 `http://localhost:11434`,此设置仅适用于安装了 Ollama 的本机环境[^1]。如果需要在网络中提供服务,则可以通过修改系统环境变量中的监听地址和端口号实现。
#### 修改 API 监听地址和端口
为了使 Ollama 能够在网络上被其他设备访问,需调整其默认的监听地址和端口。具体操作如下:
- **Linux/MacOS**: 设置环境变量 `OLLAMA_API_ADDR` 和 `OLLAMA_API_PORT` 来指定新的监听地址和端口。
- **Windows**:
- 打开“设置” -> “系统” -> “关于” -> “高级系统设置”。
- 点击“环境变量”,新建或编辑现有变量:
- 变量名:`OLLAMA_API_ADDR`
- 变量值:目标 IP 地址(如 `0.0.0.0` 表示允许所有外部连接)
- 同样可以新增 `OLLAMA_API_PORT` 并赋值为目标端口号(如 `8080`)
完成上述更改后重启 Ollama 或重新启动 Docker 容器以应用新配置[^2]。
#### 使用 Docker 部署时的映射端口
当利用 Docker 构建 Ollama 容器实例时,默认会将主机上的 `11434` 映射到容器内部的服务端口上。例如,在 Windows 上执行以下命令可创建一个支持远程访问的 Ollama 容器,并将其数据目录绑定至特定路径下[^3]:
```bash
docker run --name ollama_container \
-v C:\xudawu\DockerData2024_09_29\ollama_2024_11_21:/root/.ollama \
-p 11434:11434 \
-d ollama/ollama
```
以上脚本不仅实现了对外暴露接口的功能,还指定了模型文件的具体保存位置以便管理维护。
#### 测试 API 接口连通性
确认服务器已正常开启之后,可通过发送 HTTP 请求验证功能是否可用。比如发起一次简单的对话请求:
```bash
curl -X POST http://<your_server_ip>:<port>/api/generate \
-H "Content-Type: application/json" \
-d '{"model": "gemma:2b", "prompt":"What is your name?"}' | jq .
```
其中 `<your_server_ip>` 替换为你实际使用的公网或者局域网IP地址;而 `<port>` 则依据之前设定好的情况填写相应数值[^5]。
---
###
阅读全文
相关推荐


















