本地启动ollama
时间: 2025-02-20 17:31:11 浏览: 151
### 启动本地 Ollama 服务
为了在本地环境中启动 Ollama 服务,可以利用 Docker 容器化技术简化部署过程。具体来说,官方提供了 Docker 镜像,可以直接从 Docker Hub 获取并运行。
执行如下命令来启动 Ollama 服务:
```bash
docker run -d --restart=always \
-v /mydata/docker/local/ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollama
```
这条命令会下载最新的 `ollama/ollama` 镜像,并以后台模式启动容器。同时设置了自动重启策略 (`--restart=always`) 来确保即使主机重新启动后该服务仍然可用[^2]。
此外,还指定了端口映射 `-p 11434:11434` 将宿主机的 11434 端口转发给容器内的相同端口,使得可以从外部访问 Ollama 提供的服务接口;并通过卷挂载选项 `-v` 把宿主机上的 `/mydata/docker/local/ollama` 目录绑定至容器内部路径 `/root/.ollama` 下用于持久化存储配置文件和其他数据。
一旦成功启动了 Ollama 服务,就可以通过 HTTP 请求与其交互。例如,使用 `curl` 工具发送 JSON 格式的聊天请求消息体到指定 URL 地址来进行对话交流[^3]。
```json
{
"model": "llama3",
"messages": [
{
"role": "user",
"content": "What are the key features of Llama 3.1?"
}
],
"stream": false
}
```
此 JSON 对象包含了所选模型名称、对话历史记录以及是否开启流式响应等参数设置。将其作为 POST 请求的数据部分提交给 `http://localhost:11434/api/chat` 接口即可实现与 Ollama 的通信。
阅读全文
相关推荐


















