ubtuntu部署ollama
时间: 2025-02-25 14:10:13 浏览: 61
### 部署 Ollama 服务
#### 安装 Docker 和 Docker Compose
为了在 Ubuntu 上成功部署 Ollama,首先需要确保系统已经安装了 Docker 及其扩展组件 Docker Compose。可以通过官方文档获取最新的安装指南[^1]。
```bash
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-compose-plugin
```
#### 下载并安装 Ollama
完成环境准备工作之后,可以利用 `curl` 工具来下载并自动安装 Ollama:
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
此命令会从官方网站拉取最新版本的安装脚本,并按照默认配置完成整个安装过程[^3]。
#### 修改服务配置文件
对于某些特定需求来说,可能还需要调整 Ollama 的服务设置。这一步骤涉及到编辑 `/etc/systemd/system/ollama.service` 文件,在 `[Service]` 节点下追加必要的环境变量定义:
```bash
$ sudo sed -i '/\[Service\]/a Environment="OLLAMA_HOST=0.0.0.0"\nEnvironment="OLLAMA_ORIGINS=*"' /etc/systemd/system/ollama.service
```
上述操作允许外部访问以及跨域资源共享请求[^2]。
#### 启动与验证 Ollama 服务
最后重启 Ollama 服务使更改生效,并确认服务状态正常运行:
```bash
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo systemctl status ollama
```
此时应该能够看到 Ollama 正常工作中的提示信息,表示部署顺利完成。
#### 运行 Llama3 模型实例
一旦 Ollama 成功启动后,就可以加载预训练好的大型语言模型 (LLM),比如 llama3 来测试效果:
```bash
ollama run --model=llama3
```
这条指令将会初始化指定名称的大规模参数化神经网络架构,并准备好接收输入数据流进行推理计算[^4]。
阅读全文
相关推荐










