centos部署Ollama
时间: 2025-02-18 14:07:02 浏览: 116
### 安装和配置 Ollama
#### 准备工作环境
为了确保顺利安装Ollama,在CentOS环境中需先确认系统满足最低硬件需求并完成必要的软件包更新。考虑到g++版本不兼容可能导致错误,推荐采用Docker方式部署以规避此类问题[^4]。
#### Docker 的安装
如果尚未安装Docker,则需要先行安装:
```bash
sudo yum install -y docker
sudo systemctl start docker
sudo systemctl enable docker
```
#### 获取 Ollama 镜像
利用Docker拉取官方提供的Ollama镜像文件:
```bash
docker pull ollama/ollama:latest
```
#### 启动容器服务
创建一个新的容器实例来承载Ollama应用:
```bash
docker run -d --name ollama-server \
-p 8080:8080 \
-v /path/to/local/data:/data \
-e PORT=8080 \
ollama/ollama:latest
```
这里`-p`参数用于映射主机端口到容器内部的服务端口;而`-v`则指定了本地存储路径与容器内的挂载点之间的关联关系。
#### 使用 `ollama` 命令管理模型
一旦成功启动了Ollama服务器,即可借助`ollama`命令行工具执行多种操作,比如查询当前已加载的大规模预训练语言模型列表以及运行特定名称下的模型实例[^3]。
```bash
# 查看已有模型
ollama list
# 运行指定模型
ollama run <model_name>
```
#### 访问Web界面
对于希望通过图形化界面对Ollama进行管理和交互的用户来说,可以通过浏览器访问由上述步骤中定义好的IP地址及端口号组合而成的目标URL[^5]。
默认情况下,用户名为`admin`,初始密码设定为`MaxKB@123...`。首次登录后应立即更改此默认凭证信息以保障安全性。
阅读全文
相关推荐
















