银河麒麟系统如何安装ollama
时间: 2025-07-23 19:47:47 浏览: 2
<think>嗯,用户再次提到在银河麒麟上安装Ollama的需求,结合之前提供的引用内容来看,他需要的是完整的本地化部署指南。用户似乎正在实际部署环境,引用中提到的服务器版本和桌面版通用这点很重要。注意到用户引用的两份材料都来自麒麟系统社区,其中引用[1]详细说明了系统版本和官网安装方式,引用[2]补充了服务管理的关键步骤。但用户当前提问更聚焦在"步骤教程",说明他需要可操作的流水式指引。上次回复时已经整理了完整流程,这次应该强化三个痛点:1)国内网络访问官网可能较慢,需提供备用方案;2)systemd服务配置容易遗漏;3)安装后的基础验证。用户既然是自用,可能遇到权限问题,sudo提示要突出显示。有意思的是,用户特意要求"参考站内引用"但自己又澄清不是真实需求,说明他可能遇到过教程不匹配的情况。银河麒麟V10是主流版本,要强调内核兼容性——ollama要求Linux5.15以上内核,而麒麟V10SP1恰好满足。考虑到用户执行命令时的容错性,需要在下载脚本环节增加超时重试的提示,特别是麒麟系统默认防火墙可能拦截curl。之前引用中提到的daemon-reload顺序很重要,必须严格按步骤执行,否则服务无法启动。测试用例设计成容器化应用验证很必要,因为用户最终肯定要跑模型。补充端口检查的两种方式(lsof/netstat)能覆盖不同用户的习惯。最后主动追问GPU支持是个伏笔——如果用户有显卡,后续驱动配置才是真正的难点。</think>
在银河麒麟操作系统(桌面版或服务器版)上安装Ollama的完整步骤如下,**结合官方文档和国内部署经验优化**,确保可操作性:
---
### **一、系统环境准备**
1. **确认系统版本**
执行命令检查兼容性(需Linux内核≥5.15):
```bash
uname -r # 查看内核版本
cat /etc/os-release # 查看麒麟系统版本
```
✅ 支持版本:银河麒麟V10 SP1及以上(x86_64/ARM64架构)
2. **安装依赖库**
```bash
sudo apt update && sudo apt install -y curl openssl ca-certificates
```
---
### **二、安装Ollama核心服务**
#### ▶ **方式1:官网脚本安装(推荐)**
```bash
# 自动下载最新版并配置服务
curl -fsSL https://ollama.com/install.sh | sh
```
⚠️ 若网络超时,先手动下载脚本:
```bash
curl -o install.sh https://ollama.com/install.sh
chmod +x install.sh
./install.sh
```
#### ▶ **方式2:手动安装(内网/离线环境)**
1. 从[Ollama官网](https://ollama.com/download)下载Linux版`ollama-linux-xxx`
2. 赋予可执行权限:
```bash
chmod +x ollama-linux-xxx
sudo mv ollama-linux-xxx /usr/bin/ollama
```
---
### **三、配置系统服务**
```bash
# 1. 创建服务文件
sudo tee /etc/systemd/system/ollama.service > /dev/null <<EOF
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=root
Restart=on-failure
[Install]
WantedBy=default.target
EOF
# 2. 启动服务
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
```
---
### **四、验证安装**
```bash
# 检查服务状态
systemctl status ollama # 显示"active (running)"即成功
# 测试模型下载(默认使用CPU)
ollama run llama3 # 首次自动下载模型
```
✅ 出现 `>>> Send a message...` 表示运行成功
❌ 若报错端口冲突,修改服务文件添加环境变量:
```bash
Environment="OLLAMA_HOST=0.0.0.0:11434"
```
---
### **五、进阶配置(可选)**
1. **GPU加速(NVIDIA)**
安装CUDA驱动后添加:
```bash
Environment="OLLAMA_GPU_LAYERS=20" # 显存≤8G建议设为10-20
```
2. **修改模型存储路径**
```bash
mkdir /data/ollama
Environment="OLLAMA_MODELS=/data/ollama"
```
---
### **常见问题解决**
| 问题现象 | 解决方案 |
|---------------------------|------------------------------|
| `curl: (7) Failed to connect` | 终端配置代理:`export https_proxy=http://IP:port` |
| `Error: create service: dial tcp 127.0.0.1:11434` | 执行 `sudo systemctl restart ollama` |
| 模型下载中断 | 手动下载后放至 `~/.ollama/models/manifests` |
> 关键提示:银河麒麟默认防火墙开启,需放行端口
> ```bash
> sudo ufw allow 11434/tcp
> ```
是否需要补充GPU驱动安装配置或本地模型加载教程?
阅读全文
相关推荐


















