银河麒麟桌面版安装ollama
时间: 2025-03-22 14:01:52 浏览: 91
### 如何在银河麒麟桌面版系统中安装配置 Ollama
#### 准备工作
为了成功部署 Ollama,在银河麒麟桌面版系统中需要完成以下准备工作:
- 确保已下载 `install.sh` 脚本、`models` 文件夹以及 `ollama-linux-arm64.tgz` 压缩包[^1]。
- 将上述文件复制到 `/usr/` 目录下。
#### Docker 的安装与配置
由于银河麒麟操作系统默认的软件源可能仅提供较旧版本的 Docker (如 18.x),而运行 GPU 加速功能通常需要更高版本的 Docker (如 19.x 或更新)[^2]。因此,可以按照以下方法解决:
##### 添加 CentOS 8 源并安装 Docker CE
通过添加 CentOS 8 的官方仓库来获取最新版本的 Docker CE:
```bash
sudo tee /etc/yum.repos.d/docker-ce.repo <<-'EOF'
[docker-ce-stable]
name=Docker CE Stable - $basearch
baseurl=https://download.docker.com/linux/centos/$releasever/$basearch/stable
enabled=1
gpgcheck=1
gpgkey=https://download.docker.com/linux/centos/gpg
EOF
```
执行命令以安装 Docker CE 并启动服务:
```bash
sudo yum makecache fast
sudo yum install docker-ce docker-ce-cli containerd.io -y
sudo systemctl start docker
sudo systemctl enable docker
```
验证 Docker 是否正常运行:
```bash
docker --version
```
如果显示的是较高版本号,则说明安装成功。
#### 配置 Ollama 运行环境
将之前准备好的脚本和模型文件放置于指定路径后,继续执行如下操作:
##### 执行安装脚本
进入目标目录并赋予脚本可执行权限后再运行它:
```bash
cd /usr/
chmod +x install.sh
./install.sh
```
此过程会自动解压 `ollama-linux-arm64.tgz` 并设置必要的依赖项。
##### 启动 Ollama 服务
一旦所有组件都就绪,可以通过下面这条指令开启 Ollama:
```bash
ollama serve &
```
测试其是否能够响应请求:
```bash
curl http://localhost:11434/models
```
假如返回 JSON 数据列表表示一切正常运作。
#### 使用 DeepSeek 模型
当确认基础架构搭建完毕之后,加载特定的大规模语言处理模型比如 DeepSeek 成为下一步重点任务之一。假设已经包含了对应预训练权重在内的 models 文件夹内容,那么只需简单调用 API 接口即可实现推理计算等功能支持。
---
阅读全文
相关推荐
















