linux 安装 ollama 太慢
时间: 2025-05-06 17:53:58 浏览: 36
### 加快 Ollama 在 Linux 上的安装速度
为了提高 Ollama 在 Linux 系统上的安装效率,可以通过以下方法实现:
#### 使用加速链接下载 Ollama 压缩包
官方提供的 `curl` 安装脚本在国内网络环境下可能会遇到连接缓慢或中断的情况。因此,建议使用经过验证的加速链接来替代默认的下载地址。通过执行以下命令可以直接获取并保存完整的 Ollama 文件[^1]:
```bash
curl -L https://gh.api.99988866.xyz/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
```
此命令中的 `-L` 参数用于自动跟随重定向请求,从而确保文件能够被正确下载。
#### 手动解压与配置
下载完成后,需手动解压该 `.tgz` 文件至目标目录,并赋予其可执行权限。具体操作如下所示:
```bash
tar zxvf ollama-linux-amd64.tgz
chmod +x ./ollama
sudo mv ./ollama /usr/local/bin/
```
上述步骤分别完成了文件解压、设置执行权限以及将二进制程序移动到全局路径的操作。
#### 利用 GPU 提升性能
如果计划在实际应用中充分利用硬件资源,则需要确认系统已正确安装 NVIDIA 驱动及相关 CUDA 工具链。Ollama 支持基于 GPU 运行大型语言模型的能力,这可通过简单的安装流程激活[^2]:
```bash
nvidia-smi # 检查显卡驱动状态
```
当检测结果显示正常时,后续加载诸如 DeepSeek 或其他预训练模型的过程将会显著提速。
#### 下载特定模型优化体验
除了基础框架外,还可以提前指定所需使用的模型版本以减少不必要的等待时间。例如,在线程提到过 gemma:7b 和 qwen:1.8b 是两个表现优异的选择[^3]。它们均具备较高的推理精度同时兼顾较低内存占用率的特点。要完成这些模型的本地化存储只需依次运行下列语句即可:
```bash
ollama pull gemma:7b
ollama pull qwen:1.8b
```
以上措施综合考虑了网络条件限制因素及软硬件协同工作的需求,旨在帮助用户更高效地完成整个部署工作流。
阅读全文
相关推荐
















