Ubuntu安装配置Ollama并运行大模型

1、下载安装

Ollama 是一个开源项目,可以使用官网Download Ollama on Linux推荐的脚本方式安装:

不过试过多次下载失败。

于是直接访问github地址https://github.com/ollama/ollama/releases下载对应芯片架构的 release 包后进行手动安装,最新版本为0.9.0:

可以使用以下命令进行解压缩并拷贝到系统目录中:

sudo tar -C /usr -zxvf ollama-linux-amd64.tgz

这样就直接部署完成了,可以使用ollama -v命令查看安装版本进行验证。

2、创建 Ollama 用户及系统服务

出于安全性、隔离性和系统管理的考虑,需要创建 ollama 用户,执行以下命令:

# 新增用户
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
# 修改用户信息
sudo usermod -a -G ollama $(whoami)

创建系统服务 service 文件:

# 编辑文件
sudo gedit /etc/systemd/system/ollama.service

文件内容如下:

# 文件内容
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_PORT=11434"
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

使用下列命令启动或配置Ollama:

# 重载配置
sudo systemctl daemon-reload
# 启动服务
sudo systemctl start ollama.service
# 查看服务状态
sudo systemctl status ollama.service
# 设置服务开机自启动
sudo systemctl enable ollama.service

3、下载运行LLM大模型

在Ollama官网搜索大模型,复制运行命令,如:

下载运行qwen2.5-0.5b大模型命令为:

ollama run qwen2.5:0.5b

下载完成后就可以输入对话了。

<think>好的,我现在需要帮助用户在Ubuntu系统中安装Ollama运行大模型。首先,我得回忆一下自己之前了解的相关信息,比如用户提到的引用内容。引用[1]和[2]提到两种安装方式:直接安装和压缩包安装,还有修改模型保存路径和配置服务的步骤。 首先,用户的问题是如何安装Ollama运行大模型。我需要确保步骤正确且符合最佳实践。根据引用[1],有两种安装方法,直接安装可能更方便,但压缩包安装适合需要自定义路径的情况。用户可能需要选择其中一种方式,所以需要分步骤说明。 然后,安装完成后如何运行。可能需要启动服务,比如使用systemctl命令。引用[2]提到了刷新配置和重启服务,这部分需要整合到步骤中,确保用户安装后能正确启动服务。 接下来是运行大模型的部分,比如下载模型执行。需要给出示例命令,比如ollama run llama2,这样用户可以直接复制使用。同时,用户可能需要修改模型保存路径,引用[2]中的步骤可以放在相关问题里,或者作为可选步骤。 另外,要注意权限问题,可能需要使用sudo,特别是在安装和修改系统服务的时候。需要提醒用户注意权限,避免因权限不足导致安装失败。 还需要检查步骤之间的逻辑,比如先安装,再配置服务,然后运行模型。确保每个步骤都清晰,用户不会混淆。如果有多个安装方法,需要分开说明,避免混淆。 最后,生成相关问题,帮助用户深入解决可能遇到的后续问题,比如性能优化、路径修改等。这些问题需要基于用户可能的需求,比如如何修改模型路径,如何更新Ollama,或者如何选择适合的模型。 在整理回答时,要使用中文,保持步骤简洁,代码块用正确的格式,行内公式用$符号,独立公式用$$,但在这个问题中可能用不上数学公式,不过要确保其他格式正确。同时,引用标识要放在对应的步骤后面,比如安装步骤参考引用[1],修改路径参考引用[2]。 可能还需要验证命令的正确性,比如curl命令的URL是否正确,服务名称是否正确,是否存在拼写错误。例如,ollama.service是否正确,是否在systemctl中存在。 总结下来,步骤大概是: 1. 安装Ollama的两种方法。 2. 配置和启动服务。 3. 运行大模型的示例。 4. 可选的自定义路径步骤。 然后相关问题围绕安装后的配置、优化、模型选择等展开。 需要确保每个步骤都有对应的引用标注,且语言自然,用户容易理解。</think>在Ubuntu系统中安装Ollama运行大模型可分为以下步骤: ### 1. 安装Ollama **方法一:直接安装** ```bash # 下载安装脚本执行 curl -fsSL https://ollama.com/install.sh | sh ``` 此方式会自动配置系统服务`ollama.service`,安装后默认模型存储路径为`/usr/share/ollama/.ollama`[^1]。 **方法二:压缩包安装(自定义路径)** ```bash # 下载压缩包 wget https://ollama.com/download/ollama-linux-amd64.tar.gz # 解压到指定目录(例如/home/user/ollama) tar -xzf ollama-linux-amd64.tar.gz -C /home/user/ollama ``` 需手动创建服务脚本(参考下文配置服务)[^1]。 --- ### 2. 配置启动服务 ```bash # 创建开机启动脚本(方法二需手动配置) echo "[Unit] Description=Ollama Service After=network.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always [Install] WantedBy=multi-user.target" | sudo tee /etc/systemd/system/ollama.service # 刷新配置启动 sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama # 检查状态 sudo systemctl status ollama.service ``` 若状态显示`active (running)`,表示服务已启动[^2]。 --- ### 3. 运行大模型 ```bash # 下载运行模型(如llama2) ollama run llama2 ``` 首次运行会自动下载模型文件,下载完成后可通过输入提示词与模型交互。 --- ### 4. (可选)修改模型保存路径 若需更改默认存储路径: ```bash # 编辑服务配置文件 sudo nano /etc/systemd/system/ollama.service # 在[Service]部分添加环境变量 Environment="OLLAMA_MODELS=/new/path/models" # 重启服务生效 sudo systemctl restart ollama ``` 修改后新下载的模型将保存在`/new/path/models`[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

will.hu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值