ollama 启动模型
时间: 2025-02-17 18:13:41 浏览: 104
### 启动 Ollama 模型
为了启动 Ollama 模型,需执行特定命令并确保环境已正确配置。对于不同操作系统,默认情况下模型会存储于特定路径下:
- **macOS**: `~/.ollama/models`[^1]
- **Linux**: `/usr/share/ollama/.ollama/models`
- **Windows**: `C:\Users\%username%\.ollama\models`
#### 修改模型存储位置
如果希望更改默认的模型存储位置,则可以通过设置环境变量 `OLLAMA_MODELS` 来实现这一目标。具体操作如下所示,在此以 Linux 系统为例说明如何通过编辑服务文件来持久化该变更。
```bash
vim /etc/systemd/system/ollama.service
```
在 `[Service]` 部分下的 Environment 中添加新的环境变量:
```ini
Environment=OLLAMA_MODELS=/path/to/custom/model/directory;
```
保存更改后重新加载 systemd 并重启 ollama 服务使新配置生效:
```bash
sudo systemctl daemon-reload
sudo systemctl restart ollama
```
#### 启动与停止 Ollama 大规模模型的服务
要启动大规模模型的服务,可以使用简单的命令行指令完成这项工作:
```bash
ollama serve
```
当不再需要运行这些服务时,可通过查询正在使用的进程列表找到对应条目,并终止它们。这通常涉及到定位到具体的 PID 号码之后再调用 kill 命令来进行处理[^2]。
对于 AutoDL 容器化的环境中,只需简单导出所需的环境变量即可让改动即时应用至当前 shell 实例内;不过需要注意的是这种方式只会在本次终端会话期间有效[^3]:
```bash
export OLLAMA_MODELS="/your/path"
```
阅读全文
相关推荐


















