ollama 本地安装
时间: 2025-05-16 22:07:47 浏览: 17
### 如何在本地安装 Ollama
#### 安装前准备
Ollama 是一种用于管理和运行大型语言模型 (LLM) 的工具,支持多种模型并提供简单的命令行接口。默认情况下,Ollama 运行于 `http://localhost:11434` 地址[^1]。如果计划将其部署到本地环境中,则需确保满足以下条件:
- **操作系统**: 支持 Linux、macOS 和 Windows。
- **硬件需求**: 推荐至少有 8GB RAM 及 GPU 加速(可选),具体取决于所使用的 LLM 模型大小。
#### 下载与安装过程
以下是针对不同操作系统的安装方法概述:
##### 对于 macOS 用户
可以通过 Homebrew 轻松完成安装:
```bash
brew install ollama
```
##### 针对 Linux 发行版
Linux 上可通过下载二进制文件实现快速安装。以 Ubuntu 为例:
```bash
curl https://ollama.ai/install.sh | sh
```
##### 关于 Windows 平台
Windows 使用者建议通过 PowerShell 执行脚本来简化流程:
```powershell
iwr -useb https://ollama.ai/install.ps1 | iex
```
以上指令会自动配置好环境并将最新版本的 Ollama 添加至 PATH 中以便全局调用[^3]。
#### 启动服务验证
一旦成功安装完毕之后,启动服务来确认一切正常工作:
```bash
ollama serve &
```
此时应该能够看到日志提示服务器已准备好监听端口请求。打开浏览器输入地址栏访问 `http://localhost:11434/` 即可进入交互界面。
#### 增强用户体验选项
虽然基础功能已经足够强大,但为了更便捷地利用这些 AI 功能,还可以考虑集成额外组件比如 OPEN WebUI 提供图形化管理面板;或是构建专属的知识检索系统诸如 Fastgpt、Dify 等项目进一步扩展应用场景。
```python
import requests
response = requests.post(
'http://localhost:11434/api/generate',
json={"model":"dolphin","prompt":"hello"}
)
print(response.json())
```
上述 Python 示例展示了如何向本地运行的服务发送 POST 请求获取回复数据流。
阅读全文
相关推荐


















