linu 安装ragflow
时间: 2025-02-13 14:20:16 浏览: 187
### 安装和配置 RAGFlow
#### 准备工作环境
为了在 Linux 系统上顺利安装和配置 RAGFlow,建议先确认操作系统为 Ubuntu 20.04 或更高版本,并确保已安装 Docker。
#### 获取 RagFlow 源码
通过 Git 命令获取 RagFlow 的源代码仓库[^3]:
```bash
git clone https://github.com/infiniflow/ragflow.git
```
#### 构建与启动 Docker 镜像
进入克隆下来的项目目录,按照官方说明构建预构建的 Docker 镜像并启动服务:
```bash
cd ragflow
# 执行构建命令
docker-compose up -d --build
```
这一步骤会自动拉取必要的依赖项并创建所需的容器来运行 RagFlow 应用程序。
#### Ollama 大规模模型集成
对于希望连接大规模语言模型的需求,可以通过安装 Ollama 来实现这一目标。Ollama 是一款支持多种大型语言模型的服务框架,适用于增强 RagFlow 功能[^1]。
##### 下载与安装 Ollama
前往官方网站提供的链接下载适合 Linux 平台的二进制包,并依照提示执行安装脚本[^2]:
```bash
curl -fsSL https://ollama.com/install.sh | sh -
```
验证安装是否成功的简单方法是在终端中键入 `ollama` 查看帮助信息或状态输出。
##### 修改 Ollama 访问设置
为了让其他设备也能访问本地部署好的 Ollama 实例,需要编辑其 systemd service 文件以允许外部网络请求到达指定端口:
```bash
sudo vim /etc/systemd/system/ollama.service
```
找到 `[Service]` 节下的 Environment 参数部分,追加如下行:
```
Environment="OLLAMA_HOST=0.0.0.0:11434"
```
保存更改后重新加载守护进程配置并重启服务使新设定生效:
```bash
sudo systemctl daemon-reload && sudo systemctl restart ollama
```
#### 加载 DeepSeek-r1 模型
最后,在完成了上述准备工作之后,就可以利用 Ollama 工具轻松加载特定的大规模语言模型实例了。例如要加载名为 "deepseek-r1" 的 7B 版本模型,则只需一条简单的指令即可完成操作:
```bash
ollama run deepseek-r1:7b
```
此时应该已经可以在系统内正常调用该模型来进行各种自然语言处理任务了;同样地,也可以随时查询当前可用的所有模型列表:
```bash
ollama list
```
阅读全文
相关推荐
















