linux安装ragflow
时间: 2025-04-24 07:09:31 浏览: 38
### RAGFlow在Linux上的安装与配置
#### 准备工作环境
为了顺利部署RAGFlow,建议准备一台具有至少4核CPU、8GB内存的Linux服务器。可以选择Ubuntu 20.04或者CentOS 7.9作为操作系统环境[^2]。
#### 部署Docker环境下的Ragflow
对于基于Ubuntu 20.04并通过Docker启动的方式,已经完成了初步设置。这意味着大部分准备工作已经被简化,可以直接进入后续步骤来连接Ollama并进一步配置RAGFlow服务[^1]。
#### 安装Ollama组件
通过命令行工具,在`/opt/`目录下解压之前获取到的Ollama离线安装包。具体操作如下所示:
```bash
[root@localhost opt]# tar -xvf ollama-linux-amd64.tgz
```
确认安装是否成功的简单方法是在终端中键入`ollama`命令查看响应情况。如果显示帮助信息,则说明安装无误。
#### 修改Ollama配置以便外网访问
为了让其他设备也能访问到这台机器上的Ollama服务,需要编辑位于`/etc/systemd/system/ollama.service`的服务配置文件。在此处添加一行`Environment="OLLAMA_HOST=0.0.0.0:11434"`以允许外部请求接入。完成后记得执行以下两条指令使更改生效:
```bash
systemctl daemon-reload
systemctl restart ollama
```
#### 加载预训练模型
最后一步是加载所需的大型语言模型实例,比如DeepSeek-r1。可以通过运行下面这条命令实现快速加载:
```bash
ollama run deepseek-r1:7b
```
这样就完成了整个流程中的模型加载部分。此时应该可以利用已有的API接口来进行简单的问答测试了[^3]。
阅读全文
相关推荐


















