centos本地部署deepseek
时间: 2025-06-23 16:39:58 浏览: 15
### 在 CentOS 上本地安装和配置 DeepSeek 大语言模型
#### 准备工作
为了成功部署 DeepSeek 模型,在开始之前需要确认系统的环境满足最低需求。目标系统为 CentOS 7.9,硬件资源至少具备 4 核 CPU 和 8GB 运存[^2]。
#### 下载 Ollama 工具
Ollama 是用于管理和运行大语言模型的服务工具,支持多种开源模型的快速部署。以下是具体操作步骤:
1. **安装依赖项**
需要先更新系统包管理器并安装必要的依赖库:
```bash
sudo yum update -y && sudo yum install -y curl wget tar gzip
```
2. **获取 Ollama 可执行文件**
使用 `curl` 或 `wget` 命令从官方地址下载最新版本的 Ollama 安装脚本,并完成安装过程:
```bash
curl https://ollama.ai/install.sh | sh
```
此命令会自动检测当前架构并将适合的二进制文件放置到 `/usr/local/bin/ollama` 中。
3. **验证安装状态**
执行以下指令测试是否正常启动服务端口监听功能:
```bash
ollama version
```
#### 获取 DeepSeek 模型文件
如果设备能够连接互联网,则可以直接通过 Ollama 自动拉取所需的大规模预训练参数;反之则需手动准备离线使用的压缩包形式的数据集。
- 对于有网情况下的简化流程如下所示:
```bash
ollama pull deepseek/r1:latest
```
- 若处于无网络条件下,则按照指引前往指定站点选取对应版本号的目标产物进行单独拷贝至目标机器内部存储路径下[^4]:
主流可选位置包括但不限于以下几个地方之一:
- Hugging Face Hub 页面内的 Releases 分区;
- Official GitHub Repository 的 Assets 列表里寻找 `.bin`, `.json` 类型附件;
- Alibaba Cloud ModelScope Portal 查询关联条目导出 ZIP 归档格式资料。
#### 启动交互界面
当上述准备工作全部完成后即可尝试激活实例化后的虚拟角色来进行实时问答交流活动了!
输入下面这条简单的 shell script 就能立刻开启 session 场景模式啦~
```bash
ollama run deepseek-r1:1.5b
```
此时终端窗口应该切换成等待接收用户提问的状态,任何键盘敲击动作都会被解析传递给后台正在运转中的神经网络结构加以分析处理后再反馈回来显示出来[^3]。
---
### 注意事项
- 如果遇到权限错误或者找不到某些特定组件的情况,请参照官方文档进一步排查解决办法。
- 推荐定期检查是否有新的补丁发布以便及时升级优化性能表现。
阅读全文
相关推荐


















