linux环境下deepseek本地部署
时间: 2025-02-18 13:39:18 浏览: 90
### 创建虚拟环境并安装依赖
为了确保项目的独立性和稳定性,在DeepSeek项目目录下,执行如下命令创建虚拟环境:
```bash
python3 -m venv deepseek-env
```
激活该虚拟环境之后,依据`requirements.txt`文件中的列表来安装必要的Python包[^1]。
```bash
source deepseek-env/bin/activate
pip install -r requirements.txt
```
### 安装Ollama工具
对于Linux系统的用户来说,可以通过APT软件包管理器轻松地安装Ollama。具体操作为使用管理员权限运行下面这条命令:
```bash
sudo apt update && sudo apt install ollama
```
一旦安装过程结束,就可以准备开始部署DeepSeek模型了[^2]。
### 启动Ollama服务与拉取DeepSeek模型
启动Ollama的服务端口以便能够管理和调度不同的AI模型实例。此步骤可通过简单的命令实现:
```bash
ollama serve &
```
这里使用的后台进程符号(&),可以让服务器在提交请求后继续运行而不阻塞当前shell会话。
随后,利用特定于DeepSeek的pull子命令获取目标版本的预训练权重和其他资源。比如要加载70亿参数规模的小型化变体,则应这样调用:
```bash
ollama pull deepseek-r1:7b
```
上述动作将会触发从远程仓库到本地缓存的数据同步流程,期间可能会消耗一定的时间视乎互联网连接状况和个人机器性能而定[^3]。
### 运行DeepSeek应用
完成以上准备工作以后,便可以尝试启动应用程序来进行初步测试或者投入实际业务场景当中去了。通常情况下,如果一切正常的话,只需简单地发出run指令加上之前指定过的标签名即可:
```bash
ollama run deepseek-r1:7b
```
这将使得选定的DeepSeek模型进入工作状态,并按照预期提供预测功能或其他交互式体验。
阅读全文
相关推荐


















