deepseek本地部署ollama
时间: 2025-02-05 17:07:17 浏览: 96
### 本地部署 DeepSeek Ollama 的方法
#### 安装 Ollama 应用程序
为了在本地环境中部署 DeepSeek R1 模型,首先需要安装 Ollama 应用程序。默认情况下,Ollama 将被安装到 `C:\Users%username%\AppData\Local\Programs\Ollama` 文件夹下[^1]。
如果希望更改这个默认路径,则可以在安装过程中手动调整目标文件夹的位置或将已有的安装目录移动至所需位置。
#### 设置环境变量
完成应用程序的安装之后,应当配置系统的环境变量以便更好地管理和服务于后续操作。具体来说,在 Windows 上可以通过右键单击“此计算机”并选择以管理员权限运行命令提示符来实现这一点:
```shell
setx OLLAMA_HOST 0.0.0.0
setx OLLAMA_ORIGINS *
```
上述两条指令分别用于设定主机地址以及允许跨域资源共享(CORS)[^2]。
#### 下载并启动模型
对于拥有 NVIDIA GeForce RTX 2060 或者其他具有至少 6 GB 显存设备的用户而言,可以直接利用内置工具加载 deepseek-r1:7b 版本的大规模预训练语言模型。这一步骤可通过简单的终端命令完成:
```shell
ollama run deepseek-r1:7b
```
这条命令不仅会触发模型文件(大约占用 4 GB 存储空间)在网络上的获取过程,还会确保其能够顺利地初始化和准备就绪供进一步调用。
#### 配置 Web UI (可选)
为了让交互更加直观便捷,还可以考虑集成一个图形化的前端界面来进行参数调节或是对话测试等工作。例如,可以访问浏览器中的 chatbox ai 并按照指引激活网页版本的服务;在此期间需特别关注 Model Provider、API Host 和 Model 这三个选项的确切填写方式[^3]。
阅读全文
相关推荐


















