常用网站
本地部署Deepseek
deepseek现在限制用户4个小时用一次深度思考,如果想要一直使用这个功能,可以选择本地部署Deepseek
安装Ollama
ollama是一个可以在本地部署和管理开源大语言模型的框架
在Linux执行curl命令,自动去下载ollama
curl -fsSL https://ollama.com/install.sh | sh
mac则直接下载即可
Ollama下载Deepseek模型
在ollama官网中的modoule模块中找到deepseek
根据自己电脑配置下载对应的模型
比如我的mac是8g运存,我就只能下1.5billon数据量的模型
ollama run deepseek-r1:1.5b
配置checkbox
下载chatbox
打开一个新对话并且设置使用哪个模型
设置完成即可正常对话
但是由于数据量太少,用起来傻乎乎的 所以可能需要用更好的显卡