本地部署Deepseek R1

最近Deepseek R1模型也是彻底火出圈了, 但是线上使用经常会受到各种限制,有时候还会连不上,这里我尝试本地部署了Deepseek 的开源R1模型,具体的操作如下:

首先登陆ollama平台,Ollama.ollama平台是一个开源模型的下载运行网站,首先需要在本地下载ollama软件并安装,直接在ollama主页点击下载安装即可。

下载好后,再下载模型。这里选择deepseek R1

后面选择模型参数,考虑我的DRAM带是16GB且显卡是4060,因此我选择的是14b(十亿)参数的大模型。

下载命令是在命令行窗口输入:

ollama run deepseek-r1:14b

然后就会下载好,下载好后直接使用即可,使用命令是

ollama list
ollama run </model name>

使用结果如下:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值