【AI大模型】-- deepseek本地部署

目的

  1. 本地部署deepseek环境
  2. 实现Edge网页上实时聊天
  3. 集成到VScode进行编程
  4. 搭建本地知识库

准备工作

本地环境:机械革命笔记本, window11系统

CPUGPURAM
AMD Ryzen 7,3.2GHzRTX 4060, 8G 显存16GB

本地大模型部署-- ollama

ollama 的安装

ollama官网 下载window版本的ollama,按照使用一般的安装方式,一路next即可,安装之后cmd中输入ollama,如下图所示,即可为安装成功:
在这里插入图片描述
考虑到之后下载的模型都比较大,建议更改模型的存放地址,在系统环境变量中添加OLLAMA_MODELS,其值设置成你希望的文件夹
在这里插入图片描述

ollama 模型下载

在ollama官网选择 deepseek-14bbge-m3
在cmd中直接运行下面两个语句,等待下载完成即可

ollama run deepseek-r1:14b
ollama pull bge-m3

验证是否安装完成,使用 ollama list 查看是否已经存在 对应的模型
官网截图如下:

deepseekbge-m3
在这里插入图片描述在这里插入图片描述
备注:可能本地网络速度不好,可以尝试连入手机热点进行下载

网页版使用本地模型

Edge 扩展插件官网 搜索 Page Assist, 点击“获取”
在这里插入图片描述
在这里插入图片描述
按照上述步骤安装插件后,就可以在浏览器中使用,点击“扩展"中的侧边显示
在这里插入图片描述
浏览器显示如下
在这里插入图片描述
我本地安装了8b和14b两个版本,示例中选择8b版本,打开联网功能后速度会慢一些,至此网页版的deepseek 助手安装完成。

集成到vscode

在vscode的扩展搜索 “contiune”,点击“install”在这里插入图片描述
在出现的侧边栏,配置对话模型,选择ollama,选择Autodetect就会识别到本地安装的模型
在这里插入图片描述
结果如下:
在这里插入图片描述
在这里插入图片描述
‘ctrl+L’ 打开代码生成模式
同样contiune也支持各个模型的API Key
在这里插入图片描述

搭建本地知识库

cherry studio官网 下载对应的window版本,安装之后,在设置的中找到模型设置,
在这里插入图片描述
可以选择本地和云上的API Key, 这里配置云上的硅基流动和本地的ollama,这里主要演示本地知识库,在 知识库一栏添加文件或者本地目录
在这里插入图片描述
在这里插入图片描述
思考的过程中基本上使用了MUST中的相关函数。
最新的cherry studio已经支持联网,通过github的账号直接登录 Tavily AI,获取API Key
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值