满血版DeepSeek接入个人知识库,一般电脑也能飞速跑,彻底封神了!

大家好,我是苍何。

继本地部署完 DeepSeek 后,我发现效果并没有想象中出彩,我本地的 AI 没有变成人工智能,偶尔还成了人工智障🐶。

原因都懂,算力就摆在这,况且我电脑还在裸奔😂。

于是之前给大家留的坑,本地训练知识库,就一直耽搁着。

正当我满脸愁容时,偶然看到 Cherry Studio 上线知识库功能,并能支持满血版 DeepSeek 的调用。

我随即吐了一口老痰,起身赶紧出了这一篇教程,给大家分享。

在放教程前,不禁要灵魂拷问下自己?为什么要用 DeepSeek 介入个人知识库?

其实像 DeepSeek 这种大模型,人家是已经用很多公开的或者蒸馏的数据进行训练好了的。

他只会回答他曾经看过的知识(或者联网去查一查网上新数据),但你想让他回答你自己知识库里面的知识,他是做不到的。

但很多时候,无论是个人还是公司,数据并不可能都开放到互联网上去,这样,DeepSeek 就无法学习到了。

所以将 DeepSeek 接入个人知识库的核心逻辑就是:

让 DeepSeek 读取你个人的知识库,然后基于你的知识库来回答问题

这篇文章不需要你有任何编程知识,简单 3 步,就可快速将用DeepSeek接入个人知识库,普通电脑就能跑。

先来看看知识库效果吧,当我向 DeepSeek 提问:“RocketMQ之如何实现定时延时消息”:

回答是基于我的原创 pdf:《RocketMQ从⼊⻔到精通》

在 DeepSeek 回答的最后还会清晰的标注出引用内容出处:

怎么样?效果很炸裂吧?直接起飞,下面我就细致的来说说怎么搭建吧。

Cherry Studio 下载

CherryStudio 你可以理解是大模型客户端,和之前介绍的 Chatbox 一样,但 Cherry Studio 能通过 RAG 知识库增强问答功能,还可以创建智能体。而且颜值我感觉也很好看。

下载也很简单,你可以直接搜索官网后下载,但速度有些感人。

你也可以直接在评论区回复:CherryStudio,享受快速下载(支持 windows 、macos、Linux)。

直接点击下载客户端:

选择自己电脑的版本:

没看到自己电脑版本也不要紧,可以点击选择其他版本下载:

下载完后,打开安装包,你就直接进入到这个界面。

有了大模型的壳子,接下来就可以配置大模型和知识库了。

模型配置

这里需要配置 2 类模型,一类是满血版的通用大模型 DeepSeek,另一个是知识库需要的向量嵌入模型。

嵌入模型主要用于将文本数据转换为向量(Embedding),以便在知识库应用中进行高效匹配和计算。

为了痛快的使用满血版 DeepSeek,这里的 2 种模型就都使用硅基流动的 API 了,反正也还免费🐶

申请 API

这一步之前申请过的小伙伴可直接跳过。

前提是先去申请下 API。不用再找入口了,Cherry Studio 完美集成,点击左下角设置,点击设置获取秘钥:

跳转过来后,需要先简单注册一下:

直接用手机号注册,当然你想要获得免费的 2000 万 Tokens,可以使用我的注册链接,我也能得 2000 万 Tokens,双赢,哈哈哈。

https://cloud.siliconflow.cn/i/Au2P08ty

登录进去后点击左侧的 API 秘钥,再点击新建 API 秘钥:

API 秘钥可以理解成是访问接口的凭证,具有该账户的完整权限。

不出意外,来到新建窗口,随便输入个秘钥名字,比如我的“苍何大狗比的秘钥”。

新建好后,鼠标轻轻的放在这串带星号的上面,轻轻的点击一下复制。

看到有这个提示,就代表复制成功,第一步就算大功告成了。

郑重提醒,秘钥不要给别人用,不然损失的可是你白花花的钱啊。

当然你如果闲来无事,也可以在模型广场看看,有很多的模型,有免费的也有付费的:

其中付费的,看是否可用赠送余额:

比如这种就只能充值钱才可用:

这种,就可以使用充值的和赠送的:

为了将羊毛薅到底,并又能体验满血效果,这里我选择的 2 个模型分别是:

对话模型:deepseek-ai/DeepSeek-R1(免费)
嵌入模型: Pro/BAAI/bge-m3(免费但可使用赠送余额,也相当于免费)

配置秘钥

将复制过来的秘钥直接黏贴在 CherryStudio 中

当然你也可以直接在 CherryStudio 中点击获取一样可以蹦到页面:

但是这里需要@一下官方,点击登录后就蹦到授权,点击按钮没用,这个是个bug,点了几下没反应差点想重启。

所以建议大家还是老老实实打开官网去复制吧。

这都不重要,重要的是你黏贴上之后,用你粗壮的大拇指,轻轻点击一下「检查」:

不出意外的话,过几十秒,上方会显示『连接成功』这四个字。

这样,秘钥就配置好了,有了秘钥,接下来就是要选择我们一开始说的那 2 个模型,幸运的是 deepseek-ai/DeepSeek-R1 模型不用选,系统自带。

所以接下来就是选择下嵌入模型。

选择嵌入模型

同样是刚才的页面,在配置这里滑到底,你会看到有「管理」这两个字。

别犹豫,点击他,然后选择「嵌入」,选择 Pro/BAAI/bge-m3:

这样 2 种模型就配置好了,这可把我高兴坏了,现在可以跟大模型对话了,但并没有结合知识库。

可以发起一个对话试试效果先:

点击助手,选择模型:

随便问一个问题:

不愧是满血,吐字速度还可以,也不带卡的。

创建知识库

接下来,我们需要将本地的知识库放入到 CherryStudio 中,然后 CherryStudio 自动就会调用刚才我们配置好的嵌入模型进行向量检索。

步骤也简单的爆,先点击创建知识库,点击添加:

这里可以选择我们刚配置的强大模型了,不要选错哦,效果好的是我们刚自己配置的。

不出意外的话,创建完后是这样的:

可以选择添加文件、目录、网址、网站、笔记等作为知识库的素材。

需要注意的是文件只支持 pdf、docx、pptx、xlsx、txt、md 格式,不过已经使用大多数的需求了。

这里我先以添加文件来看看, 选择苍何之前写过的 rocketmq 教程来研究研究,看看 AI 能不能惊艳我。

点击打开上传后,接着是会根据刚才选择的嵌入模型自动做的向量化,

添加完文件后,系统会自动进行向量化处理,当显示完成时(绿色 ✓),代表向量化已完成。

我们可以直接在这里搜索知识库,看看效果:

比如我搜索:RocketMQ 之如何实现定时延时消息

可以看到已经从我的知识库中搜索信息了:

目前你可以看到,相当于给我的知识库创建了个索引,但还没结合 AI 的能力,AI 能帮我们索引完后做总结啊。

毕竟我需要的并不仅是索引,我需要你直接基于文档给我答案啊。

使用知识库对话

以上全部前置工作都已经准备完成,就是为了这最后一步的秀一波,话不多说,开始秀。

同样,点击助手,这里为了演示方便,先创建个助手,就命名 RocketMQ 专家吧。

点击新建:

这个助手就一件事,只对我们刚才投喂的知识库生效,但需要开启一个开关,在下方选中知识库提问:

当我问:RocketMQ 之如何实现定时延时消息

经过了一番搜索本地知识库,终于给了我还算不错的回答:

我 14.3 M 的知识库一共花了 226.5 秒时间思考,时间虽然漫长,但是效果我还是很满意的:

这个其实还是通过远程方式给模型思考,并不具备隐私性,并且提问的过程也是消耗 token 的。

可以看到我一次简单的提问,就消耗了 163323 的 token。

这个消耗量还是很巨大的。

不过 2000 万免费 token,也可以用一阵子了。

以上,教程就结束了,不过这种方式的好处就是可以满血版使用 deepseek 的同时,还不用自己搭建向量模型,简单方便。

缺点也显而易见,用 API 会消耗 token,免费的用完了怎么办?还是得充值,这都不是关键,毕竟充点钱能解决问题也很好。

关键是,这种方式会将知识库上传到硅基流动那边,对于保密性强的文档就不那么方便了。

当然如果自己电脑足够优秀,也完全可以本地部署,然后选择本地模型,但理想很丰满,本地这种方式没法跑满DeepSeek,效果可以说一般。

不过出来混嘛,这都不重要,重要的是,你得先出来。。。

先按照教程去跑一跑,基于你自己电脑的知识库,去看看有什么神奇的效果发生。

去让你的知识更好的为你所用。

我想这或许才是本文最大的价值

<think>好的,我现在需要回答用户关于DeepSeek接入知识库的问题。首先,我应该明确DeepSeek是什么。根据之前的回答,它可能是一个智能助手或AI模型,类似ChatGPT。用户想知道如何将DeepSeek接入知识库,或者DeepSeek本身是否具备这样的功能。 接下来,我应该分步骤思考。首先,确认DeepSeek是否支持接入外部知识库。通常,这类AI模型可能需要通过API或者特定的集成方式来实现。如果DeepSeek有官方文档,可能需要参考文档中的接入方法,比如API接口、SDK或者插件系统。 然后,考虑用户可能的场景。用户可能希望用DeepSeek结合自己的私有数据或企业知识库,来提供更专业的回答。这时候,可能需要使用RAG(检索增强生成)技术,或者通过微调模型来适应特定领域的数据。 另外,需要注意权限和数据安全的问题。接入知识库可能需要处理数据隐私,确保授权合法。同时,技术实现上可能需要搭建中间层,处理知识库的检索和与DeepSeek的交互。 如果DeepSeek本身不提供直接接入知识库的功能,可能需要第三方工具或自定义解决方案。例如,使用LangChain等框架来连接知识库和AI模型。或者,如果DeepSeek有开放API,可以编写代码调用其接口,并将知识库的数据进行处理后输入。 还需要考虑知识库的格式和存储方式。比如,结构化数据库、非结构化的文本文件、或者使用向量数据库进行语义检索。不同的存储方式可能需要不同的处理流程。 最后,总结可能的步骤:验证DeepSeek的API支持,设计数据流程,处理数据并集成,测试效果,部署应用。同时,提醒用户关注数据安全和模型调优的问题。 检查是否有遗漏点,比如是否需要认证、费用、技术支持等。可能用户还想知道具体的操作步骤或示例代码,但如果没有更多信息,可能需要保持回答的通用性,并建议查阅官方文档或联系技术支持。</think>DeepSeek(深度求索)是一家专注实现AGI的中国公司,其推出的智能助手和模型(如DeepSeek-R1、DeepSeek Chat等)支持通过知识库增强能力。以下是DeepSeek接入知识库的常见方式和关键信息: --- ### **1. 核心功能:知识库增强** DeepSeek可通过接入外部知识库提升回答的专业性和准确性,典型技术包括: - **RAG(检索增强生成)**:实时从知识库检索相关信息,结合生成模型输出答案。 - **微调(Fine-tuning)**:用特定领域数据训练模型,使其适应专业场景。 --- ### **2. 接入方式** #### **a. 官方API集成** - DeepSeek提供API接口,支持将知识库数据通过以下流程整合: 1. **数据预处理**:清洗知识库数据(如PDF、数据库、文本等)。 2. **向量化**:将文本转换为向量,存储至向量数据库(如Milvus、Elasticsearch)。 3. **检索增强**:用户提问时,先检索知识库相关片段,再输入模型生成答案。 - **适用场景**:企业知识库、实时数据查询、个性化问答系统。 #### **b. 私有化部署** - 对数据安全要求高的场景(如金融、医疗),可部署DeepSeek模型至本地服务器,直接连接内部知识库,确保数据不外流。 #### **c. 第三方工具链** - 通过LangChain、LlamaIndex等框架,将DeepSeek知识库结合,构建定制化AI应用。 --- ### **3. 优势特点** - **多格式支持**:兼容文本、表格、PDF、数据库等多种知识源。 - **低延迟**:优化检索算法,实现毫秒级响应。 - **灵活扩展**:支持动态更新知识库,适应业务变化。 --- ### **4. 应用场景** - **企业客服**:接入产品文档、工单记录,提升客服效率。 - **法律/医疗咨询**:整合专业文献,提供合规建议。 - **教育辅助**:链接教材、论文库,生成定制化学习内容。 --- ### **5. 注意事项** - **数据质量**:知识库的准确性和覆盖面直接影响输出效果。 - **权限控制**:需设置访问权限,防止敏感信息泄露。 - **成本考量**:大规模知识库可能需要较高的计算和存储资源。 --- 如需具体实现方案,建议参考[DeepSeek官方文档](https://deepseek.com)或联系其技术团队获取支持。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员苍何

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值