- 博客(4)
- 收藏
- 关注
原创 手把手MCP教学-连接本地(Ollama)LLM-构建数据私有的Agent
摘要:本文介绍了如何通过Ollama部署本地LLM模型并与MCP客户端连接,以增强数据隐私性。内容包括:1)下载安装Ollama;2)选择合适的开源LLM模型(如qwen2.5-coder-7b)并安装;3)配置客户端.env文件,设置BASE_URL为本地Ollama地址、指定模型名称及空API_KEY即可完成连接。整个过程简单易操作,适合希望在本地运行LLM的用户。
2025-06-20 15:24:10
572
原创 手把手MCP教学-客户端连接多服务器
为了实现我们的MCP服务端连接多个客户端,我们首先需要增加多一个服务端,这里我增加多一个python文件控制服务器,使得LLM通过天气插件和文件控制插件实现获取天气并以文件形式保存到我电脑中的这样一个多工具使用的能力。)我们学习MCP基础的知识,并实操了服务端和客户端的构建和测试,但这远远不是MCP的能力,MCP协议不仅仅是让LLM能够使用一种工具,而是应该让LLM能够连接多个服务器,使用多种工具。print(f"工具: {tool_name}, 来源服务端: {server_id}")
2025-04-14 17:28:25
1866
4
原创 手把手MCP基础学习和实践
而MCP服务端、服务器、远程服务都是可以自行编写构建的,就像我们平时写应用程序客户端一样,而这里我主要学习的也就是如何自行编写MCP客户端、MCP服务器、如何购机按本地数据源,和构建和连接远程服务,最终构建我们自己的基于LLM和MCP的智能体。服务端开发主要面向想要开发自己MCP插件的开发人员,我们要构建的是现阶段基础LLM无法实现的能力,例如使用地图软件查询路线,天气软件查询天气、评分软件查询评价等等,现在就让我们来尝试使用MCP解决这些问题,然后实践这些服务。
2025-04-12 18:23:44
1304
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人