Langchain最小化部署(调用线上大模型API,无本地知识库)

阅读本文章需要一定的python知识以及docker知识,才能对本文章的步骤进行实践

本项目基于Langchain-chatchat项目,项目地址

GitHub - chatchat-space/Langchain-Chatchat: Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with langchain

不依赖cuda,不需要显卡,因为不加载本地LLM模型,不加载知识库,只是作为线上语言模型API的汇聚调用页面

部署的前置条件

1.本机已经安装有docker

2.需要有线上大模型的API,本文中使用的是chatgpt api 以及glm4 api。

3.Python 版本严格要求3.11.x,这样能减少大量的环境代码问题。

4.访问gpt 的问题以及gpt api如果获取的问题自行解决

操作开始

首先,我们需要在docker拉取官方的python 11.3的容器

docker pull python:11.3

然后下载项目文件

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值