阅读本文章需要一定的python知识以及docker知识,才能对本文章的步骤进行实践
本项目基于Langchain-chatchat项目,项目地址
不依赖cuda,不需要显卡,因为不加载本地LLM模型,不加载知识库,只是作为线上语言模型API的汇聚调用页面
部署的前置条件
1.本机已经安装有docker
2.需要有线上大模型的API,本文中使用的是chatgpt api 以及glm4 api。
3.Python 版本严格要求3.11.x,这样能减少大量的环境代码问题。
4.访问gpt 的问题以及gpt api如果获取的问题自行解决
操作开始
首先,我们需要在docker拉取官方的python 11.3的容器
docker pull python:11.3
然后下载项目文件