ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。
本机显卡只有6G(GTX 1660 Ti),所以刚好可以使用,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存),可以去下面参考链接下载对应模型
参考:https://huggingface.co/THUDM/chatglm-6b-int4
https://github.com/THUDM/ChatGLM-6B
安装环境
1、安装对应cuda 版本的torch包
** CUDA 11.3
pip install torch==1.12.1+cu113 torchvision==0.13.1