ChatGLM3-6B本地部署及微调-部署

本文详细介绍了在AutoDL云服务器上购买算力、安装配置环境,包括gitlfs、学术加速、HuggingFace代码仓库的克隆与安装步骤。同时提供了解决常见错误的方法,如模型损坏和CUDA环境问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、购买算力服务器

AutoDL:https://www.autodl.com/ 

该云服务器还是很适合我这种穷人的,很多配置(如CUDA)都帮你装好了,不需要你自己去花费很多时间安装,4090两块多一小时

2、先无卡模式登录安装配置环境

3、配置环境

① 安装git lfs

命令:curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

② 设置学术加速 | 下载东西更快

命令:source /etc/network_turbo

拉取chatGLM3-6B代码仓

命令:git clone https://github.com/THUDM/ChatGLM3

④ 进入ChatGLM3目录安装 requirements.txt 内的库(安装前最好先升级一下pip)

升级pip命令:python -m pip install --upgrade pip

然后使用 pip 安装依赖:pip install -r requirements.txt

4、克隆Hugging Face代码仓

① 安装git-lfs:curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

② 检查lfs是否安装:命令:git lfs install

③ 下载本地模型 Hugging Face:https://huggingface.co/THUDM/chatglm3-6b

命令:git clone https://huggingface.co/THUDM/chatglm3-6b (网速慢的话可以参考官方其他方法下载)

④ 如果下载报错443需要再设置学术加速(设置代理):source /etc/network_turbo

⑤ 访问huggingface.co连接超时:更换实例地区,推荐芜湖

5、有卡模式重写启动服务器,最终呈现:

提示:整个过程中会用到两个代码仓githubhuggingface,github上的仓库是存放chatglm3-6b的运行代码的,而huggingface的代码仓中是存放运行所需的模型及模型相关配置文件的。

更简单的部署方法:

实例镜像选择社区镜像:搜索ChatGLM3-6b,选择下图镜像(若需要微调可以使用图中第三个镜像

部署命令操作:CodeWithGPU | 能复现才是好算法

相关报错信息及解决方法:

1、报错信息:RuntimeError: Internal: src/sentencepiece_processor.cc(1101) [model_proto->ParseFromArray

原因:下载的模型有缺失或损坏

解决方法:建议不要使用wget而是使用git下载模型

2、对话时报错:RuntimeError: "addmm_impl_cpu_" not implemented for 'Half

原因:cuda 环境问题

解决方法:修改torch版本:pip install torch==2.0.1

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值