本文介绍libtorch下gpu环境的配置,torch、onnx等因为没找到语言模型以及热词的接口,暂时没有实验
wenet官方环境
我们先来看一下官方提供的环境(版本1.0.12)
python=3.8
pytorch=1.10.0
torchvision
torchaudio=0.10.0
cudatoolkit=11.1
libtorch版本在wenet/runtime/core/cmake/libtorch.cmake中查看

如果你使用的是linux系统,默认下载的是支持cu113的libtorch,也就是cuda11
存在问题
那么问题来了,如果你的cuda安装的是10.2的版本怎么办?那么恭喜你,你会遇到下面的错误:

问题分析
这里就涉及兼容性的问题,cuda、libtorch兼容性问题
- libtorch cuda版本不向下兼容
解决方法
修改cmake文件,将对应的LIBTORCH_URL与URL_HASH改为cuda10.2版本
LIBTORCH_URL:"https://download.pytorch.org/libtorch/cu102/libtorch-shared-with-deps-1.11.0%2Bcu102.zip"
URL_HASH:"SHA256=08e1fd93a16e7e3a502dd4415f0d268820674f996dd316346a118197531af44a"
本文详细介绍在LibTorch环境下配置GPU的过程,并针对Wenet官方环境(Python 3.8, PyTorch 1.10.0, CUDA 11.1)中遇到的CUDA版本不兼容问题提供解决方案。当CUDA版本为10.2时,通过修改CMake文件中的LIBTORCH_URL和URL_HASH来解决兼容性问题。
1634

被折叠的 条评论
为什么被折叠?



