windows11 本地安装部署Qwen2.5-VL详细介绍

windows11 本地部署Qwen2.5-VL

多模态大模型已成为未来趋势,结合国内开源大模型情况,选择Qwen2.5-VL作为案例分析,详细介绍如何在本地部署Qwen2.5-VL,显卡较小这里以3B进行适配。

环境搭建

主要参数说明:

conda create -n Qwen25VL python==3.10
显卡:RTX3060
cuda:12.4
cudnn:8.9.6.50
torch-2.4.1+cu124-cp310-cp310-win_amd64
torchvision-0.19.1+cu124-cp310-cp310-win_amd64

在这里插入图片描述

下载工程,安装必要依赖

下载工程

1、conda activateQwen25VL 
2、git clone https://github.com/QwenLM/Qwen2.5-VL

安装依赖

1、安装torch-cu124、安装torchvision
在线安装由于网络问题,会很慢,我这里先离线下载然后安装
pip intstall torch-2.4.1+cu124-cp310-cp310-win_amd64.whl
pip install torchvision-0.19.1+cu124-cp310-cp310-win_amd64.whl
2、pip install -r requirements_web_demo.txt
如果安装这里出现error,后面问题及解决办法

运行

1.1、python web_demo_mm.py --checkpoint-path “Qwen/Qwen2.5-VL-3B-Instruct”
1.2、在vscode 中配置环境,然后运行

2 本地运行:http://127.0.0.1:7860

问题及解决办法

1、安装torch版本冲突问题
首先要确保cuda是12x,如果之前cuda是11x,最好升级一下,安装过程中会出现版本不一致问题,这里建议少走弯路,直接参考博主。
2、pip install -r requirements_web_demo.txt 报错
Collecting git+https://github.com/huggingface/transformers.git (from -r requirements_web_demo.txt (line 8)) 。这里是无法访问git地址
解决办法:注释掉line8 行 ,本地离线下载,然后放进工程里面,进入transformer ,然后输入:pip install .
3、运行过程中能跑起来,但是_queue.Empty
解决办法:检测torch ,是不是cpu 版本,理论上应该是gpu版本
4、web_demo_mm.py 运行报错 OSError: We couldn’t connect to ‘https://huggingface.co’ to load the files。(–checkpoint-path)
解决办法:离线下载 Qwen\Qwen2.5-VL-3B-Instruct
地址:https://huggingface.co/Qwen/Qwen2.5-VL-3B-Instruct/tree/main

### 如何在本地部署 Qwen2.5-VL 为了在本地成功部署 Qwen2.5-VL,可以遵循以下指南: #### 准备环境 确保已安装 Python 和必要的依赖库。对于加速推理过程,建议安装 `vllm` 工具。 ```bash pip install vllm ``` #### 下载模型文件 通过 ModelScope 平台下载指定版本的 Qwen2.5 模型至本地目录。针对视觉语言(VL)模型,命令如下: ```bash modelscope download --model=Qwen/Qwen2.5-VL --local_dir=./Qwen2.5-VL ``` [^2] #### 启动服务端口 利用 `vllm` 提供的服务启动接口来加载刚刚下载好的 VL 版本模型,并开启 HTTP API 服务器监听特定端口号上的请求。 ```bash python -m vllm.entrypoints.openai.api_server \ --model ./Qwen2.5-VL \ --host 0.0.0.0 \ --port 8000 ``` [^1] 此操作将会使计算机成为一台能够接收来自外部调用者发送过来 JSON 请求形式输入数据并通过 RESTful API 返回处理后的响应消息的小型云端实例。 #### 测试连接情况 确认上述步骤无误之后,在另一终端窗口里执行 curl 或 Postman 等工具发起测试性质的数据交互尝试,验证整个流程是否通畅有效。 ```bash curl http://localhost:8000/v1/completions \ -H "Content-Type: application/json" \ -d '{"prompt": "你好", "max_tokens": 10}' ``` 以上即是在个人电脑上完成 Qwen2.5-VL 部署的大致方法论概述;当然实际应用场景下可能还会涉及到更多细节配置项调整以及安全策略考量等问题待解决。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值