wan2.1
时间: 2025-05-19 12:12:52 浏览: 46
### WAN 2.1 配置与版本相关信息
WAN 2.1 是一种基于扩散模型的技术框架,主要用于图像和视频生成任务。以下是关于其配置和版本的相关信息:
#### 下载与部署
为了实现本地化部署,用户可以通过 Hugging Face 平台获取必要的文件资源。具体而言,Diffusion Models 的下载链接为:
`https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/diffusion_models/wan2.1_i2v_480p_14B_fp16.safetensors`[^1]。
此外,VAE 文件同样可通过以下 URL 获取:
`https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/vae/wan_2.1_vae.safetensors`[^2]。
这些文件构成了 WAN 2.1 运行的核心组件,确保在本地环境中能够正常加载预训练权重并执行推理操作。
#### 版本特性
针对 Windows 系统下的 Wan 2.1 视频生成模型部署流程已有所优化[^2]。通过 Python 脚本 `generate.py` 可以调用特定参数完成高质量的内容创作。例如,在命令行中运行如下脚本即可生成一段描述中式花园场景的小猫视频[^3]:
```bash
python generate.py \
--task t2v-1.3B \
--size 832*480 \
--ckpt_dir ./Wan2.1-T2V-1.3B \
--offload_model True \
--t5_cpu \
--sample_shift 8 \
--sample_guide_scale 6 \
--prompt "两只迷你可爱小猫咪,背景在中式花园,黄白相间的毛发" \
--save_file D:\wan2.1\out.mp4
```
上述代码片段展示了如何利用 WAN 2.1 实现从文本到视频的任务转换(Text-to-Video)。其中涉及的关键选项包括但不限于:
- **Task**: 定义具体的生成任务类型;
- **Size**: 输出分辨率设置;
- **Ckpt_Dir**: 指定检查点目录路径;
- **Offload_Model & T5_CPU**: 控制硬件加速策略以及 CPU/GPU 使用情况;
- **Prompt**: 输入提示语句用于引导 AI 创作方向。
综上所述,WAN 2.1 不仅提供了强大的多模态处理能力,还兼顾了易用性和灵活性特点,非常适合科研探索或者实际应用开发需求。
---
阅读全文
相关推荐
















