[ComfyUI]官方已支持Skyreels混元图生视频,速度更快,效果更好(附工作流)

一、介绍

昨天有提到官方已经支持了Skyreels,皆大欢喜,效果更好一些,还有GGUF量化版本,进一步降低了大家的显存消耗。

今天就来分享一下官方流怎么搭建,我体验下来感觉更稳了一些,生成速度也更快,不愧是官方。

二、相关模型

要使用官方版的混元视频,你版本要更新到2月19号

然后其他模型很多是通用的,有几个是新的,反正我网盘里面都有提供

首先是大模型,bf16或者fp8的,还有GGUF的回头再说

加速lora:skyreels-i2v-smooth-lora-test-00000350.safetensors

CLIP有2个

VAE一个

三、工作流说明

不复杂,官方的流其实和Flux那一套很像,我一共分5个模块和大家说说

  • 图片处理,尺寸限制
  • 模型加载,各种模型
  • 提示词描述
  • 采样生成视频
  • 视频合并输出

来,今天干货很多,今年AI视频领域要大爆发了,快跟上,付费的工具太贵了,还是多期待这种开源的能起来,这样大家玩AI的成本才能降下来。

图片处理

首先我们要对图片做一些尺寸限制,目前 Skyreels 官方有给出推荐的图片尺寸 544x97,最高帧率是97帧,在这个范围内都可以调整。

所有我这里对宽高做了一些限制,这里面有个很细节的地方,我设置了短边最少是544,高度跟着自适应,这种是适合竖屏的,如果是横屏的你就自己调整一下。

尺寸越大,生成时间越长,关键是显存占用就更多。

我测试了上百次,发现一个问题,之前我用倍数取整8倍,经常会报错下面这个错。

后来我调整到16倍了就不报错了,这个细节大家自己遇到了也可以跟着调整。感觉这个对图片尺寸有一些限制的。

模型加载,各种模型

这里核心就是加载了Skyreels的I2V模型,以及上篇提到的 加速稳定lora,这2个是核心,中间的Patch Sage Attention KJ以及Patch Model Patcher Order你可以隐藏掉。

我这里开启了,是要用到SageAttention注意力量化加速的应用,可以提高视频生成速度。
官网地址:https://github.com/thu-ml/SageAttention

简单的理解,就是保持质量不变,减少生成时间,这个在视频领域还是很重要的。

安装这个,我折腾了好几个小时,这个东西不能在线安装,需要把源码下载下来,本地编译安装,才是最新的SageAttention 2.0.1 版本。

安装对本地的依赖版本要求比较高,我简单的列一下:
官方也给出了基础要求,torch要大于2.3,我是安装2.5.1
CUDA也不能太低,我是安装了12.4

安装步骤如下

git clone https://github.com/thu-ml/SageAttention.git
cd sageattention 
python setup.py install  # or pip install -e .

安装SageAttention之前,需要先安装上了triton,这个之前一篇讲Skyreels的文章说到过。

如果你折腾了半天安装不上,也可以不用,直接参数选择禁用即可。

另外,KJ大佬那边模型也提供了GGUF的模型
https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/tree/main

大家根据自己实际显存大小挑选使用把推荐Q4、Q6都试试看,要使用GGUF,你那你需要安装个GGUF插件。

提示词描述

这个就是常规的提示词模块了,最终接入到InstructPixToPix条件。

要注意的是,这里正负提示词都需要写个FPS-24,听说这样生成的视频质量会好一些。

这里的动画描述词要自己写,我自己额外做了一个高级版本,通过图片反推,再通过DeepSeek R1的思考,直接根据一张图给出了最适合的图片动画描述词。

效果还不错,接入了目前最火的DeepSeek R1的API,免费额度也够我用很久了。

这部分是付费,有需要的到时候再联系我,教你如何接入DeepSeek R1。

采样生成视频

官方版本的采样一共分两次,第一次是增加了一些噪点后采样一次,然后再接一个采样,有个地方设置要注意,这里用了分离Sigmas,值记得要是总步数的一半,比如我们这里只要20步,那前后各10步。

空Latent视频这里的总长度就是帧率,49帧就是大概2秒。

其他设置保持不变即可,最后出的视频再加一个图像调色后就可以生成视频了

到这里后面其实还可以做一些优化,比如补帧、以及后期的视频高清放大,都有方案,以后再慢慢分享,一次分享太多怕大家吸收不过来。

案例演示

下面是几个我通过DeepSeek R1推理模型给出的动画提示词描述,效果感觉比我自己写牛逼多了。

这些都是直接在ComfyUI工作流里面搞定的,都是自动化,非常方便。

蓝色长发如绸缎般轻柔向右侧飘动,发尾泛起细微光点涟漪,鳞片服饰下摆随步伐节奏小幅起伏闪烁,犄角头饰尖端缓慢上下点动,T台两侧人群头部同步小幅度左右转动注视,背景波浪纹路由中心向两侧传递起伏光波,保持CGI材质的光泽流动感与暗色人鱼装束对比,所有动态元素运动轨迹相互牵引,服装高光区域始终维持鳞片结构的数字渲染质感

混元图生视频1

棕色长发末端轻柔向右飘动, 仙女灯串光线柔和明暗起伏, 窗外云层缓慢向左平移, 木地板反光波纹轻微荡漾, 灰色沙发靠垫随呼吸节奏微微下陷, 保持写实摄影质感与极简家居构图

自动写提示词2

黄叶沿弧形轨迹缓慢飘落,白色货车沿路面轻微颠簸前行,轮胎匀速旋转,炊烟呈波浪形向右侧蜿蜒上升,左侧邮箱因震动左右微幅摆动,云层整体向右缓慢平移,树枝末梢随风高频低幅颤动,枫叶在飘落时伴随自转,保持半写实笔触的温暖秋色质感,柏油路面反光点随云影移动明暗交替,二楼窗帘呈现呼吸般的起伏,轮胎扬起的细小尘埃呈螺旋扩散,所有动态元素活动范围严格控制在局部区域。

hunyuan-_00011

打伞少女的长发丝缕向右轻柔飘动,伞面以中心轴缓慢顺时针旋转,绿色植物叶片随伞转动方向起伏摇摆,荧光蝴蝶翅膀高频颤动伴随光粒上升轨迹,地面光晕以呼吸节奏明暗脉动,保持霓虹渐变笔触与柔光弥散效果,禁止人物位移或镜头推拉,所有动态幅度控制在伞面投影区域内

hunyuan-_00018

少女骑行时棕色发丝轻柔后扬,蓝色裙摆随踏板节奏小幅起伏,自行车轮匀速转动辐条闪烁,背景云层缓慢右飘形态缓慢拉伸,海面波纹横向扩散推挤船体轻微上下浮动,保持动漫风格高饱和色块与硬朗轮廓线,禁止镜头移动或比例变化,动态元素仅限发梢10%、裙摆15%、云层20%区域微动。

hunyuan-_00020

四、云端镜像

大家如果没有本地 ComfyUI 环境,或者本地显卡配置低于 16G 的,可以使用嘟嘟部署的仙宫云镜像,可直接加载使用。后续分享的工作流都会更像到镜像中,一周更新一次,方便大学学习。

目前整合了2个镜像,一个是Flux绘图用的,另外一个是针对视频模型的,之所以分开是一些模型兼容问题,分开比较好处理。

今天这个图生视频官方版本案例已经弄到镜像上了,欢迎体验,镜像上我也安装了加速的SageAttention 2.0.1,4秒视频,5分钟就出来了,速度和可灵官方接口差用差不多。

镜像名称:嘟嘟AI绘画趣味学


云平台镜像地址:

https://www.xiangongyun.com/image/detail/d961a7dc-ade3-4bd5-a7c6-92ac49ff5e4b?r=37BCLY

https://www.xiangongyun.com/image/detail/81716d29-4461-4b0b-ba4b-7b9b7dd569d3?r=37BCLY

新用户通过邀请码注册,总共可获得 8 元奖励,体验 4 个小时的 4090 作图时长

五、总结

以上就是ShyReels官方版工作流使用说明了,效果真的越来越好了。

简单版本图生视频工作流是免费分享给大家。

但想要带DeepSeek R1自动生成动画提示词模块的,可以联系我,这个是付费版本的,售价还是39.9,我会发你完整版工作流,再给你一个详细的接入文档,DeepSeek R1目前是主流大模型,接入ComfyUI可以做很多事情。

昨天刚帮一个影视机构搞定批量图生视频工作流,省下了大批成本,可灵目前还是偏贵,现在AI视频开源模型越来越好,我相信以后AI视频的价格是可以打下来的。

AI时代,值得我们去投入时间研究。

技术的迭代是飞快的,要关注最新的消息才不会掉队。​

嘟嘟每天分享最新的ComfyUI技术前沿。​

本篇中的工作流和模型网盘链接:https://pan.quark.cn/s/ab576aa693ab

我是嘟嘟,专注于 AI 绘画以及 AI 工具分享,欢迎来一起交流。​

如果觉得文章有帮助,请帮忙点赞收藏关注一下呦~​

### ComfyUI 像到视频工作流教程 #### 背景介绍 ComfyUI 是一种基于节点编辑器的成式 AI 工具,支持多种插件和扩展功能。它不仅能够高效处理静态成任务,还具备一定的动态内容产能力。通过合理配置工作流,可以利用 ComfyUI 实现从单张或多张成短视频的功能。 #### 动态内容产的关键技术 为了实现像到视频工作流,通常需要结合以下技术和方法: 1. **帧间过渡效果**:可以通过调整参数或使用特定插件,在相邻帧之间创建平滑的转换效果[^2]。 2. **时间序列建模**:借助机器学习模型(如 RIFE 或其他运动估计算法),预测并成中间帧以增加流畅度[^3]。 3. **多节点协作**:在 ComfyUI 的节点环境中,设置多个输入节点分别对应不同的关键帧,并通过逻辑操作符连接这些节点,最终输出连续的画面序列[^1]。 #### 具体实施步骤说明 以下是构建一个简单像转视频工作流的例子: 首先定义好基础框架结构,即确定哪些部分作为固定背景而哪些区域允许变化;接着引入所需素材资源包括但不限于初始静止画面及其变形目标样式等参考资料;再者应用相关滤镜特效增强视觉冲击力同时保持整体风格统一协调一致最后导出成果文件保存下来供后续分享传播之用。 下面给出一段 Python 示例代码用于演示如何自动化批量处理片数据集从而形成连贯动画片段的效果展示给用户观看体验更佳直观明了易于理解掌握要领快速上手实践操作起来得心应手游刃有余毫无压力可言! ```python import comfyui_api as api def create_video_from_images(image_folder, output_path): workflow = api.Workflow() # Add input nodes for each image frame frames = [] for img_file in sorted(os.listdir(image_folder)): node_id = workflow.add_node('LoadImage', {'path': os.path.join(image_folder, img_file)}) frames.append(node_id) # Connect all frame nodes to a sequence generator seq_gen_id = workflow.add_node('SequenceGenerator') for i, frame in enumerate(frames[:-1]): transition_effect_id = workflow.add_node('TransitionEffect', { 'start_frame': frame, 'end_frame': frames[i+1], 'duration': 0.5 # seconds per transition }) workflow.connect(transition_effect_id, 'output', seq_gen_id, f'input_{i}') # Export the final video file exporter_id = workflow.add_node('VideoExporter', {'format': 'mp4'}) workflow.connect(seq_gen_id, 'sequence_output', exporter_id, 'video_input') result = workflow.execute(output_path=output_path) return result['status'] create_video_from_images('/path/to/images/', '/output/video.mp4') ``` 此脚本展示了如何加载一系列像并通过添加过渡效果将其组合成一部完整的影片作品。 --- #### 注意事项 当尝试制作较长或者更高分辨率的作品时可能会遇到性能瓶颈问题因此建议提前做好硬件环境评估准备工作确保设备满足最低运行需求标准以免影响实际创作效率造成不必要的麻烦困扰等问题发。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值