WAN2.1 V3版 - 阿里万相2.1视频生成模型,4G显存可用,支持LoRA,支持批量 支持50系显卡 本地一键整合包下载
阿里万相(WAN 2.1)是阿里巴巴推出的多模态大模型,专注于视频生成(文生视频和图生视频)与编辑领域。作为WAN系列的升级版本,它在生成质量、控制能力和应用场景上均有显著提升。目前开源视频生成领域最好的模型,没有之一。
今天分享的WAN2.1 V3版基于国外大佬 FurkanGozukara 的webui打包整合,修复了上个版本几个报错问题,支持最50系显卡,支持文生视频、图生视频及视频生成视频等功能。FurkanGozukara在原版Wan2.1的基础上整合优化,支持最小4G显存实现视频生成功能,且不需要ComfyUI复杂的工作流。新增LoRa的支持,加入Teacache加速,支持批量生成,以及多个实用扩展功能。
WAN 2.1的核心特点
多模态输入支持支持文本、图片、草图、音频等多模态输入生成视频,用户可通过灵活的组合方式控制内容生成。 例如:上传一张静态图片+文本描述,即可生成动态视频。
高分辨率与长视频生成可生成1080p及以上分辨率的视频,并支持生成更长的连贯片段(相比早期版本)。 通过时序建模优化,减少帧间闪烁问题。
精细化控制提供细粒度的运动控制(如物体运动轨迹、镜头运镜)和风格控制(如写实、卡通、水墨等)。
支持对生成视频的局部编辑(如替换特定物体或背景)。 中文场景优化针对中文文化和本土化需求(如古风、节日主题)进行了数据训练和优化。
商业化集成与阿里云生态深度整合,提供API接口,便于企业快速部署到电商、广告等场景。
应用领域
电商与广告自动生成商品展示视频(如服装动态穿搭、家电功能演示)。 定制化广告内容(根据用户画像生成个性化视频广告)。
短视频与社交用户通过文本或图片快速生成UGC内容(如抖音/B站创意视频)。
虚拟主播/数字人视频生成。 影视与设计辅助分镜生成、特效预演,降低制作成本。 古风、动漫等风格化视频创作。
教育与企业服务将课件/说明书转换为动态视频,提升信息传达效率。
使用教程:(建议N卡,显存4G起。基于CUDA12.8)
和之前的Wan操作类似,最简单的操作就是,输入提示词,支持大语言模型增强提示词(基于Qwen2.5-3B),选择模型,最后生成。
图生视频类似,上传图片,选择模型,输入提示词,生成。
虽然4G显存可以玩,但参数都拉到最低,效果一般。建议显存8G起,可选参数更丰富。因部分处理转移到内存,所以图生视频建议内存(RAM)32G起,否则会很慢。
这个版本的webui扩展功能很丰富,但之前玩过视频生成的一看就能立刻上手。小白需要一段时间摸索,后期会出一期视频教程介绍。
注.因模型较大,一共加起来100多G,故默认只打包1.3B文生视频模型,其他14B文/图生视频模型请根据需要自行下载,直接点击一键包内的对应型号模型下载即可。
下载过V2版的,可以直接将V2版的models文件夹拷贝过来。
下载地址:
迅雷云盘:https://pan.xunlei.com/s/VOOlQG80YdubhdMd9PHNzs5iA1?pwd=jxs5
百度网盘:**** 本内容需购买 ****
解压密码:https://deepface.cc/ 复制这个完整的网址即是解压密码,不要有空格,复制粘贴即可
生成速度如何?跟FramePack V4版比 有优势吗 jerryleee1 发表于 2025-4-26 16:52
生成速度如何?跟FramePack V4版比 有优势吗
也是看显卡,比FP慢 无言以对 发表于 2025-4-26 17:04
也是看显卡,比FP慢
大佬,生成的效果呢?哪个效果更好些啊 感谢分享。 老大,补帧提示没有这个F:\AI\Wan2.1-V3\Wan2.1-V3\deepface\python.exe: can't open file 'F:\\AI\\Wan2.1-V3\\Wan2.1-V3\\Practical-RIFE\\inference_video.py': No such file or directory 用最新的 wan2.1-fun 替换这个好了, 感谢分享!:loveliness: 没有加载lora的选项么 To create a public link, set `share=True` in `launch()`.
WAN 2.1 14B Image-to-Video 720P
WAN 2.1 14B Image-to-Video 720P
Checking if pipeline needs clearing...
Pipeline config not changed or pipeline is None. No clearing needed.
Loading model: 14B_image_720p with torch dtype: torch.bfloat16 and num_persistent_param_in_dit: 5500000000
Loading models from: models\Wan-AI\Wan2.1-I2V-14B-720P\models_clip_open-clip-xlm-roberta-large-vit-huge-14.pth
model_name: wan_video_image_encoder model_class: WanImageEncoder
The following models are loaded: ['wan_video_image_encoder'].
Loading models from: ['models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00001-of-00007.safetensors', 'models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00002-of-00007.safetensors', 'models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00003-of-00007.safetensors', 'models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00004-of-00007.safetensors', 'models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00005-of-00007.safetensors', 'models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00006-of-00007.safetensors', 'models\\Wan-AI\\Wan2.1-I2V-14B-720P\\diffusion_pytorch_model-00007-of-00007.safetensors']
model_name: wan_video_dit model_class: WanModel
This model is initialized with extra kwargs: {'has_image_input': True, 'patch_size': , 'in_dim': 36, 'dim': 5120, 'ffn_dim': 13824, 'freq_dim': 256, 'text_dim': 4096, 'out_dim': 16, 'num_heads': 40, 'num_layers': 40, 'eps': 1e-06}
还是不行啊老大,卡在这边不动了。不管是Text2Video 还是 Image2Video都是。