阿里巴巴周四在声明中,该公司发布了最新的开源人工智能模型,只需要提供两张照片作为首帧和尾帧便能自动生成视频。该模型基于该公司的Wan2.1基础模型架构,为短视频创作者提供了更高的创作自由度。这款被称为Wan2.1-FLF2V-14B的模型可在HuggingFace、GitHub以及阿里云的魔搭社区找到。用户可在通义万相官网上免费制作时长5秒的视频。
阿里巴巴升级开源AI模型 支持输入首尾帧生成视频
阿里云在2月开源了4个Wan2.1模型,吸引了220万次下载。Wan2.1系列是首个能够生成中英文字幕的视频模型,在VBench榜单上名列前茅。