4月15日,快手旗下的可灵AI宣布基座模型再次升级,正式发布可灵2.0视频生成模型及可图2.0图像生成模型。
快手高级副总裁、社区科学线负责人盖坤在可灵2.0模型发布会上介绍,可灵2.0大师版在语义响应、动态质量、画面美学等方面显著提升生成效果。可灵2.0大师版全面升级视频及图像创作可控生成与编辑能力,上线全新的多模态视频编辑功能,能灵活理解用户意图,支持对视频内容实现增、删、改。
可灵AI2.0到底有多“灵”?我们一起来一探究竟!
语义响应能力显著提升
可灵2.0在语义响应方面取得了显著进步。其能够更精准地理解用户输入的文本指令,并生成与之高度匹配的视频或图像内容。这意味着,用户可以通过更自然、更复杂的语言描述来指导AI创作,从而获得更符合预期的作品。
例如,用户可以详细描述一个场景的氛围、角色的动作和情感,可灵2.0能够准确地将这些元素融入生成的内容中。
“男人先是开心地笑着,突然变得愤怒,手锤桌子起身。”
动态质量优化
在动态质量方面,可灵2.0实现了质的飞跃。其生成的视频在运动流畅性、时序连贯性和运镜效果上都有了显著提升。无论是复杂的动作场景还是细腻的情感表达,可灵2.0都能以更自然、更逼真的方式呈现。
“恐龙朝着镜头冲过来,运动模糊,镜头抖动。”
画面质感升级
可灵2.0在画面质感上也进行了全面优化。其生成的图像和视频在色彩、光影效果和细节表现上更加出色。可图2.0图像生成模型在指令遵循、电影质感及艺术风格表现等方面也显著提升,能够生成具有电影级质感的图像。
“女孩从静坐在公园长椅上,到慢慢走出画面,晨光逐渐转为正午烈日再过渡至暮色,天空色彩从粉橙渐变为湛蓝再转为紫红,来往行人形成流动的虚影轨迹固定镜头,突出光影在长椅木纹上的缓慢爬行,飘落的树叶在长椅下堆积又随风卷起。”
据了解,当前视频生成主要分文生视频和图生视频两种,快手副总裁、可灵AI负责人张迪就披露,85%的视频创作通过图生视频完成。
而在盖坤的演示中,通过MVL方式,用户能够结合图像参考、视频片段等多模态信息,将脑海中的多维度复杂创意传达给AI,而不仅仅是文字的提示语句。
“一个吟游猫诗人,在酒馆中,唱着属于自己的故事,而且,弹吉他的手,还会按和弦。”
“一个看着专业但是却是菜鸡的跳水。”
“女孩刚进行完一场演出,向大家,诚恳的鞠了一躬。”
“第一视角,在开车,是真实的开车。”
“轻声哭泣的外星人。”
有网友评论称:
“看完可灵2.0发布会,我身边形成了激进派和保守派,激进派觉得可灵2.0已经是世界领先了,保守派觉得激进派太保守了……”
“可灵的使用感至少是top3。”
“这甚至比导演拍得还好。”
“可灵生成视频的功能可灵了”
“AI进步太快了。”
还有X上的网友称,“可以拿来做短剧了。”