4月15日,可灵大模型2.0版本及可图大模型2.0版本正式面向全球发布。可灵2.0模型在动态质量、语义响应、画面美学等维度,保持全球领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。盖坤介绍,两款模型在团队内部的多项胜负率评测中,均稳居业内第一。例如在文生视频领域,可灵2.0对比谷歌Veo2的胜负比为205%,对比Sora的胜负比达367%,在文字相关性、画面质量、动态质量等维度上显著超越对手。自去年6月发布以来,可灵AI已累计完成超20次迭代。3月27日,全球知名AI基准测试机构Artificial Analysis发布了最新的全球视频生成大模型榜单,快手可灵1.6pro(高品质模式)以1000分的Arena ELO基准测试评分登陆图生视频(Image to Video)赛道榜首。作为全球首个用户可用的DiT视频生成模型,截至目前,可灵AI全球用户规模已突破2200万,累计生成1.68亿个视频及3.44亿张图片素材。自去年6月上线至今的10个月时间里,可灵AI的月活用户数量增长25倍。
(快手高级副总裁、社区科学线负责人盖坤)
盖坤认为,AI在辅助创意表达上拥有巨大潜力,但当前的行业发展现状还远远无法满足用户需求,在AI生成内容的稳定性、以及用户复杂创意的精确传达上仍有“很多挑战”。也因此,要真正实现“用AI讲好每一个故事”的愿景,必须对基模型能力进行全方位提升,定义人和AI交互的“全新语言”。一直以来,可灵AI致力于提升模型基础质量和模型效果,并引入更多创新功能,以满足用户的多样化需求。在本次2.0模型的迭代中,可灵AI正式发布AI视频生成的全新交互理念Multi-modal Visual Language(MVL),让用户能够结合图像参考、视频片段等多模态信息,将脑海中包含身份、外观、风格、场景、动作、表情、运镜在内的多维度复杂创意,直接高效地传达给AI。“大家应该很自然地会感受到文字在表达影像信息时,是不完备的。我们需要有新的方式,能让人真正精准地表达出心中所想。”盖坤指出,MVL由TXT(Pure Text,语义骨架)和MMW(Multi-modal-document as a Word,多模态描述词)组成,能从视频生成设定的基础方向以及精细控制这两个层面,精准实现AI创作者们的创意表达。基于MVL理念,可灵AI正式推出多模态编辑功能。“从今天起,大家可以在可灵AI的平台上体验我们的多模态编辑能力。用户可以非常直接地把自己的想法用图像等方式作为输入,生成符合自己想法的创意视频。”盖坤介绍,MMW(多模态描述词)将不只局限于图片和视频,也可以引入其它模态的信息,例如声音、运动轨迹等,让用户实现更加丰富的表达。02
暂无评论内容