3-3.视频生成模型
MoCha:Meta等推出的端到端对话角色视频生成模型
MoCha简介 MoCha是由Meta和滑铁卢大学联合开发的端到端对话角色视频生成模型。它仅需语音和文本输入,无需额外辅助条件,即可生成电影级的多角色对话动画。Mo...
Step-Video-TI2V:阶跃星辰推出的图像到视频生成模型
Step-Video-TI2V简介 Step-Video-TI2V是由阶跃星辰开发的文本驱动图像到视频生成模型。该模型基于300亿参数的Step-Video-T2V进行预训练,通过引入图像条件和...
Open-Sora 2.0:潞晨科技推开源的SOTA视频生成模型
Open-Sora 2.0简介 Open-Sora 2.0是由潞晨科技推出的全新开源SOTA(State-of-the-Art)视频生成模型。该模型仅用20万美元的训练成本,便实现了与全球领先视频...
LanDiff:浙江大学文本到视频生成模型
LanDiff简介 LanDiff是一种新型的文本到视频(Text-to-Video, T2V)生成模型,它通过结合自回归语言模型(LLM)和扩散模型(Diffusion Model)的优势,实现了...
GEN3C:英伟达等推出的新型生成式视频模型
GEN3C简介 GEN3C是由NVIDIA、多伦多大学和向量研究所联合开发的一种新型生成式视频模型。它通过构建一个显式的3D缓存来指导视频生成,实现了精确的相机控制和...
HunyuanVideo-I2V:腾讯推出的可定制化图像到视频生成模型
HunyuanVideo-I2V简介 HunyuanVideo-I2V 是由腾讯开发的一款可定制化图像到视频生成模型,基于强大的 HunyuanVideo 架构。该模型通过图像潜在拼接技术,将静...
Wan 2.1:阿里推出的视频生成大模型
Wan 2.1简介 Wan 2.1 是由阿里云开源的视频生成大模型。它能够根据文本、图像等多种输入信号生成高质量的视频内容,展现了强大的多模态生成能力。该模型基于...
Step-Video-T2V:阶跃星辰开源的文本到视频预训练模型
Step-Video-T2V简介 Step-Video-T2V是由阶跃星辰开源的文本到视频预训练模型,拥有300亿参数,能够生成长达204帧的高质量视频。该模型采用深度压缩的变分自编...
Magic 1-For-1:北京大学等推出的高效视频生成模型
Magic 1-For-1简介 Magic 1-For-1 是由北京大学、Hedra公司和Nvidia联合开发的高效视频生成模型。该模型通过将复杂的文本到视频生成任务分解为文本到图像生成...
InternVideo2.5:南京大学等推出的新型视频多模态大模型
InternVideo2.5简介 InternVideo2.5是由上海人工智能实验室、南京大学和中国科学院深圳先进技术研究院联合开发的新型视频多模态大模型。该模型专注于通过长且...