3-3.视频生成模型
LiveCC:新加坡国立大学联合字节推出的视频大语言模型
LiveCC项目简介 LiveCC是由新加坡国立大学Show Lab和字节跳动联合开发的新型视频大语言模型(Video LLM)。该模型通过大规模的流式语音转录(ASR)数据进行训...
SkyReels-V2:昆仑万维SkyReels团队推出的无限时长电影生成模型
SkyReels-V2项目简介 SkyReels-V2是由Skywork AI团队开发的无限长度电影生成模型,旨在突破现有视频生成技术在视觉质量、运动动态和持续时间上的限制。该模型...
Seaweed-7B:字节跳动推出的视频生成基础模型
Seaweed-7B简介 Seaweed-7B是由字节跳动公司开发的一款视频生成基础模型,拥有约70亿参数。该模型由字节跳动的研究团队精心打造,旨在以较低的计算成本实现高...
SkyReels-A2:昆仑万维推出的可控视频生成框架
SkyReels-A2简介 SkyReels-A2是由昆仑万维推出的可控视频生成框架,它能够将任意视觉元素(如角色、物体、背景)组合成合成视频,同时基于文本提示生成视频,...
MoCha:Meta等推出的端到端对话角色视频生成模型
MoCha简介 MoCha是由Meta和滑铁卢大学联合开发的端到端对话角色视频生成模型。它仅需语音和文本输入,无需额外辅助条件,即可生成电影级的多角色对话动画。Mo...
Step-Video-TI2V:阶跃星辰推出的图像到视频生成模型
Step-Video-TI2V简介 Step-Video-TI2V是由阶跃星辰开发的文本驱动图像到视频生成模型。该模型基于300亿参数的Step-Video-T2V进行预训练,通过引入图像条件和...
Open-Sora 2.0:潞晨科技推开源的SOTA视频生成模型
Open-Sora 2.0简介 Open-Sora 2.0是由潞晨科技推出的全新开源SOTA(State-of-the-Art)视频生成模型。该模型仅用20万美元的训练成本,便实现了与全球领先视频...
LanDiff:浙江大学文本到视频生成模型
LanDiff简介 LanDiff是一种新型的文本到视频(Text-to-Video, T2V)生成模型,它通过结合自回归语言模型(LLM)和扩散模型(Diffusion Model)的优势,实现了...
GEN3C:英伟达等推出的新型生成式视频模型
GEN3C简介 GEN3C是由NVIDIA、多伦多大学和向量研究所联合开发的一种新型生成式视频模型。它通过构建一个显式的3D缓存来指导视频生成,实现了精确的相机控制和...
HunyuanVideo-I2V:腾讯推出的可定制化图像到视频生成模型
HunyuanVideo-I2V简介 HunyuanVideo-I2V 是由腾讯开发的一款可定制化图像到视频生成模型,基于强大的 HunyuanVideo 架构。该模型通过图像潜在拼接技术,将静...