2-3.应用工具视频

KeySync:能够生成与输入音频紧密对齐的高分辨率视频

KeySync项目简介 KeySync是由帝国理工学院(Imperial College London)和弗罗茨瓦夫大学(University of Wrocław)的研究团队共同开发的一种先进的唇部同步框...

Vidi:字节推出的专注于视频理解和编辑的多模态模型

Vidi项目简介 Vidi是由字节跳动公司智能创作团队开发的大型多模态模型,专注于视频理解和编辑(VUE)。它通过处理视觉、音频和文本等多种模态输入,实现对长...

Phantom-Wan:字节跳动推出的视频生成框架

Phantom-Wan项目简介 Phantom-Wan是由字节跳动开发的视频生成框架,专注于从参考图像中提取主题元素并根据文本指令生成主题一致的视频。它通过跨模态对齐技术...

MAGI-1:Sand AI团队开发的自回归视频生成模型

MAGI-1项目简介 MAGI-1是由Sand AI团队开发的一款先进的自回归视频生成模型,专为高效生成高质量视频而设计。它通过自回归预测视频块序列,支持从图像、文本...

FramePack:斯坦福大学推出的神经网络结构

FramePack项目简介 FramePack是由斯坦福大学的研究团队提出的一种创新神经网络结构,专门用于提升视频生成中下一帧预测模型的性能。该技术通过巧妙地对输入帧...

UniRig:清华推出的新型自动骨骼绑定框架

UniRig简介 UniRig是由清华大学计算机科学与技术系BNRist团队开发的一种新型自动骨骼绑定框架。该框架旨在为多样化3D模型(包括人类、动物和虚构角色等)提供...

Test-Time Training:英伟达联合斯坦福等大学推出的视频生成技术

Test-Time Training简介 Test-Time Training(TTT)是由 NVIDIA、斯坦福大学、加州大学圣地亚哥分校、加州大学伯克利分校和德克萨斯大学奥斯汀分校的研究团队...

OmniCam:浙江大学等推出的多模态视频生成框架

OmniCam简介 OmniCam是由浙江大学、上海交通大学、北京工业大学、江南大学、中国科学技术大学和南京大学联合开发的统一多模态视频生成框架。该框架通过相机控...

ACTalker:腾讯联合清华大学等推出的端到端视频扩散框架

ACTalker简介 ACTalker是由香港科技大学、腾讯和清华大学联合开发的端到端视频扩散框架,专门用于自然的“说话头”视频生成。该框架能够同时支持多信号控制和单...

AnimeGamer:腾讯联合港城大推出的无限动漫生活模拟系统

AnimeGamer简介 AnimeGamer是由腾讯PCG ARC实验室和香港城市大学联合开发的无限动漫生活模拟系统。该系统基于多模态大语言模型(MLLM),允许玩家通过开放式...
1 2 3 22