2-2.应用工具图像
UNO:字节跳动推出的新型图像生成模型
UNO简介 UNO是由字节跳动推出的新型图像生成模型。它通过“少到多”的泛化方法,利用上下文生成能力解锁了更多的可控性,能够实现从单主体到多主体的高一致性图...
DCEdit:北交联合美图推出的文本引导图像编辑方法
DCEdit简介 DCEdit是由北京交通大学信息科学研究所与美图公司MT Lab联合开发的一种新型文本引导图像编辑方法。它通过精确语义定位(PSL)策略和双层控制(DLC...
OmniSVG:复旦大学联合 StepFun 推出的多模态SVG生成框架
OmniSVG简介 OmniSVG是由复旦大学和StepFun团队共同开发的一个强大的多模态SVG生成框架。它利用预训练的视觉-语言模型(VLMs),能够自回归地生成从简单图标...
MagicColor:香港科技大学推出的多实例草图着色框架
MagicColor简介 MagicColor是由香港科技大学的研究团队共同开发的一种基于扩散模型的多实例草图着色框架。该框架通过自玩训练策略、实例引导器以及细粒度颜色...
IntrinsiX:直接从文本描述生成反照率、粗糙度、金属度和法线贴图
IntrinsiX简介 IntrinsiX是一种文本到PBR贴图生成方法,能够直接从文本描述中生成高质量的反照率、粗糙度、金属度和法线贴图。它通过利用预训练的文本到图像...
OmniTalker:阿里推出的实时文本驱动的说话头像生成框架
OmniTalker简介 OmniTalker是由阿里巴巴集团通义实验室开发的一款实时文本驱动的说话头像生成框架。它通过创新的双分支扩散变换器架构和跨模态注意力机制,能...
Mini DALL·E 3:清华大学等推出的交互式文本到图像生成模型
Mini DALL·E 3简介 Mini DALL·E 3是由北京理工大学、上海人工智能实验室、清华大学和香港中文大学联合开发的交互式文本到图像生成模型。它通过自然语言与用户...
Lumina-mGPT 2.0:一款开源的自回归图像模型
Lumina-mGPT 2.0 简介 Lumina-mGPT 2.0 是一款独立的自回归图像生成模型。它从零开始训练,能够统一多种图像生成任务,包括文本到图像生成、图像对生成、主体...
DreamActor-M1:字节跳动推出的人类图像动画框架
DreamActor-M1简介 DreamActor-M1是由字节跳动智能创作团队开发的一款人类图像动画框架。该框架基于扩散变换器(DiT),通过混合引导信号实现了整体性、表现...
EasyControl Ghibli:专注于将普通图像转换为吉卜力风格的图像
EasyControl Ghibli简介 EasyControl Ghibli 是一款基于 EasyControl 框架开发的 AI 模型,可在 Hugging Face 平台免费使用。它专注于将普通图像转换为吉卜力...