文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题
【新智元导读】近日,北大、斯坦福、以及Pika Labs发布了新的开源文生图框架,利用多模态LLM的能力成功解决文生图两大难题,表现超越SDXL和DALL·E3
近日,北大、斯坦福、以及爆火的Pika Labs联合发表了一项研究,将大模型文生图的能力提升到了新的高度。

论文地址:https://arxiv.org/pdf/2401.11708.pdf
代码地址:https://github.com/YangLing0818/RPG-DiffusionMaster
论文作者提出了一个全新的免训练文本到图像生成/编辑框架,利用多模态大语言模型(MLLM)强大的思维链推理能力,来增强文本到图像扩散模型的组合性。
简单来说,就是能让文生图模型在面对「多个属性和关系的多个对象的复杂文本提示」时表现更出色。
话不多说,直接上图:

A green twintail girl in orange dress is sitting on the sofa while a messy desk under a big window on the left, a lively aquarium is on the top right of the sofa, realistic style.
一个穿着橙子连衣裙的绿色双马尾女孩坐在沙发上,左边的大窗户下是一张凌乱的办公桌,沙发右上方是一个活泼的水族馆,现实主义风格。
面对关系复杂的多个对象,模型给出的整个画面的结构、人与物品的关系都非常合理,使观者眼前一亮。
而对于同样的提示,我们来看一下当前最先进的SDXL和DALL·E3的表现:

再看一下新框架面对多个对象绑定多个属性时的表现:
From left to right, a blonde ponytail Europe girl in white shirt, a brown curly hair African girl in blue shirt printed with a bird, an Asian young man with black short hair in suit are walking in the campus happily.
从左到右,一个穿着白色衬衫、扎着金发马尾辫的欧洲女孩,一个穿着印着小鸟的蓝色衬衫、棕色卷发的非洲女孩,一个穿着西装、黑色短发的亚洲年轻人正开心地在校园里散步。
研究人员将这个框架命名为RPG(Recaption,Plan and Generate),采用MLLM作为全局规划器,将复杂图像的生成过程分解为子区域内多个更简单的生成任务。

文中提出了互补的区域扩散,实现区域组合生成,还将文本引导的图像生成和编辑以闭环方式集成到了RPG框架中,从而增强了泛化能力。
实验表明,本文提出的RPG框架优于目前最先进的文本图像扩散模型,包括DALL·E3和SDXL,尤其是在多类别对象合成以及文本图像语义对齐方面。
值得注意的是,RPG框架可以广泛兼容各种MLLM架构(如MiniGPT-4)和扩散骨干网络(如ControlNet)。
RPG
当前的文生图模型主要存在两个问题:1. 基于布局或基于注意力的方法只能提供粗略的空间引导,并且难以处理重叠的对象;2. 基于反馈的方法需要收集高质量的反馈数据,并产生额外的训练成本。
为了解决这些问题,研究人员提出了RPG的三个核心策略,如下图所示:

给定一个包含多个实体和关系的复杂文本提示,首先利用MLLM将其分解为基本提示和高度描述性的子提示;随后,利用多模态模型的CoT规划将图像空间划分为互补的子区域;最后,引入互补区域扩散来独立生成每个子区域的图像,并在每个采样步骤中进行聚合。
多模态重新调整
将文本提示转换为高度描述性的提示,提供信息增强的提示理解和扩散模型中的语义对齐。
使用MLLM来识别用户提示y中的关键短语,获得其中的子项:

使用LLM将文本提示符分解为不同的子提示符,并进行更详细的重新描述:

通过这种方式,可以为每个子提示生成更密集的细粒度细节,以有效地提高生成图像的保真度,并减少提示和图像之间的语义差异。
思想链规划
将图像空间划分为互补的子区域,并为每个子区域分配不同的子提示,同时将生成任务分解为多个更简单的子任务。
具体来说,将图像空间H×W划分为若干互补区域,并将每个增强子提示符分配给特定区域R:

利用MLLM强大的思维链推理能力,进行有效的区域划分。通过分析重新获得的中间结果,就能为后续的图像合成生成详细的原理和精确的说明。
补充区域扩散
在每个矩形子区域内,独立生成由子提示引导的内容,随后调整大小和连接的方式,在空间上合并这些子区域。

这种方法有效地解决了大模型难以处理重叠对象的问题。此外,论文扩展了这个框架,以适应编辑任务,采用基于轮廓的区域扩散,从而对需要修改的不一致区域精确操作。
文本引导的图像编辑

如上图所示。在复述阶段,RPG采用MLLM作为字幕来复述源图像,并利用其强大的推理能力来识别图像和目标提示之间的细粒度语义差异,直接分析输入图像如何与目标提示对齐。
使用MLLM(GPT-4、Gemini Pro等)来检查输入与目标之间关于数值准确性、属性绑定和对象关系的差异。由此产生的多模态理解反馈将被交付给MLLM,用于推理编辑计划。
我们来看一下生成效果在以上三个方面的表现,首先是属性绑定,对比SDXL、DALL·E3和LMD :

我们可以看到在全部三项测试中,只有RPG最准确地反映了提示所描述的内容。
然后是数值准确性,展示顺序同上(SDXL、DALL·E3、LMD 、RPG):

——没想到数数这件事情对于文生图大模型还挺难的,RPG轻松战胜对手。
最后一项是还原提示中的复杂关系:

此外,还可以将区域扩散扩展为分层格式,将特定子区域划分为更小的子区域。
如下图所示,当增加区域分割的层次结构时,RPG可以在文本到图像的生成方面实现显著的改进。这为处理复杂的生成任务提供了一个新的视角,使我们有可能生成任意组成的图像。

参考资料:
https://arxiv.org/pdf/2401.11708.pdf
Hugging Face 首席执行官希望实现人工智能民主:将 AI 的力量集中在少数人手中是有风险的
HuggingFace的首席执行官ClémentDelangue对大型科技公司像商业专利一样保留机器学习代码的做法持反对态度。相反,他正在努力构建一个世界,在这个世界中,每个开发者或初创公司都可以自由访问人工智能模型,并有效地帮助AI实现开源。0000科大讯飞携手华为启动AI存力底座联合创新项目
7月24日,科大讯飞携手华为数据存储,正式启动了AI存力底座的联合创新项目,旨在通过双方合作,共同打造面向AI大模型场景的最佳数据存储解决方案。为此,双方将依托联合创新,在数据存储服务可靠性、算力和存力协同体系研究、数据全生命周期管理等技术方向上寻求突破。通过AI存力在AI大模型时代的创新实践,为产业提供高价值的可借鉴经验。站长网2023-07-26 15:01:200000百度优质视频标题基础规则发布 需具备这三个条件
百度发布优质视频标题基础规则称,一个好的标题往往是吸引用户来点击并观看视频内容的关键。题文一致、标题文字表达正确且字数适中、标题表述真实、传递正向价值是一个好的视频标题所必须具备的基础要求。一、题文一致1?保持标题与视频内容的一致性站长网2023-04-14 08:21:580000谷歌推出桌面版Chrome“帮我写”功能 AI写作助手进一步强化
站长之家(ChinaZ.com)12月6日消息:近期,谷歌宣布将人工智能驱动的“帮我写”功能引入桌面版Chrome,为Windows、Mac和Linux用户提供更便捷的写作助手。这一功能已经在GoogleMessages、Gmail、Docs和Keep等应用中得到应用,现在进一步扩展至Chrome浏览器。站长网2023-12-06 11:34:240001蚂蚁集团开源代码大模型CodeFuse
在近日的外滩大会分论坛上,蚂蚁集团正式开源了代码大模型CodeFuse。CodeFuse是蚂蚁自研的代码生成专属大模型,根据开发者的输入提供智能建议和实时支持,帮助开发者自动生成代码、自动增加注释,自动生成测试用例,修复和优化代码等,以提升研发效率。站长网2023-09-11 09:08:560000