12秒内AI在手机上完成作画!谷歌提出扩散模型推理加速新方法
只需12秒,只凭手机自己的算力,就能拿Stable Diffusion生成一张图像。
而且是完成了20次迭代的那种。
要知道,现在的扩散模型基本都超过了10亿参数,想要快速生成一张图片,要么基于云计算,要么就是要本地硬件够强大了。
而随着大模型应用逐渐普及开来,在个人电脑、手机上跑大模型很可能是未来的新趋势。
由此,谷歌的研究员们带来了这篇新成果,名字就叫Speed is all you need:通过GPU优化加速大规模扩散模型在设备上的推理速度。
三步走优化加速
该方法是针对Stable Diffusion来做的优化,但同时也能适应其他扩散模型。面向的任务是从文本生成图像。
具体优化可以分成三个部分:
设计专门的内核
提升Attention模型效率
Winograd卷积加速
首先来看专门设计的内核,它包括了组归一化和GELU激活函数。
组归一化是在整个UNet体系结构中实现,这种归一化的工作原理是将特征映射的通道划分为更小的组,并对每个组独立归一,使组归一化较少依赖于批大小,并且能适应更大范围的批处理大小和网络架构。
研究人员以GPU着色器(shader)的形式设计了一个独特的核,能在没有任何中间张量的情况下,在单个GPU命令中执行所有内核。
GELU激活函数中,包含大量的数值计算,如惩罚、高斯误差函数等。
通过一个专用着色器来整合这些数值计算以及伴随的分割和乘法操作,使得这些计算能放在一个简单的draw call里。
Draw call是CPU调用图像编程接口,命令GPU进行渲染的操作。
接下来,到了提升Attention模型效率方面,论文介绍了两种优化方法。
其一是部分融合softmax函数。
为了避免在大矩阵A上执行整个softmax计算,该研究设计了一个GPU着色器来计算L和S向量以减少计算,最终得到一个大小为N×2的张量。然后将softmax计算和矩阵V的矩阵乘法融合。
这种方法大幅减少了中间程序的内存占用张量和总体延迟。
需要强调的是从A到L、S的计算映射的并行是有限的,因为结果张量中的元素比输入张量A中的元素数量要少得多。
为了增加并行、进一步降低延迟,该研究将A中的元素组成block,将归约操作(reduction operations)切分为多个部分进行。
然后在每个block上执行计算,然后将其简化为最终结果。
利用精心设计的线程和内存缓存管理,可以在多个部分实现使用单个GPU命令降低延迟。
另一种优化方法是FlashAttention。
这是去年火起来的IO感知精确注意力算法,具体有两种加速技术:按块递增计算即平铺、并在后向传递中重新计算注意力,将所有注意力操作融合到CUDA内核中。
相较于标准Attention,这种方法能减少HBM(高带宽内存)访问,提高整体效率。
不过FlashAttention内核的缓存器密集度非常高(register-intensive),所以该团队是有选择性地使用这一优化方法。
他们在注意力矩阵d=40的Adreno GPU和Apple GPU上使用FlashAttention,其他情况下使用部分融合softmax函数。
第三部分是Winograd卷积加速。
它的原理简单来说就是使用更多的加法计算来减少乘法计算,从而降低计算量。
但弊端也很明显,将会带来更多的显存消耗和数值错误,尤其是在tile比较大的情况时。
Stable Diffusion的主干非常依赖3×3卷积层,尤其是在图像解码器方面,这里90%的层都是由3×3卷积层构成的。
研究人员分析后发现,在使用4×4大小的tile时,是模型计算效率和显存利用率的最佳平衡点。
实验结果
为了评估提升效果,研究人员先在手机上进行了基准测试。
结果表明,两部手机在使用了加速算法后,生成图片的速度都明显提升。
其中三星S23Ultra的延迟降低了52.2%,iPhone14Pro Max上的延迟降低了32.9%。
在三星S23Ultra上端到端从文本生成一张512×512像素的图片,迭代20次,耗时在12秒以内。
论文地址:
https://arxiv.org/abs/2304.11267
卖疯了!
各位村民好,我是村长。今天分享一个很不起眼的小产品,但是这种小产品,我觉得有钱赚。如果你能够把内容做好,在抖音里面就等于是闷声发财。019.9元60个戒指开门见山,我要分享的这个产品就是戒指盲盒,或者叫戒指套装。根据不同的产品材质、款式,9.9元可以买五六十个,或者一二十块钱可以买上一斤。这种产品虽然成本很便宜,但是在用户的认知里不便宜。站长网2023-08-01 13:53:070000通义千问开源720亿参数大模型Qwen-72B
要点:通义千问开源全家桶推出多款模型,包括18亿、70亿、140亿、720亿参数的大型模型,满足不同需求。Qwen-72B是其中一款720亿参数的模型,性能强劲,在多个权威基准测评中超越其他开源和商用模型,填补了中国大模型市场的空白。通义千问的开源模型具有全尺寸、全模态的特点,包括小型模型Qwen-1.8B和音频模型Qwen-Audio,以及强大的推理性能和个性化角色设置。站长网2023-12-01 14:23:540002事关所有iPhone用户!微信客服给你打FaceTime是假的:官方紧急提醒别被骗
快科技7月19日消息,FaceTime是苹果的一项服务,苹果用户之间可以通过AppleID给对方免费打视频或音频电话。然而,最近有不少骗子打起了FaceTime的注意,通过该渠道进行诈骗,iPhone用户要当心了。站长网2023-07-20 08:18:400002理想汽车全自研大模型Mind GPT 综合性评测榜单双榜第一
快科技12月16日消息,理想汽车官方发文称,理想自研MindGPT中文大模型综合性评测榜单双榜第一。两大冠军如下:1、C-Eval中文大模型综合性测评榜冠军C-Eval是清华大学、上海交通大学和爱丁堡大学合作构建的中文语言模型综合性考试评估套件,覆盖人文、社科、理工等多个方向共52个学科。2、CMMLU中文大模型综合性评估基准冠军0002韩国互联网巨头Naver推出生成式AI服务 提供AI搜索功能
文章概要:1.韩国互联网巨头Naver于8月24日推出自己的生成式AI工具HyperCLOVAX。2.HyperCLOVAX包括聊天机器人应用CLOVAX和生成式AI功能Cue,用于改进网际快车的搜索、网购和导航服务。3.Naver计划从8月24日开始CLOVAX的公开测试,9月启动Cue的测试。站长网2023-08-24 23:45:450000