预测超长蛋白质这事,CPU赢了
AI模型的推理在CPU上完成加速和优化,竟然不输传统方案?
至少在生命科学和医疗制药方向,已经透露出这种信号。
例如在处理AlphaFold2这类大型模型这件事上,大众普遍的认知可能就是堆GPU来进行大规模计算。
但其实从去年开始,CPU便开始苦练内功,使端到端的通量足足提升到了原来的23.11倍。
而现如今,CPU让这个数值great again——再次提升3.02倍!

不论是像抗菌肽这种较短的氨基酸序列,还是像亨氏综合征蛋白这样超长的序列,都可以轻松hold住。
而且所有的预测任务,在不考虑最高通量、仅仅是顺序执行,8个小时就能全部搞定。

甚至国内已经有云服务提供商做了类似的优化方案:
相比于GPU,基于CPU的加速方案在性价比上更为理想,而且在特定的情况下(超过300或400氨基酸),几乎只有CPU能把它算完,而GPU的失败率会很高。
要知道,像AlphaFold2这类任务,可以说是公认的AI for Science标杆。
从上述的种种迹象表明,CPU不再是“你以为的你以为”,而是以一种新势力进军于此,并发挥着前所未有的威力。
CPU,正在大步迈进新时代。
英特尔自己刷新自己
事实上,此次备受关注的CPU加速方案,背后不是别人,正是发明了CPU的英特尔。
2022年,英特尔以第三代至强®️可扩展处理器为硬件基座,使AlphaFold2通量优化提升达23.11倍。一年后,他们在此基础上,再次实现自我刷新。
2022年,英特尔基于第三代至强®️可扩展平台,针对AlphaFold2的设计特点,在预处理、模型推理、后处理三阶段实现了端到端优化。

如今,原有的五大端到端基础步骤之上,第四代至强®️可扩展处理器的加入,再次给AlphaFold2带来整体推理性能的提升。
此次优化方案主要围绕预处理和模型推理两个方面,基本划分为五个步骤。
第一步:预处理阶段,借助第三代或第四代至强®️可扩展处理器的多核优势及其内置AVX-512技术,实现针对性的高通量优化。
第二步到第五步模型推理阶段的优化,与2022年方案类似。
第二步,将深度学习模型迁移至面向英特尔®️架构优化的PyTorch,并逐模块地从JAX/haiku完成代码迁移。
第三步,引入JIT图编译技术,将网格转化为静态图,以提高模型推理速度。
第四步,切分注意力模块和算子融合,即对注意力模块进行大张量切分的优化思路;与此同时,使用IPEX(英特尔®️扩展优化框架,建议版本为IPEX-2.0.100 cpu或更高)对Einsum和Add两种算子进行融合。
第五步,借助至强®️可扩展平台的计算和存储优势实施针对性优化。比如基于NUMA架构技术,挖掘多核心优势,破解多实例运算过程中的计算和内存瓶颈。
不过除了提供更强的基础算力,第四代至强®️可扩展平台还带来了诸多针对AI工作负载的优化加速技术。
具体可以拆分为四项:(详细优化方案可点击阅读原文获取)
一、TPP技术降低推理过程中的内存消耗
TPP(Tensor Processing Primitives)相当于是一种虚拟的张量指令集架构,能让英特尔®️AVX-512等物理指令集予以抽象,生成经过优化的平台代码。
具体到计算执行上,TPP能实现两种优化方式:以单指令多数据方式处理数据;优化内存访问模式,提升缓存命中率来提高数值计算和访存效率。

这样一来,狭长矩阵乘法的空间复杂度从 O (n^2) 降为 O (n) ,运算内存峰值也将大幅降低,更有助于处理长序列蛋白结构预测的问题。
二、支持DDR5内存与大容量缓存带来张量吞吐提升
AlphaFold2中大量的矩阵计算过程需要内存来支撑,因此内存性能影响着整个模型运行性能。
第四代至强®️ 可扩展处理器带来两种解决思路——支持DDR5内存,以及大容量末级缓存:
一方面,与上个方案DDR4内存带宽25.6GBps(3,200MHz)相比,DDR5内存带宽提升了超50%,达到38.4GBps(4,800MHz)以上 ;另一方面,末级缓存也由上一代的最高60MB提升至现在最高112.5MB,幅度87.5%。
三、内置AI加速引擎AMX
英特尔在第四代至强®️可扩展处理器中创新内置了AI加速器——英特尔®️AMX,类似GPU里的张量核心,加速深度学习推理过程并减少存储空间。
它支持INT8、BF16等低精度数据类型,尤其BF16数据类型在精度上的表现不逊于FP32数据类型,AlphaFold2使用AMX_BF16后,推理时间可缩短数倍之多。
四、高带宽内存HBM2e增加访存通量
每个英特尔®️至强®️CPU Max系列,都拥有4个基于第二代增强型高带宽内存(HBM2e)的堆栈,总容量为64GB(每个堆栈的容量为16GB)。
由于能同时访问多个DRAM芯片,它可提供高达1TB/s的带宽。而且配置更灵活,有三种不同模式与DDR5内存一起协同工作:HBM Only、HBM Flat以及HBM Cache。
综上,第四代英特尔®️至强®️可扩展处理器所带来的四种优化技术让AlphaFold2的端到端通量得到了再进一步提升,与第三代相比实现了高达3.02倍的多实例通量提升。

当然,除了CPU之外,英特尔在探索验证AlphaFold2优化方案、步骤和经验过程中,同样也能提供其他AI加速芯片,给产业链上的生态伙伴提供强劲支持。
甚至已经给出了行业备受认可的解决方案。
就在前段时间,英特尔联合Github上知名的AI 科学计算的开源项目——Colossal-AI的团队潞晨科技,成功优化了AlphaFold2蛋白质结构预测的性能,并将其方案开源。
基于AI专用加速芯片Habana®️Gaudi®️,他们成功将端到端推理速度最高提升3.86倍(相较于此前使用的方案),应用成本相较于GPU方案最多降低39%。

医药和生命科学领域,AI还有何作为?
大模型,毋庸置疑是近来科技圈最为火爆的技术之一。
它凭借自身强算法、多数据、大算力的结合所带来的泛用性,在医药和生命科学领域同样大步发展着。
这一过程,AI宛如从破解人类的自然语言,跃进到了破解生命的自然语言:
人类自然语言大模型:从26个字母,到词/句/段。
生命自然语言大模型:从21个氨基酸字母,到蛋白质/细胞/生命体。
那么具体而言,现在AI大模型可能会让医药和生命科学领域产生怎样的变革?
我们不妨以百图生科推出的,世界首个AI大模型驱动的AI生成蛋白平台AIGP(AI Generated Protein)为例来了解一番。
AIGP背后所依靠的,是一个千亿参数的跨模态生命科学大模型,通过“挖掘公开数据和独特自产数据”、“跨模态预训练和科学计算”,以及“蛋白质读写系统和细胞读写系统”,三大步骤实现对蛋白质空间及生命体的建模。

如此大模型能力之下,百图生科便具备了一系列给定Protein(抗原),设计与之以特定方式结合的Protein(抗体)的能力。
也因此参与到了一系列前沿药物的开发,包括高性能免疫调控弹头设计、难成药靶点精准设计、定表位抗体弹头设计、可溶性TCR设计等。
除此之外,百图生科也具备对给定细胞/细胞组合,发现调控细胞的有效蛋白靶点/组合,并继而快速设计调控蛋白的能力。
这就为多种疾病的靶点发现、耐药/不响应患者改善、靶点科学线索转化带来新的可能。
不过有一说一,百图生科的例子也是只是AI之于医药、生命科学领域变革的一隅。
但今年生物医学领域的著名奖项(加拿大盖尔德纳奖)史无前例地颁给了人工智能科学家、DeepMind创始人Demis Hassabis等人。
这也从侧面反映了生命科学、医药领域对于AI的认可,以及更多的期待。
微软CEO纳德拉谈GPT-4:实现童年梦想,引领人工智能未来
近日,微软首席执行官萨蒂亚・纳德拉(SatyaNadella)在接受《连线》杂志的史蒂文・利维(StevenLevy)采访时,谈到了微软的人工智能计划以及他对生成式AI的看法。纳德拉表示,OpenAI的GPT-4帮助他们实现了童年梦想。站长网2023-06-17 23:47:300003AI智能体2小时击败人类,引爆贝叶斯推理革命!仅用10%数据训练秒杀大模型
【新智元导读】就在刚刚,Verses团队研发的Genius智能体,在Pong中超越了人类顶尖玩家!而且它仅仅训练2小时,用了1/10数据,就秒杀了其他顶级AI模型。最近,Verses团队在AI领域投下了一枚重磅炸弹,他们自研的Genius智能体,创造了一个几乎不可能的奇迹——只用10%数据,训练2小时,就能打造出最强AI智能体!0000因表现不佳,OpenAI 取消了 AI 文本检测器
OpenAI因其AI文本检测器无法准确判断文本是否由AI生成而将其下架。该检测器在确定文本是由人还是机器生成方面的准确率较低。OpenAI表示他们正在努力改进,并研究更有效的文本来源技术,以及开发能够帮助用户了解音频或视觉内容是否由AI生成的机制。站长网2023-07-26 11:22:590000魔搭社区与vLLM和FastChat展开合作 提供高效LLM推理和部署服务
最近,魔搭社区与vLLM和FastChat展开合作,联合为中国开发者提供更快更高效的LLM推理和部署服务。开发者可以使用vLLM作为FastChat中的推理引擎,提供高吞吐量的模型推理。站长网2023-12-29 08:52:460004未来,我们会看见更多彩虹,但这不是个好兆头
在许多文化中,彩虹象征着危险而非希望。一项新的研究也指出,气候变化将带来更多彩虹,这意味着地球更热了,云少了,雨多了,对全球农业以及人们的生活而言,都非幸事。我们需要密切关注气候变化对世界不同地区的不同影响,依靠农业创新,用气候适应性的方案和工具应对气候灾难。站长网2023-05-25 08:00:010000