谷歌AI芯片TPU v5p在训练LLM方面比其前一代快2.8倍
谷歌正迅速成为其最好的朋友英伟达的强大对手——其超级计算机所使用的TPU v5p人工智能芯片比以往任何时候都更快、更大、更宽,甚至超过了强大的H100。谷歌在最近推出其Gemini人工智能模型的同时,也发布了其最新版本的旗舰张量处理单元(TPU),用于人工智能的训练和推理,这似乎是一种挑战英伟达自己的市场领先的图形处理器(GPU)的尝试。
图源备注:图片由AI生成,图片授权服务商Midjourney
TPU v5p是谷歌最强大的定制设计的人工智能加速器,已经被部署到了该公司的“人工智能超级计算机”上。这是一种专门为运行人工智能应用而构建的超级计算架构,而不是通常运行科学工作负载的超级计算机,因为TPU不适合这些工作。
其最新版本的TPU每个单元(组成系统的部分)有8, 960 个芯片,相比之下,v4 只有4, 096 个,而且在每个单元可用的浮点运算次数(FLOPs)方面,它的可扩展性是v4 的四倍。这些新的单元提供了4,800Gbps的吞吐量。新的单元还拥有95GB的高带宽内存(HBM),而TPU v4 只有32GB的HBM RAM。
不同于英伟达,它将其GPU出售给其他公司,谷歌的定制TPU仍然只在其自己的产品和服务中使用。谷歌的TPU长期以来一直用于为其服务提供动力,包括Gmail、YouTube和Android,而最新版本也被用于训练Gemini。
谷歌的v5p TPU在训练大型语言模型方面比TPU v4 快2. 8 倍,并且提供2. 1 倍的性价比。虽然今年早些时候发布的中间版本TPU v5e在三者中提供了最高的性价比,但它只比TPU v4 快1. 9 倍,这使得TPU v5p成为最强大的。
它甚至强大到足以与英伟达广受欢迎的H100 GPU相媲美,这是市场上最适合人工智能工作负载的显卡之一。根据该公司自己的数据,这个组件在训练工作负载方面比英伟达的A100 GPU快四倍。
与此同时,谷歌的TPU v4 据估计比A100 快1. 2 到1. 7 倍,这是根据它在四月份发布的研究结果。粗略的计算表明,TPU v5p大约比A100 快3. 4 到4. 8 倍,这使得它与H100 相当或者更优秀,尽管在得出任何结论之前,需要更详细的基准测试。
Snapchat 计划每年在人工智能上投资 15 亿美元
划重点:-Snapchat的发者Snap表示,该消息平台将增加在人工智能(AI)和机器学习上的投资。-Snapchat正在调整广告业务和用户反馈,增加对机器学习、AI和增强现实(AR)功能的投入。-Snap亚马逊和谷歌合作进行云计算合作,同时计划每季度为每个日活用户投入84美分用于基础设施,年度投资约为15亿美元。站长网2024-05-21 01:25:550000研究称:澳大利亚在AI监管中处于落后地位
🔍划重点:-澳大利亚在AI领域的资金和监管方面被认为滞后,尤其在美国发布AI监管行政命令后,专家发出了警告。-澳大利亚政府虽然签署了布莱切利宣言,但尚未宣布对AI安全调查的回应,导致专家担心澳大利亚可能被抛在国际竞争之后。-尽管已收到超过500份关于AI的建议意见,但政府在资金支持和监管细节上的不足表明澳大利亚需要采取更积极的措施来保障AI的安全发展。站长网2023-11-07 14:29:100004小米SU7交付突破2万台:预计本月提前完成10万台全年目标
小米汽车近日宣布,其小米SU7车型在2024年10月的交付量超过了20,000台,这是该车型首次实现单月交付量突破两万台的里程碑。小米公司创始人雷军在社交媒体上表示,按照目前的进度,预计本月将提前完成小米SU7累计交付量达到10万台的目标。0000IBM利用生成式 AI提升COBOL应用程序现代化
IBM近日宣布,利用生成式AI大语言模型(LLM)的力量,将古老的COBOL应用程序引入现代时代。虽然COBOL在编程领域不再被普遍视为领先的编程语言,但仍有数十亿行COBOL代码在生产应用程序中运行,其中一部分运行在IBM的大型机系统Z上。站长网2023-08-22 14:57:210000比对口型还牛!InstructAvatar:实现文字生成指定面部的表情和动作
划重点:🔍最新的对话形象生成模型在实现与音频的逼真准确的唇同步方面取得了进展,但在控制和传达形象的细节表情和情感方面仍有不足。🔍InstructAvatar提供了对情感和面部动作进行细粒度控制的文本引导方法,为生成具有情感表达的2D虚拟形象提供了改进的互动性和泛化能力。站长网2024-05-28 19:35:420000