推理性能超H100十倍!21岁华裔小哥哈佛辍学开发AI加速芯片「Sohu」,2人公司估值3400万刀
【新智元导读】最近,两位哈佛辍学生共同创立的AI芯片公司,估值已达3400万美元,并计划明年交付一款名为「Sohu」的AI推理加速芯片——其LLM推理性能达到H100的10倍,而单价吞吐量更是高达140倍。
像Pika一样的神级创业故事又要再次上演了?
两位哈佛退学的年轻人,想要制造一款专用于大语言模型加速的AI加速器芯片,将于2024年第三季度交付,推理性能达H100的10倍。
在今年6月份,两位创始人Gavin Uberti和Chris Zhu创立了Etched.ai,获得了包括Ebay前CEO Devin Wenig在内一众风投机构的536万美元的种子轮投资。
公司估值更是高达3400万美元!
根据公司官网上放出的数据,这款芯片将在硬件层面上集成Transformer构架,将推理速度相比于英伟达H100提升了8-10倍!
他们将第一款LLM加速芯片命名为「Sohu」,号称可以在毫秒级别的时间里处理数千个单词。
芯片还支持通过树搜索更好地编码,能够并行比较数百个响应。
还支持多重推测解码(Multicast speculative decoding),可以实时生成新的内容。
根据官方公布的具体细节,这款芯片只有一个核心,但是配备了144GB的HBM3e显存:
- 完全开源的软件栈,可扩展至100T参数型号
- 支持波束搜索(Beam search)和MCTS解码
- 支持MoE和Transformer的各种变体
两个哈佛辍学本科生挑战芯片行业最顶尖业务
两人原本计划从哈佛休学一年,在一家芯片公司找到了一份负责ApacheTVM开源编译器和微内核的工作。
但在工作中,他们发现Arm的指令集中的一些低效设计使得他们的工作效率很差。
当他们思考如何系统性地解决这个问题时,发现可以利用这个思路来设计一款针对当下爆火的AI加速芯片。
在创始人之一的Uberti看来,通用设计无法获得他们正在研发的专有加速芯片所能带来的那种性能提升:
「必须在单一架构上下大力气,让芯片处理AI任务,目标太大了,必须要针对更具体的任务来设计芯片......我们认为英伟达最终会这么做。」
在他们两人看来,这个市场机会太大了,一定不能错过。
「如果你回顾四年前的GPT-2,与Meta最近的 Llama模型相比,只有两个区别——大小和激活函数。训练方式存在差异,但这对于推理来说并不重要。」
Transformer的基本组件是固定的,虽然存在细微差别,但他们并不担心短期之内就会出现新的构架代替Transformer。
所以他们决定做一个Transformer构架的专用集成电路(ASIC),在未来和英伟达等一系列芯片巨头在大模型推理市场中竞争。
他们认为,Etched.ai推出的第一款芯片,相比于H100,单位价格内将获得140倍的吞吐量性能!
二到底是什么样的背景,能让两个本科还没有毕业的学生,敢于挑战芯片业目前最炙手可热的赛道呢?
创始人兼公司CEO Gavin Uberti自从2020进入哈佛之后,就一直在校外兼职,在2022年底,成立了Etched.ai。
在进入大学之前,他参与了美国最著名的青少年科技创新大赛FIRST Tech Challenge,团队获得了Top10奖项。团队开发的自动驾驶软件排在600个参赛团队第二名。
另一位创始人Chris Zhu,也是在哈佛就读时就在校外疯狂实习,甚至还没有从哈佛毕业,就已经成为兼职教员。
AMD MI300X决战NVIDIA H100
而英伟达和AMD这边,最近打得更是热火朝天,甚至连官方都直接下场写博客硬刚。
就在前段时间,AMD高调发布了自家最强的AI芯片MI300X。
PPT显示,由8块MI300X组成的服务器在大模型推理方面的表现,要比同样规模的H100速度最高提升1.6倍之多。
对于AMD来说,这种直接对标,实属罕见。
对此,英伟达很快就发表了一篇博客文章,驳斥AMD的评测不客观。
英伟达表示,如果H100GPU使用了优化过的软件进行正确的基准测试,它的性能将大大超过MI300X。
作为回应,英伟达展示了采用TensorRT-LLM优化设置后,两款GPU在Llama270B上的比较结果。
文章地址:https://developer.nvidia.com/blog/achieving-top-inference-performance-with-the-nvidia-h100-tensor-core-gpu-and-nvidia-tensorrt-llm/
可以看到,当批处理大小设置为1时,H100的性能达到了MI300X的2倍。
甚至,当采用与AMD相同的2.5秒延迟时,H100的性能可以达到MI300X的14倍之多。
英伟达表示,AMD采用的替代软件不支持Hopper的Transformer Engine,并且忽略了TensorRT-LLM中的关键优化功能。而这些都可以在GitHub上免费获取。
AMD毫不示弱
见状,AMD也发文表示,既然要用优化,那就大家都用。
而即便是在这种情况下,MI300X的性能依然比H100强了30%。
文章地址:https://community.amd.com/t5/instinct-accelerators/competitive-performance-claims-and-industry-leading-inference/ba-p/652304
具体来说:
1. 在同样采用vLLM FP16的设置时,相比于发布会上展示的1.4倍性能,AMD最新的优化已经让这一优势扩大到了2.1倍。
2. 与使用TensorRT-LLM优化的H100相比,使用vLLM的MI300X实现了1.3倍的延迟改善。
3. 相比于采用低精度FP8和TensorRT-LLM的H100,使用vLLM和高精度FP16的MI300X在绝对延迟方面,表现更好。
AMD指出,英伟达在H100上进行基准测试时使用的是自家专有的技术TensorRT-LLM,而非更广泛使用的vLLM。
此外,在延迟方面,英伟达只关注吞吐量的性能,却忽视了实际工作中的延迟问题。
最后,AMD表示,之所以选择使用FP16,是因为它非常流行,而且目前vLLM还不支持FP8。
GPU大战进入白热化
在人工智能加速器领域,一些公司拥有针对特定工作负载的专门架构。
数据中心的专用架构主要集中在DLRM(深度学习推荐模型),因为GPU很难加速这类任务。
Meta最近宣布已经构建了自己的DLRM推理芯片,并且已经得到广泛部署。
而对于Transformer构架的加速,英伟达是通过在H100GPU中部署Transformer Engine的软件功能来实现的。
Transformer Engine使得LLM推理无需进一步量化即可进行,大大加速了GPU推理LLM的效果。
而Etched.ai要做的就是更近一步,在硬件层面完成这个设计,从而使得LLM的推理速度和能效都更上一层楼。
而投资人之所以愿意给两位本科辍学生投入如此之大的一笔钱,更重要的是迄今为止,所有人都认为现在LLM推理的成本过高,其中一定有创新的空间。
除了这样的明星初创公司以外,传统巨头对于大模型推理市场同样抱有很高的期待。
苏妈在各种场合不断表示,未来大模型推理市场的规模将远远大于模型训练市场。所以AMD也一直在强调自己的产品已经对这个市场做好了充分地准备。
从英伟达和AMD首次公开对比自家产品的性能这件事来看,GPU领域的竞争显然正在加剧。
目前,英伟达除了要面对AMD的挑战之外,还需要考虑英特尔和Cerebras取得的快速进展。
就在12月14日,首席执行官Pat Gelsinger展示了英特尔最新的AI芯片——采用5nm工艺制程,性能提升了1.5倍的Gaudi3。
相比于上一代Gaudi2,Gaudi3的BFloat16性能提升了4倍,计算能力提升2倍,显存容量提升50%达到144GB,并且采用的是HBM3或HBM3e。
同样,英伟达也计划在明年初推出GH200超级芯片。
鉴于竞争如此激烈,AMD可能会被诸如微软、Meta和甲骨文这些已经宣布将其技术集成到数据中心的公司,视为备选方案。
Gelsinger预测,到2027年,GPU市场规模将达到惊人的4000亿美元,这无疑为激烈的竞争提供了广阔的舞台。
Cerebras Systems的CEO Andrew Feldman更是毫不遮掩自己的野心:「我们正在努力超越英伟达,到明年,我们将构建高达36exaflops的AI算力。」
参考资料:
https://www.etched.ai/
https://analyticsindiamag.com/gpu-battle-nvidia-vs-amd/
https://www.eetimes.com/harvard-dropouts-raise-5-million-for-llm-accelerator/
网友要求退休 董明珠犀利回应:你能干就让给你
格力董事长董明珠这几年在网络上很活跃,自媒体搞得有声有色,除了空调之外,也积极在半导体、新能源、预制菜等热门领域投资,然而网友对她的评价褒贬不一,还有人呼吁让她退休,董明珠也回应这事了。针对网友要求她退休的说法,董明珠日前在直播中表示,我退休你能干,我就让给你。此外,董明珠也回应了寻找职业经理人的提议,她表示我们也可以应聘职业经理人,你告诉我保证每年给格力赚多少钱,我可以让位,没有问题。”站长网2023-08-29 10:37:180000快手一季度营收252.2亿元 同比增长19.7%
快手公布一季度财报称,该季度实现营收252亿元,同比增加19.7%,调整后净利润4200万元,去年同期亏损37.22亿元。一季度快手电商交易总额(GMV)同比增长28.4%至2248亿元;此外,用户规模再创新高,一季度平均DAU同比增长8.3%达3.74亿,平均MAU同比增长9.4%达6.54亿;快手应用的每位日活跃用户日均使用时长达126.8分钟。站长网2023-05-22 17:09:470001YouTube 将为苹果 Vision Pro 开发专属应用
据国外媒体报道,YouTube已在规划苹果VisionPro专属的适配应用程序。YouTube发言人JessicaGibby表示:“我们很高兴看到VisionPro的发售,我们将通过确保用户在Safari上获得良好体验来支持它。我们目前没有任何具体计划可以分享,但可以确认VisionPro应用已在我们的规划之中。”站长网2024-02-07 11:39:180000Midjourney v6版本describe功能上线 生成的提示词更长更详细
Midjourneyv6版本的/describe已经上线,上传图片后会生成更长更详细的提示词,同时更符合V6模型的倾向。这意味着用户现在可以更加轻松地获取关于上传的图片的详细信息。通过使用/describe功能,用户可以上传一张图片,然后系统将生成更长更详细的提示词,让用户更好地了解图片的内容和特点。describe的使用方法:1、点击加号,选择使用APP站长网2024-03-08 13:28:240000ECOGEN:一种用于生成逼真鸟鸣的深度学习新方法
**划重点:**1.🌐利用深度学习技术,加拿大蒙克顿大学的研究人员开发了ECOGEN,这是一种能够生成逼真鸟鸣的创新方法,旨在帮助生态学家更好地监测和保护世界上一些最稀有的鸟类。站长网2023-11-22 16:07:390000