AI缺芯,英伟达卖断货
8月8日,全球计算机业内最重要的圆桌会议,世界计算机图形学会议SIGGRAPH正式召开。
NVIDIA创始人兼CEO黄仁勋出席,并带来了新一代英伟达超级AI芯片GH200。黄仁勋对自己的新旗舰产品非常有自信,将GH200称为“世界上最快的内存”。
在如今的AI市场,英伟达是堪称“运转整个AI世界的中心”。不论是OpenAI还是谷歌、META、百度、腾讯、阿里巴巴,所有的生成式AI都极度依赖英伟达的AI芯片来训练。
并且,据媒体报道,英伟达AI芯片H100在2023年8月的市场总需求可能在43.2万张左右,而目前一张H100芯片在Ebay上的价格甚至炒到了4.5万美元,折合人民币超过了30万元。
40多万张芯片缺口,单价4.5万美元,总价轻轻松松上数百万美元。
英伟达,正在经历一场比“挖矿时代”更疯狂的市场浪潮。
AI芯片,一张难求
所谓的AI芯片,其实是图形处理器(GPU),主要作用是帮助运行训练和部署人工智能算法所涉及的无数计算。
也就是说,生成式AI的种种智能表现,均来自于无数GPU的堆砌。使用的芯片越多,生成式AI就越智能。
OpenAI对GPT-4训练细节守口如瓶,但据媒体猜测,GPT-4至少需要8192张H100芯片,以每小时2美元的价格,在约55天内可以完成预训练,成本约为2150万美元(1.5亿人民币)。
据微软高管透露,为ChatGPT提供算力支持的AI超级计算机,是微软在2019年投资10亿美元建造一台大型顶尖超级计算机,配备了数万个英伟达A100GPU,还配备了60多个数据中心总共部署了几十万个英伟达GPU辅助。
ChatGPT所需要的AI芯片并不是固定的,而是逐次递增。ChatGPT越聪明,背后的代价是所需算力越来越多。据摩根士丹利预测,到了GPT-5大概需要使用2.5万个GPU,约是GPT-4的三倍之多。
如果想满足OpenAI、谷歌等一系列AI产品的需求,那么就相当于英伟达一家公司为全世界的AI产品供芯,这对于英伟达的产能是个极大的考验。
英伟达H100
虽然英伟达正在开足马力生产AI芯片,但据媒体报道,小型和大型云提供商的大规模H100集群容量即将耗尽,H100的“严重缺货问题”至少会持续到2024年底。
目前,英伟达作用于AI市场的芯片主要分为H100和A100两种,H100是旗舰款产品,从技术细节来说,H100比A100在16位推理速度大约快3.5倍,16位训练速度大约快2.3倍。
不论是H100还是A100,全部都是由台积电合作生产,就使得H100的生产受到了限制。有媒体称,每一张H100从生产到出厂大约需要半年的时间,生产效率非常的缓慢。
英伟达曾表示它们在2023年下半年,提高对AI芯片的供应能力,但没有提供任何定量的信息。
不少公司和求购者都在呼吁,要求英伟达加大对晶圆厂的生产数量,不只和台积电合作,而是把更多的订单交给三星和英特尔。
更快的训练速度
如果没办法提高产能,那么最好的解决办法就是推出性能更高的芯片,以质取胜。
于是乎,英伟达开始频频推出新款GPU用来提升AI训练能力。先是在今年3月,英伟达发布了H100NVL GPU、L4Tensor Core GPU、L40GPU、NVIDIA Grace Hopper四款AI芯片,以满足生成式AI们日益增长的算力需求。
在上一代还未量产上市,英伟达又在8月8日世界计算机图形学会议SIGGRAPH上,由黄仁勋发布了H100的升级版,GH200。
据了解,全新GH200Grace Hopper Superchip基于72核Grace CPU,配备480GB ECC LPDDR5X内存以及GH100计算GPU,搭配141GB HBM3E内存,采用6个24GB堆栈,使用6144位存储器接口。
英伟达GH200
GH200最大的黑科技,就是作为世界上第一款配备HBM3e内存的芯片,能够将其本地GPU内存增加50%。而这也是专门对人工智能市场做的“特定升级”,因为顶级生成式AI往往尺寸巨大却内存容量有限。
据公开资料显示,HBM3e内存是SK海力士的第五代高带宽内存,是一种新型的高带宽内存技术,可以在更小的空间内提供更高的数据传输速率。它的容量为141GB,带宽为每秒5TB,能分别达到H100的1.7倍和1.55倍。
从7月份发布以来,SK海力士就成为GPU市场的宠儿,领先于直接竞争对手英特尔Optane DC和三星的Z-NAND闪存芯片。
值得一提的是,SK海力士一直以来都是英伟达的合作伙伴之一,从HBM3内存开始,英伟达绝大部分产品都是采用SK海力士的产品。但SK海力士对于AI芯片所需要的内存一直产能堪忧,英伟达不止一次的要求SK海力士提高产能。
一个难产大户遇上另一个难产大户,不由让人担心GH200的产能。
NVIDIA官方表示,GH200与当前一代产品H100相比,内存容量高出3.5倍,带宽高出3倍;并且,HBM3e内存将使下一代GH200运行AI模型的速度比当前模型快3.5倍。
比H100运行AI模型的速度快3.5倍,是否意味着,1张GH200就能相当于3.5张H100?一切都还得实践操作才能得知。
但目前来说,可以肯定的一点就是,作为AI市场的最大供应商,英伟达进一步巩固了自己领先位置,并和AMD和英特尔拉大了差距。
英伟达的对手们
面对43万张AI芯片缺口,没有一家公司不动心。尤其是英伟达的最大竞争对手AMD和英特尔,不会放任其一个人独吞整个市场。
今年6月14日,AMD董事会主席、CEO苏姿丰密集地发布了多款AI软硬件新品,包括针对大语言模型设计的AI芯片,MI300X。正式拉开在AI市场,对英伟达的正面挑战。
在硬件参数上,AMD MI300X拥有多达13颗小芯片,总共包含1460亿个晶体管,配置128GB的HBM3内存。其HBM密度为英伟达H100的2.4倍,带宽为英伟达H100的1.6倍,意味着可加快生成式AI的处理速度。
但可惜的是,这款旗舰AI芯片并没有现货,只是预计将于2023年Q4季度全面量产。
而另一竞争对手英特尔,则在2019年就以约20亿美元的价格收购了人工智能芯片制造商HABANA实验室,进军AI芯片市场。
今年8月,在英特尔最近的财报电话会议上,英特尔首席执行官Pat Gelsinger表示,英特尔正在研发下一代Falcon Shores AI超算芯片,暂定名为Falcon Shores2,该芯片预计将于2026年发布。
除了Falcon Shores2之外,英特尔还推出AI芯片Gaudi2,已经开始销售,而Gaudi3则正在开发中。
只是可惜的是,Gaudi2芯片规格并不高,难以实现对英伟达H100和A100发起挑战。
AMD MI300X
除了国外半导体巨头们大秀肌肉,开始了“芯片竞争”之外,国内的半导体公司也开始了对AI芯片的研发。
其中,昆仑芯AI加速卡RG800、天数智芯的天垓100加速卡、燧原科技第二代训练产品云燧T20/T21,均表示能够具有支持大模型训练的能力。
在这场以算力为标准,以AI大模型为战场的芯片之争,英伟达作为AI市场的最大赢家之一,已经在芯片设计和市场占比等方面展示出它的强大。
但国产AI芯片虽然稍稍落后,但研发和扩展市场的脚步从未停止,未来值得期待。
亚马逊与Hexa达成合作 支持卖家创建3D图像
亚马逊和3D可视化公司Hexa达成了一项新的合作举措,允许亚马逊卖家使用Hexa沉浸式操作系统。卖家可以在亚马逊店铺产品页面上利用该技术创建三维图像、360度可视化、虚拟试穿和增强现实内容。站长网2023-06-08 06:55:130000Transformer“贡献”作者,重返谷歌出任Gemini联合技术主管
出任Gemini联合技术主管!这就是Transformer“贡献最大”作者NoamShazeer(诺姆·沙泽尔),重返谷歌后的最新动向。据TheInformation的更多爆料,Shazeer将与谷歌AI主管JeffDean和DeepMind首席科学家OriolVinyals,一起致力于Gemini的开发。站长网2024-08-27 07:25:240000腾讯QQ黄脸表情全面升级 同时上线9个新表情
腾讯QQ宣布上线了9个新的黄脸表情,包括木鱼、坚强、贴贴等。此外,所有表情在细节和动画效果方面进行了升级,使表情更加立体、出彩。部分表情的情绪表达被放大,增加了眼镜、茶杯等物体的细节。动画效果的帧率也提升到24帧/s,使动作流畅度和情绪表达度更好。目前,用户们可以在最新版本的QQ中体验这些新表情。站长网2023-11-10 12:09:060005苹果下一任CEO浮出水面 或为硬件工程高级副总裁特努斯
彭博社记者马克·古尔曼在5月9日的文章中,深入剖析了苹果CEO可能接任的候选人。在与多位内部知情人士的深入交流后,古尔曼提出了一个引人注目的结论。若库克在短时间内卸任,COO杰夫·威廉姆斯无疑将是CEO的热门人选。然而,考虑到威廉姆斯今年已61岁,与库克仅有两岁之差,苹果董事会似乎更希望找到一位能长期在任的领导者,以延续库克和乔布斯时代的辉煌。站长网2024-05-10 17:23:040000明星遭AI换脸进行直播卖货 每月只要99元?
最近,凭借洗脑儿歌“挖呀挖”,幼教黄老师的“音乐老师花开富贵”账号在抖音爆火。在受到网友追捧的同时,伴随黄老师的争议也持续不断,特别是对黄老师样貌的讨论,仅“素颜照”就传出好几张。这些照片因为和短视频中的黄老师差距甚大,让不少网友议论纷纷。但是后来这些所谓“黄老师真实素颜照”,均被证实是AI人工智能换脸。站长网2023-05-24 18:14:250008