英特尔正打造价值数十亿美元的人工智能加速器业务
**划重点:**
1. 💸 在2023年中旬达到10亿美元后,英特尔的人工智能加速器业务已突破20亿美元。
2. 🧠 今年即将推出的Gaudi3芯片将使性能增加四倍,为英特尔在人工智能加速器市场上提供强大的竞争力。
3. 📈 随着对人工智能芯片需求的激增,英特尔预计这一新兴业务将在未来几年内实现数十亿美元的年收入。
英特尔的人工智能(AI)加速器业务正迎来高涨的兴趣。根据Motley Fool的报道,英特尔的AI加速器业务在2023年中旬达到10亿美元后,如今已经超过20亿美元。该公司即将推出的Gaudi3芯片有望在今年推出,其性能将是前一代的四倍,将使英特尔在人工智能加速器市场上成为一股强大的竞争者。
尽管英特尔在最近一季度报告中超出市场预期,但由于首席执行官Pat Gelsinger对第一季度前景的不乐观,投资者并不满意。尽管近期英特尔的短期命运与个人电脑和服务器CPU市场息息相关,但公司正朝着从其人工智能加速器芯片中最终每年创造数十亿美元收入的方向迈进。随着年度推移,英特尔预计这一新兴业务的收入将加速增长。
由于2019年收购Habana Labs,英特尔已经成为人工智能加速器市场的一名参与者。公司的Gaudi系列芯片专为AI训练和推断工作负载而设计,是市场领导者Nvidia高性能GPU的经济实惠替代品。在2023年7月,英特尔透露其AI加速器业务在单个季度内增长了六倍,达到10亿美元。到2023年底,这一数字超过了20亿美元。值得注意的是,这并不意味着英特尔目前从其AI加速器中获得这么多收入,而是公司预计这些客户的承诺将随时间转化为收入。
当前推动英特尔增长的是Gaudi2芯片,它几乎与Nvidia的顶级产品一样强大,在某些情况下甚至表现更为出色,并在性能每芯片和性能每美元方面提供了坚实的表现。英特尔计划在今年推出Gaudi3,该芯片有望将AI加速器业务推向新的高度。公司承诺性能增加四倍,网络带宽翻倍。英特尔表示,它最近增加了Gaudi2和Gaudi3的供应,以满足不断增长的需求。
Gaudi3之后,英特尔计划将其以人工智能为重点的GPU和Gaudi产品线合并为Falcon Shores,这是一款下一代数据中心GPU,预计将于2025年推出。
英特尔在2019年收购Habana Labs时曾预测,到2024年,AI芯片市场的规模将超过250亿美元。然而,Gartner将2024年AI芯片市场规模估计为670亿美元,到2027年将达到1190亿美元。其他估算将市场规模预测为到2032年将接近4000亿美元。虽然估算并非事实,但没有迹象表明对AI芯片的需求会在短期内减缓。
目前,Nvidia主导着AI加速器市场,而AMD则通过其最新的Instinct AI芯片发起挑战。尽管这两家公司对英特尔构成了激烈竞争,但市场预计将变得如此庞大,以至于将容纳多个获胜者。即使英特尔最终处于第二或第三的位置,人工智能加速器最终可能为这家芯片巨头带来数十亿美元的年收入。
在投资英特尔之前,投资者应考虑到Motley Fool Stock Advisor分析团队刚刚确定了他们认为是当前投资者最佳的10支股票之一,而英特尔并不在其中。这10支股票被认为可能在未来几年产生巨额回报。 Stock Advisor为投资者提供了成功的易于遵循的蓝图,包括建立投资组合的指导、分析师的定期更新以及每月两次的新股票推荐。自2002年以来,Stock Advisor服务的回报已经是S&P500指数的四倍以上。
16999元!首款中国特供版RTX 4090D上架开卖
12月28日晚,NVIDIA面向中国市场正式发布了特供版RTX4090D,削减部分规格,符合美国出口管制。RTX4090D在已有RTX4090的基础上,精简了1792个CUDA核心、56个Tensor核心,幅度均为11%,但核心基础频率小幅提高到2280MHz,整卡功耗略降至425W,整体游戏性能损失了大约5%。站长网2023-12-31 12:18:520000腾讯辟谣马化腾衰老照:P的太假了
近日,网络上出现了一篇博主的文章,其中提及腾讯在2023年财报公布后表现不俗,但令人惊讶的是,文中还提及马化腾似乎显得较为衰老,并附上了一张所谓的“衰老照”。这一话题随即引发了网友的广泛关注和讨论。站长网2024-03-25 11:18:090000高盛报告预测:全球人工智能投资将在 2025 年达到 2000 亿美元
高盛在一份报告中预测,到2025年,全球对人工智能的投资可能达到2000亿美元,其中美国的投资将达到1000亿美元。该报告指出,生成式人工智能具有巨大的经济潜力,预计在未来十年中广泛应用后,将每年提高全球劳动生产率超过1个百分点。站长网2023-08-03 10:36:380000羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品
开源羊驼大模型LLaMA上下文追平GPT-4,只需要一个简单改动!MetaAI这篇刚刚提交的论文表示,LLaMA上下文窗口从2k扩展到32k后只需要小于1000步的微调。与预训练相比,成本忽略不计。扩展上下文窗口,就意味着AI的“工作记忆”容量增加,具体来说可以:支持更多轮对话,减少遗忘现象,如更稳定的角色扮演输入更多资料完成更复杂的任务,如一次处理更长文档或多篇文档站长网2023-06-29 12:13:360001通过这些代码,PyTorch团队让Llama 7B提速10倍
要点:PyTorch团队通过优化技术,在不到1000行的纯原生PyTorch代码中将Llama7B的推理速度提升了10倍,达到了244.7tok/s。优化方法包括使用PyTorch2.0的torch.compile函数、GPU量化、SpeculativeDecoding(猜测解码)、张量并行等手段,以及使用不同精度的权重量化,如int8和int4。站长网2023-12-05 16:18:460000