英伟达多元化供应链:人工智能芯片需求激增 部分产品或交由英特尔代工
英特尔有可能成为英伟达未来 GPU 的制造商。英伟达 CEO 黄仁勋在 Computex 的全球媒体圆桌会议的问答环节时表示,公司正在努力多元化其芯片制造,并且最近已经获得了一款基于英特尔下一代工艺节点的测试芯片的良好测试结果。
他的这番言论是在多个问题集中讨论英伟达如何确保在人工智能芯片需求激增的情况下供应,并且公司完全依赖位于台积电来制造其最先进的 GPU。
黄仁勋表示:「你们知道我们还和三星合作制造,我们也愿意与英特尔合作制造。Pat [Gelsinger] 过去曾表示我们正在评估这一工艺,我们最近收到了他们下一代工艺的测试芯片结果,结果看起来不错。」
黄仁勋的讲话是在他首次表示英伟达正在与英特尔的制造服务部门(IFS)进行谈判,以制造其一些芯片的近一年之后。这得益于英特尔最近转向了 IDM 2.0 模式,将使用其最新的工艺节点为其他公司代工制造芯片。
当然,英特尔将根据自己的设计创建自己的测试芯片,以与客户分享有关工艺节点状况的数据,因此不能确定该芯片是否采用了英伟达的设计。黄仁勋没有具体说明测试芯片的结果是基于英伟达的架构设计,还是测试了哪个工艺节点。
但这款芯片有可能是基于英伟达的设计。今年 1 月,英特尔意外宣布已签署了一份基于其 Intel 3 节点的芯片订单。该公司最初表示其首批 IFS 芯片将基于其 20A、18A 和「Intel 16」节点。
英特尔首席执行官 Pat Gelsinger 表示:「我们非常高兴能够将领先的云端、边缘和数据中心解决方案供应商作为 Intel 3 的领先客户。」英特尔没有透露该客户的名称,但我们知道 Intel 3 节点计划在 2023 年下半年开始制造成品。
英伟达肯定符合英特尔新客户的描述,但其他公司也可能是这个新的未透露名称的英特尔客户。无论哪种情况,黄仁勋的言论可能会引发关于英伟达是否是新的未透露名称的英特尔客户的猜测。这并不确定,而且英伟达最初不太可能选择 Intel 作为英伟达的代工伙伴有助于帮助英伟达在芯片供应方面建立韧性和冗余性,但也存在其他挑战。
正如黄仁勋在会议期间指出的那样,一台 DGX 系统(一台带有八个 GPU 的服务器)包含来自众多供应商的 35000 多个组件。由于在生成式人工智能浪潮中对 GPU 的需求激增,英伟达目前也正在努力增加所有这些组件的供应,但同时还必须在供应链方面寻求长期的冗余性。
黄仁勋还重申,该公司已经增加了对台积电的 A100 和 H100 GPU 的订单,以满足对这些产品的巨大需求。
高分辨率AI模型Griffon v2:通过文本和视觉提示提供灵活的对象引用
划重点:🔍最近,大型视觉语言模型(LVLMs)在需要文本和图像理解的任务中表现出色。🚀团队引入了Griffonv2,这是一种统一的高分辨率模型,旨在通过文本和视觉线索提供灵活的对象引用。🌟Griffonv2在引用表达生成(REG)、短语定位和引用表达理解(REC)等任务中表现出色。站长网2024-03-19 11:58:270000被追问Sora是否使用YouTube数据,OpenAI高管又语塞了
划重点:-OpenAI首席运营官BradLightcap在接受采访时避重就轻,没有明确回答Sora视频生成器是否使用了YouTube数据-他提到了一个未来的AI内容识别系统,但未直接承认Sora是使用了YouTube数据训练的。站长网2024-05-14 12:09:160000Google Domains关闭 其资产以1.8亿出售给Squarespace
谷歌母公司Alphabet今日宣布将关闭其运营的域名注册商GoogleDomains业务。广受欢迎的网站建设平台Squarespace在另一份公告中证实了此事,并表示其将以1.8亿美元的价格收购GoogleDomains,而摩根大通将为此次交易提供一定融资。据悉交易预计将在第三季度完成,具体的成交条件仍有待确定。站长网2023-06-16 16:45:200000LLM能否自我评估安全性?RAIN:一种无需微调即可改善AI对齐和安全防御新方法
文章概要:1.大型语言模型(LLM),如GPT-3,通过自我评估和改进方法(RAIN)能够满足人类需求,无需额外数据和微调。2.RAIN方法具备广泛适用性,适用于多种语言生成任务,无需额外模型或数据存储,且无需依赖标记数据或训练。3.RAIN通过自我评估提高LLM的性能,降低对敌对攻击的成功率,为AI生成更协调和安全的响应。站长网2023-09-18 10:53:170000Perplexica:开源AI驱动的问答搜索引擎
Perplexica是一个开源的AI驱动搜索引擎,提供多种搜索模式,旨在为用户提供更精准、更智能的搜索体验。它受到PerplexityAI的启发,不仅能够搜索网络,还能理解并回答用户的问题。Perplexica的核心功能包括:本地大型语言模型(LLMs)支持:支持使用本地部署的大型语言模型,如Llama3和Mixtral,通过Ollama进行操作。多种搜索模式:站长网2024-04-28 20:50:050004