微软宣布 Sam Altman 和 Greg Brockman 加盟,领导新的高级 AI 研究团队
站长网2023-11-20 16:29:512阅
微软公司的首席执行官 Satya Nadella 在周一表示,Sam Altman、Greg Brockman 以及他们的许多前 OpenAI 同事将加入这家软件巨头。这一宣布标志着在 AI 初创公司的高管突然离职后,经过三天激烈讨论高潮的句号。

在微软,前 OpenAI 成员将领导一个「新的高级 AI 研究团队」,Nadella 在一份声明中说。「我们期待迅速为他们提供成功所需的资源,」他补充道。
这一举措是微软在人工智能领域的一个重大突破,不仅增强了其在这一迅速发展的技术领域的地位,还表明了其对顶尖 AI 人才的重视。Altman 和 Brockman 的加入,以及他们在 OpenAI 的前同事们的集体加盟,将为微软在 AI 研究和开发方面带来新的动力和创新。
微软对这些新团队的高度投入和对其研究的重视,预示着该公司将在 AI 领域发挥更加重要的作用。随着 AI 技术的不断进步和应用的广泛化,微软的这一举措可能会对整个行业产生深远的影响。
Altman 和 Brockman 在 OpenAI 的经验和专长,结合微软的资源和技术能力,预示着未来可能出现更多创新和领先的 AI 解决方案。此外,这也可能加强微软在与其他科技巨头竞争中的地位,特别是在与 Google、Amazon 和 Meta 等公司的竞争中。
Nadella 似乎还证实了 Emmett Shear 被任命为 OpenAI 新任首席执行官的报道,称他们 「期待着了解 Emmett Shear 和 OAI 的新领导团队,并与他们合作」。
0002
评论列表
共(0)条相关推荐
FiT:一种全新的Transformer架构图像生成模型 分辨率和高宽比不受限制
灵活视觉变换器(FiT)是一种全新的Transformer架构图像生成模型,专门设计用于创造没有分辨率和宽高比限制的图像。相较于传统将图像视为固定分辨率网格的方法,FiT将图像视为一系列可变大小的图像块(Token)。这种独特的处理方式使得FiT能够在训练和应用过程中灵活适应不同的图像宽高比,提高了对不同分辨率的适应能力,并避免了由于裁剪图像而产生的偏差。站长网2024-02-21 11:14:460000马斯克发文反对美国禁止TikTok:违背言论和表达自由
快科技4月20日消息,当地时间4月19日,特斯拉CEO马斯克在社交媒体平台X发文明确反对美国禁止TikTok,其表示:我认为TikTok不应在美国被禁,尽管相关禁令可能会让X平台受益,这样的做法有悖于言论和表达自由”。今年3月13日,美国众议院投票通过了一项保护美国人免受外国对手控制应用程序侵害法”的法案。站长网2024-04-20 13:55:320000视觉Transformer中ReLU替代softmax,DeepMind新招让成本速降
Transformer架构已经在现代机器学习领域得到了广泛的应用。注意力是transformer的一大核心组件,其中包含了一个softmax,作用是产生token的一个概率分布。softmax有较高的成本,因为其会执行指数计算和对序列长度求和,这会使得并行化难以执行。站长网2023-09-20 09:17:030000小米汽车官方App上架小米应用商店:就等SU7发布了!
快科技3月26日消息,小米汽车首款车型小米SU7将于3月28日正式上市发布,目前,官方正在为上市做最后的准备。继昨日小米汽车App在苹果AppStore上架后,该App今日正式上线小米应用商店,小米手机用户目前已可下载体验。小米汽车App中有购车、社区、商城以及我的四大板块,其中,购车”页面是对小米SU7进行详细介绍,社区”应该就是未来用户交流的地方。站长网2024-03-26 16:56:160000LQ-LoRA:通过低秩量化矩阵分解实现高效的语言模型微调
要点:LQ-LoRA是一种基于LoRA的变体,通过低秩量化矩阵分解实现对大型语言模型进行高效微调,特别适用于解决内存效率和数据适应性问题。LQ-LoRA通过在适应过程中将权重矩阵分解为量化组件Q和低秩组件L1L2,结合整数线性规划技术,提高了LoRA的内存效率。该方法在调整后能够显著降低大型语言模型的内存需求,同时保持功能性。站长网2023-11-27 10:22:510001