登陆注册
14139

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

站长网2023-12-11 09:35:181

「高端」的开源,往往采用最朴素的发布方式。

昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

没有长篇官方博客,没有刻意加速的 Demo,这家公司算是当下大模型领域的「一股清流」。

打开一看,发现是接近87GB 的种子:

参数配置什么样?很多人放弃了周末,第一时间下载运行起来。

看上去,Mistral8x7B 使用了与 GPT-4非常相似的架构,但是「缩小版」:

8个专家总数,而不是16名(减少一半)

每个专家为7B 参数,而不是166B(减少24倍)

42B 总参数(估计)而不是1.8T(减少42倍)

与原始 GPT-4相同的32K 上下文

在发布后24小时内,已经有开发者做出了在线体验网站:https://replicate.com/nateraw/mixtral-8x7b-32kseqlen

有研究者称:「闭源大模型走到结局了。」

这周已经引发群嘲的谷歌,也再次被 Cue 到:

专家混合 (MoE) 是 LLM 中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。

具体来说,「专家层」是较小的神经网络,经过训练在特定领域具有高技能,每个专家处理相同的输入,但处理方式与其特定的专业相一致;「门控网络」是 MoE 架构的决策者,能评估哪位专家最适合给定的输入数据。网络计算输入与每个专家之间的兼容性分数,然后使用这些分数来确定每个专家在任务中的参与程度。

我们都知道,OpenAI 团队一直对 GPT-4的参数量和训练细节守口如瓶。早些时候,有人爆料 GPT-4是采用了由8个专家模型组成的集成系统。后来又有传闻称,ChatGPT 也只是百亿参数级的模型(大概在200亿左右)。

传闻无从证明,但 Mistral8x7B 可能提供了一种「非常接近 GPT-4」的开源选项。从模型元数据中可以看出,对于每个 token 的推理,Mistral8x7B 仅使用2个专家。

更让人感觉有趣的是,这是该公司官方账号自开通以来发布的第三条内容,两次重要发布均无文字说明,配图什么的更是不存在:

9月底的那条链接发布的是 Mistral7B,该模型至今仍被称为「最好的7B 模型」,在每个基准测试中都优于 Llama-213B,并且在代码、数学和推理方面优于 LLaMA-134B。

Mistral AI 成立于2023年5月,是一家法国人工智能初创公司,也是为数不多来自欧洲的大模型开源领域的明星团队。

Mistral AI 曾在6月获得了创纪录的1.18亿美元种子轮融资,还是在仅有7页 PPT 的情况下,据说这是欧洲历史上最大的种子轮融资。

公司创始人之一 Arthur Mensch 曾在10月份向《金融时报》表示,Mistral AI 的技术比美国的一些强大竞争对手开发的技术更高效、成本更低。

技术实力的优越,也为这家公司带来了投资者的持续关注。

近日,《金融时报》报道了 Mistral AI 新一轮融资的动态:新一轮融资约4亿欧元,主要由股权组成,可能在下周官宣。目前,公司的最新估值在20亿欧元左右。

知情人士透露,新一轮融资由硅谷著名风投 Andreessen Horowitz 牵头,其他参与者还包括英伟达、Salesforce、General Catalyst、法国巴黎银行等。

Mistral AI 的其他投资者还包括谷歌前 CEO 埃里克・施密特 (Eric Schmidt)、法国电信亿万富翁泽维尔・尼尔 (Xavier Niel) 和法国国家支持的投资银行 Bpifrance。

这篇报道还提到,Arthur Mensch 表示「虽然公司尚未赚到任何钱,但预计这种情况将在年底前发生改变,因为该公司准备了一个新平台,供客户访问其人工智能模型。」

参考链接:https://www.ft.com/content/ea29ddf8-91cb-45e8-86a0-f501ab7ad9bb

0001
评论列表
共(0)条