首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集
“取消今晚所有计划!”,许多AI开发者决定不睡了。
只因首个开源MoE大模型刚刚由Mistral AI发布。
MoE架构全称专家混合(Mixture-of-Experts),也就是传闻中GPT-4采用的方案,可以说这是开源大模型离GPT-4最近的一集了。
没有发布会、没有宣传视频,只靠一个磁力链接,就产生如此轰动效果。
具体参数还得是网速快的人下载完之后,从配置文件里截图发出来的:
7B参数x8个专家,对每个token选择前两个最相关的专家来处理。
以至于OpenAI创始成员Karpathy都吐槽,是不是少了点什么?
怎么缺了一个那种排练很多次的专业范视频,大谈特谈AI变革啊。
至于吐槽的是谁,懂得都懂了。
以及他还解释了为什么AI社区这几天如此活跃:最大的深度学习会议NeurIPS即将在下周开启。
MoE,开源大模型新阶段?
为何这款开源MoE模型如此受关注?
因为其前身Mistral-7B本来就是开源基础模型里最强的那一档,经常可以越级挑战13B、34B。
并且Mistral-7B以宽松的Apache-2.0开源协议发布,可免费商用,这次新模型很可能沿用这个协议。
在多个评测排行榜上,基于Mistral-7B微调的Zephyr-7B-beta都是前排唯一的7B模型,前后都是规模比他大得多的模型。
LLMSYSChatbot Arena上,Zephry-7B-beta目前排第12。
AlpacaEval上,也排到第15。
目前这个新的MoE模型连个正式名字都还没有,社区一般称呼它为Mistral-7Bx8MoE。
但在大家期待的期待中,新MoE模型对比单体Mistral-7B的提升幅度,就应该像GPT-4对比GPT-3.5那样。
但是注意了,有人提醒大家MoE对于本地运行来说不是太友好,因为更占内存
但更适合部署在云端,跨设备专家并行,给公司处理并发需求带来成本优势。
行动比较快的公司是前PyTorch成员出走创办的fireworks.ai。
第一次尝试、没有任何优化的情况下,需要两张80GB内存的卡,优化版本即将推出。
Replicate上也有了可试玩版本,简单试用发现中文水平也不错。
其实Mistral AI也为大家准备了官方配套代码,使用了斯坦福去年发布的轻量级MoE库Megablocks。
创始人:小模型支持更多有意思的应用
Mistral AI由前DeepMind、前Meta科学家创办。
刚刚完成一轮4.87亿美元的新融资,最新估值逼近20亿美元,已晋升独角兽。
三位联合创始人中,CEOArthur Mensch此前在DeepMind巴黎工作。
CTOTimothée Lacroix和首席科学家Guillaume Lample则在Meta共同参与过Llama系列的研发,Lample是通讯作者之一。
Arthur Mensch曾在接受采访时谈到,让模型变小是支持Agent发展的路径之一。
如果能把计算成本降低100倍,就能构建起更多有意思的应用。
Mistral AI成立于今年5月,种子轮融资1.13亿美元。
9月底,Mistral AI以磁力链接的形式发布第一个开源模型Mistral-7B,当时很多开发者试用后都觉得Llama-2不香了。
12月初,Mistral AI再次甩出开源MoE模型磁力链接,再次掀起一波热潮。
这就是公司官号仅有的几次发言。
不少人都拿来和最近谷歌的过度宣传做对比。
最新的梗图:磁力链接就是新的arXiv。
参考链接:
[1]https://x.com/MistralAI/status/1733150512395038967?s=20
[2]https://github.com/mistralai/megablocks-public
[3]https://replicate.com/nateraw/mixtral-8x7b-32kseqlen
AI视野:GPTs商店推迟至2024年发布;抖音AI扩图爆火;阿里推出AI动画生成框架;出门问问推出奇妙助手
【要闻速览】GPTs商店推迟至2024年发布OpenAI在中国申请GPT-6、GPT-7商标抖音AI扩图爆火谷歌推超快扩散模型MobileDiffusion阿里推出AI动画生成框架中国电信成立AI公司AI视觉字谜爆火!梦露转180°秒变爱因斯坦字节跳动与中科大联手提出多模态文档大模型DocPedia哈工深发布多模态大模型九天kreaAI推出实时增强功能站长网2023-12-04 15:45:350001英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快
【新智元导读】LLM训练速度还可以再飙升20倍!英伟达团队祭出全新架构归一化Transformer(nGPT),上下文越长,训练速度越快,还能维持原有精度。AI的未来,或许就此改写......最近,英伟达团队抛出的一枚重磅炸弹,提出了全新神经网络架构——归一化Transformer(nGPT),基于超球面(hypersphere)进行表示学习。00009月前必须适配64位!小米、OPPO、vivo将逐步清理商店32位应用
快科技5月24日消息,今日,移动智能终端生态联盟发文,对金标联盟64位适配时间节点进行了通知。为了更好地提升安卓应用兼容性体验,避免在24年下半年的新机上出现应用无法安装使用的问题,官方提醒开发者务必在2024年8月31日前完成64位适配。届时,金标联盟成员小米、OPPO、vivo三家将逐步清理商店32位应用,并针对不在架的32位应用实施相关风险提示等措施。站长网2024-05-24 18:10:290000华为Pura 70全系维修价格出炉:Ultra版换主板5699元 够买台Mate60
快科技4月19日消息,日前,华为Pura70系列开启先锋计划,Pura70Ultra和Pura70Pro已率先开售。目前,华为官网公布了Pura70系列四款机型维修价格。站长网2024-04-19 09:20:290000元象开源70亿参数通用大模型 XVERSE-7B 免费可商用
元象宣布开源70亿参数通用大模型XVERSE-7B底座与对话版,这是一款全开源、免费可商用的模型。相比之前的XVERSE-13B,7B版本更小巧,可以在单张消费级显卡上运行,并且推理量化后最低只需6GB显存,大大降低了开发门槛和推理成本。该模型在多项权威测试中表现出色,并具有强大的认知、规划、推理和记忆能力,支持40多种语言。站长网2023-09-27 08:52:580000