苹果大模型MM1入场:参数达到300亿 超半数作者是华人
要点:
苹果发布了多模态大型语言模型MM1,参数达到300亿,采用MoE架构,超半数作者为华人。
MM1在模型架构、预训练数据选择和训练方法上进行了详细探讨,并在多项基准测试中表现出竞争力。
MM1的预训练和监督微调结果显示,采用不同的数据和训练策略可以获得更好的性能,MoE模型进一步扩展了潜力。
苹果公司最新发布了一款名为MM1的大型多模态基础模型,拥有300亿参数,采用了MoE架构,并且超过一半的作者是华人。该模型在多模态领域具有重要意义,可能预示着苹果未来推出与此相关的产品。
今年以来,苹果明显加大了对生成式人工智能(GenAI)领域的投入,这一举措体现了苹果在GenAI领域取得重大进展的决心。据悉,苹果一部分转向GenAI的团队原本是从事造车项目的,而如今他们也开始投身于GenAI领域的研发工作。

论文地址:https://arxiv.org/pdf/2403.09611.pdf
MM1的发布引起了广泛关注。据论文介绍,该模型采用了MoE变体,并且在预训练指标和多项多模态基准测试上表现出了领先水平。研究者通过多项消融试验,探讨了模型架构、预训练数据选择以及训练程序等方面的重要性。他们发现,图像分辨率、视觉编码器损失和预训练数据在建模设计中都起着关键作用。
在预训练数据选择方面,研究者发现了几个重要经验:交错数据对提高少样本和纯文本性能有帮助,而字幕数据则对提高零样本性能具有重要作用。
此外,纯文本数据对于提高少样本和纯文本性能同样至关重要。通过合理混合图像和文本数据,可以获得最佳的多模态性能,并保留较强的文本性能。研究者还发现,人工合成数据有助于少样本学习。
最终,研究者确定了MM1的最终配方,包括图像编码器、视觉语言连接器和预训练数据的选择。他们还将LLM的大小扩大到3B、7B和30B个参数,并通过专家混合(MoE)进一步扩展了模型。在监督微调实验中,MM1在多项基准测试上表现出了竞争力,并且MoE模型在几乎所有基准测试中均表现优于密集模型。
MM1的发布标志着苹果在多模态领域的重要进展,也为未来苹果可能推出的相关产品奠定了技术基础。该研究的成果对于推动生成式人工智能领域的发展具有重要意义,值得业界密切关注。
谷歌AI研究提出利用大语言模型生成个性化文本通用方法
本文概要:1.使用多阶段多任务结构,包括检索、排序、摘要、合成和生成,训练法学硕士进行个性化文本生成。2.引入辅助任务来提高大型语言模型的阅读能力,通过识别文本作者来改善模型的解释能力。3.在三个公开数据集上验证了该方法的性能,结果显示在所有数据集上相较于基准模型,多阶段多任务框架都取得了显著的改进。最近,谷歌AI研究团队提出了一种利用大型语言模型进行个性化文本生成的通用方法。站长网2023-08-22 21:43:040000生成式人工智能岗位需求暴涨超300% 年薪超40万元
随着人工智能应用的爆发,生成式人工智能(AIGC)的招聘市场正变得异常火爆。根据最新数据显示,今年一季度,生成式人工智能相关职位需求同比增长超过三倍,引起了业界的广泛关注。图源备注:图片由AI生成,图片授权服务商Midjourney站长网2024-05-08 21:42:420000特斯拉机器人进厂打工,马斯克:手的自由度今年将达到22个
特斯拉机器人Optimus最新视频出炉,已经可以在厂子里打工了。正常速度下,它分拣电池(特斯拉的4680电池)是这样的:官方还放出了20倍速下的样子——在小小的“工位”上,拣啊拣啊拣:这次放出的视频亮点之一在于Optimus在厂子里完成这项工作,是完全自主的,全程没有人为的干预。并且在Optimus的视角之下,它还可以把放歪了的电池重新捡起来放置,主打一个自动纠错:站长网2024-05-06 21:10:140000苹果首款AI平板曝光,新iPad Pro搭载M4芯片
据彭博社MarkGurman的最新爆料,苹果公司即将在5月份发布新版iPadPro,这款设备将直接搭载M4芯片,跳过M3版本。M4芯片继续采用台积电3nm工艺,其主要改进在于提升神经网络引擎的性能,这将使得AI功能运行更加流畅。站长网2024-04-29 17:14:570000IP改编是个轮回,茅奖作品竟成最香“大饼”?
“多年以后,面对行刑队,奥雷利亚诺·布恩迪亚上校将会回想起父亲带他去见识冰块的那个遥远的下午。”1967年,首次出版的魔幻现实主义小说《百年孤独》贡献了文学史上最为著名的开篇之一。2024年,当这句话被网飞引用在《百年孤独》电视剧版预告片里时,你会发现我们对经典文本的影视化想象,或许还远远不够大胆……0000