苹果开源7B大模型,训练过程数据集一口气全给了,网友:开放得不像苹果
苹果最新杀入开源大模型战场,而且比其他公司更开放。
推出7B模型,不仅效果与Llama38B相当,而且一次性开源了全部训练过程和资源。
要知道,不久前Nature杂志编辑Elizabeth Gibney还撰文批评:
许多声称开源的AI模型,实际上在数据和训练方法上并不透明,无法满足真正的科学研究需求。
而苹果这次竟然来真的!!
就连NLP科学家、AutoAWQ创建者也发出惊叹:
Apple发布了一个击败Mistral7B的模型,但更棒的是他们完全开源了所有内容,包括预训练数据集!
也引来网友在线调侃:
至于这次开源的意义,有热心网友也帮忙总结了:
对于任何想要从头开始训练模型或微调现有模型的人来说,数据管理过程是必须研究的。
当然,除了OpenAI和苹果,上周Mistral AI联合英伟达也发布了一个12B参数小模型。
HuggingFace创始人表示,「小模型周」来了!
卷!继续卷!所以苹果这次发布的小模型究竟有多能打?
效果直逼Llama38B
有多能打先不说,先来看Hugging Face技术主管刚“拆箱”的模型基础配置。
总结下来就是:
7B基础模型,在开放数据集上使用2.5T tokens进行训练
主要是英文数据,拥有2048tokens上下文窗口
数据集包括DCLM-BASELINE、StarCoder和ProofPile2
MMLU得分接近Llama38B
使用PyTorch和OpenLM框架进行训练
具体而言,研究团队先是提出了一个语言模型数据比较新基准——DCLM。
之所以提出这一基准,是因为团队发现:
由机器学习 (ML) 模型从较大的数据集中自动过滤和选择高质量数据,可能是构建高质量训练集的关键。
因此,团队使用DCLM来设计高质量数据集从而提高模型性能,尤其是在多模态领域。
其思路很简单:使用一个标准化的框架来进行实验,包括固定的模型架构、训练代码、超参数和评估,最终找出哪种数据整理策略最适合训练出高性能的模型。
基于上述思路,团队构建了一个高质量数据集DCLM-BASELINE,并用它从头训练了一个7B参数模型——DCLM-7B。
DCLM-7B具体表现如何呢?
结果显示,它在MMLU基准上5-shot准确率达64%,可与Mistral-7B-v0.3(63%)和Llama38B(66%)相媲美;并且在53个自然语言理解任务上的平均表现也可与Llama38B相媲美,而所需计算量仅为后者的1/6。
与其他同等大小模型相比,DCLM-7B的MMLU得分超越Mistral-7B,接近Llama38B。
最后,为了测试新数据集效果,有业内人士用卡帕西的llm.c训练了GPT-21.5B,来比较DCLM-Baseline与FineWeb-Edu这两个数据集。
结果显示DCLM-Baseline取得了更高的平均分,且在ARC(小学生科学问题推理)、HellaSwag(常识推理)、MMLU等任务上表现更好。
“小”模型成新趋势
回到开头,“小”模型最近已成新趋势。
先是HuggingFace推出了小模型家族“SmolLM”,其中包含135M、360M和1.7B型号模型。
它们在广泛的推理和常识基准上优于类似大小的模型。
然后OpenAI突然发布了GPT-4o mini,不仅能力接近GPT-4,而且价格大幅下降。
就在GPT-4o mini发布同日,Mistral AI联合英伟达发布了12B参数小模型——Mistral NeMo。
从整体性能上看,Mistral NeMo在多项基准测试中,击败了Gemma29B和Llama38B。
所以,为啥大家都开始卷小模型了?
原因嘛可能正如smol AI创始人提醒的,虽然模型变小了,但在能力相近的情况下,小模型大大降低了成本。
就像他提供的这张图,以GPT-4o mini为代表的小模型整体比右侧价格更低。
对此,我等吃瓜群众be like:
所以,你更看好哪家呢?(欢迎评论区讨论留言)
模型地址:
https://huggingface.co/apple/DCLM-7B
GitHub:
https://github.com/mlfoundations/dclm
数据集地址:
https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0
参考链接:
[1]https://x.com/Yuchenj_UW/status/1813260100192334108
[2]https://x.com/casper_hansen_/status/1814269340100751382
[3]https://x.com/_philschmid/status/1814274909775995087
[4]https://x.com/LoubnaBenAllal1/status/1813252390692303069
日本 METI 将建造新型超级计算机以帮助国内人工智能发展
据日经新闻获悉,日本经济产业省(METI)将通过其附属实验室推出新型尖端超级计算机,以支持日本生成人工智能(AI)的发展。日本产业技术综合研究所(AIST)最早将于2024年开发出一台计算能力约为现有机器2.5倍的超级计算机。在经济产业省的监督下,该研究机构将通过云服务向国内开发生成式人工智能的公司提供该计算机。站长网2023-07-25 16:18:390002美团上线剧场频道,内容能否建立“护城河”?
近日,美团App短视频界面再次升级,新增了剧场频道。用户进入该频道后,会看到电影以及电视剧解说内容,博主们会将一部影视作品分成多集进行讲解。经过本次改版,美团短视频界面被划分为关注、本地、剧场以及推荐四个板块。美团为何会在短视频界面单独推出剧场板块?通过不断加码短视频和直播,美团的内容化战略成效几何?美团能否守住本地生活老大哥的地位?美团加码短视频,意在用户留存站长网2024-03-19 19:48:080000十八部门:探索利用AI弥补优质教育教学资源不足
据教育部网站消息,近日,教育部等十八部门联合印发《关于加强新时代中小学科学教育工作的意见》,旨在适应科技发展和产业变革需要,从课程教材、实验教学、师资培养、实践活动、条件保障等方面强化顶层设计,充分整合校内外资源,推进学校主阵地与社会大课堂有机衔接,为中小学生提供更加优质的科学教育,全面提高学生科学素质,培育具备科学家潜质、愿意献身科学研究事业的青少年群体。站长网2023-05-29 14:48:200000CMU 研究人员推出 WebArena:为实用代理提供真实可复现的网络环境
CMU研究人员推出WebArena:一个真实可复现的网络环境,用于评估实用代理的性能。他们提供了四个真实的网络应用程序,用于训练自主代理执行特定任务。为了模拟人类问题解决,WebArena还嵌入了工具和知识资源作为独立的网站。WebArena引入了一个基准测试,将高级逼真自然语言命令解释为具体的基于Web的交互。站长网2023-07-28 09:48:370001基于GPT-4!Coscientist成功完成复杂化学实验 布洛芬配方轻松拿捏
要点:基于GPT-4的AI系统Coscientist成功完成复杂化学实验,包括钯催化交叉偶联反应,展示了其在科学研究中的潜力。Coscientist包含Planner、Websearcher、Codeexecution、Docssearcher、Automation等五大模块,通过智能规划、信息检索、编码执行、文档搜索和自动化等步骤完成整个实验流程。站长网2023-12-21 16:57:300004