算力不足,小模型成AI模型发展下个方向?
大模型不是AI的唯一出路,把模型做小也是本事。
这段时间,AI模型界是真的热闹,新的模型不断涌现,不管是开源还是闭源,都在刷新成绩。就在前几天,Meta就上演了一出“重夺开源铁王座”的好戏。发布了Llama38B和70B两个版本,在多项指标上都超越了此前开源的Grok-1和DBRX,成为了新的开源大模型王者。

并且Meta还透露,之后还将推出400B版本的Llama3,它的测试成绩可是在很多方面上都追上了OpenAI闭源的GPT-4,让很多人都直呼,开源版的GPT-4就要来了。尽管在参数量上来看,相比Llama2,Llama3并没有特别大的提升,但是在某些表现上,Llama3最小的8B版本都比Llama270B要好。可见,模型性能的提升,并非只有堆参数这一种做法。
Llama3重回开源之王
当地时间4月18日,“真·OpenAI”——Meta跑出了目前最强的开源大模型Llama3。本次Meta共发布了两款开源的Llama38B和Llama370B模型。根据Meta的说法,这两个版本的Llama3是目前同体量下,性能最好的开源模型。并且在某些数据集上,Llama38B的性能比Llama270B还要强,要知道,这两者的参数可是相差了一个数量级。

能够做到这点,可能是因为Llama3的训练效率要高3倍,它基于超过15T token训练,这比Llama2数据集的7倍还多。在MMLU、ARC、DROP等基准测试中,Llama38B在九项测试中领先于同行,Llama370B也同样击败了Gemini1.5Pro和Claude3Sonnet。

尽管在参数量上并没有特别大的提升,但毫无疑问,Llama3的性能已经得到了很大的进步,可以说是用相近的参数量获得了更好的性能,这可能是在算力资源短期内无法满足更大规模运算的情况下所作出的选择,但这体现了AI模型的研发并非只有堆砌参数这一条“大力出奇迹”的道路。
把大模型做小正成业内共识
实际上,在Llama3之间的两位开源王者,Grok-1和DBRX也致力于把模型做小。和以往的大模型,使用一个模型解决一切问题的方式不同,Grok-1和DBRX都采用了MoE架构(专家模型架构),在面对不同问题的时候,调用不同的小模型来解决,实现在节省算力的情况下,保证回答的质量。

而微软也在Llama3发布后没几天,就出手截胡,展示了Phi-3系列小模型的技术报告。在这份报告中,仅3.8B参数的Phi-3-mini在多项基准测试中都超过了Llama38B,并且为了方便开源社区使用,还特意把它设计成了与Llama系列兼容的结构。更夸张的是,微软的这个模型,在手机上也能直接跑,经4bit量化后的phi-3-mini在iPhone14pro和iPhone15使用的苹果A16芯片上能够跑到每秒12token,这也就意味着,现在手机上能本地运行的最佳开源模型,已经做到了ChatGPT水平。

而除了mini杯外,微软也一并发布了小杯和中杯,7B参数的Phi-3-small和14B参数的Phi-3-medium。在技术报告中,微软也说了,去年研究团队就发现,单纯堆砌参数量并非提升模型性能的唯一路径,反而是精心设计训练的数据,尤其是利用大模型本身去生成合成数据,并配合严格过滤的高质量数据,能够让中小模型的能力大幅跃升,所以他们也说,Textbooks are all you need,教科书级别的高质量数据才是重要的。

AI模型发展正着力于摆脱限制
自英伟达乘着AI的东风,成为行业内说一不二,当之无愧的“卖铲子的人”,各家AI公司都将英伟达的GPU视为“硬通货”,以致于谁囤有更多的英伟达的GPU,谁的AI实力就强。但英伟达的GPU的交付并未能始终跟上市场的需求。
因此,很多AI公司开始另谋出路,要么找其他的GPU生产商,要么决定自己研发AI芯片。即使你囤够了英伟达的GPU,也还有其他限制,OpenAI在前段时间就被爆出,因为训练GPT-6,差点把微软的电网搞瘫痪。马斯克也曾说过,当前限制AI发展的主要因素是算力资源,但在未来,电力会成为限制AI发展的另一阻碍。

显然,如果持续“大力出奇迹”,通过堆砌参数量来实现AI性能的提升,那么以上这些问题迟早会遇到,但是如果把大模型做小,使用较小的参数量,实现同样或者更好的性能,那么将可以显著减少对算力资源的需求,进而减少对电力资源的消耗,从而让AI在有限资源的情况下,得到更好的发展。
因此,接下来,谁能在将模型做小的同时,还能实现性能的增长,也是实力的体现。
参考资料:
https://mp.weixin.qq.com/s/F9K0A_f4CFgfFyY3bf4F8g
https://mp.weixin.qq.com/s/QJC76vH9ZrynQalkh0rXhg
小米社区内测 AI 百宝箱功能 仅限小米 14 系列用户报名
昨日,小米社区宣布启动了一项激动人心的内测活动——“AI百宝箱”,这项创新功能目前仅面向小米14/Pro开发版用户开放申请。此次内测为用户提供了一个丰富的AI工具大集合,首个惊艳上线的功能即为AI惊喜壁纸,广大用户可积极申请参与体验。站长网2024-04-19 14:08:180000ChatGPT卷入爆炸案刷屏,AI安全正在成为最贵的学费
新年伊始,ChatGPT竟成了「恐怖分子」的帮凶?在为一位美国现役军人提供爆炸知识后,后者成功将一辆特斯拉Cybertruck在酒店门口引爆……汽车爆炸现场画面,外媒视频截图这并非科幻电影桥段,而是AI安全风险正在文明身边真实上演的缩影。知名AI投资人RobToews在《福布斯》专栏预测,2025年我们将迎来「第一起真实的AI安全事件」。0000英伟达和 WPP 合作构建 AI 驱动的内容引擎:WPP 正转型为人工智能公司
WPP集团是一家总部位于伦敦、执行部位于爱尔兰都柏林的广告和公关服务跨国公司。它在全球110个国家拥有3,000个办事处,员工超过162,000人。该公司的业务范围包括广告、公共关系、游说、品牌形象与沟通。它是世界五大广告集团之一,其竞争对手包括电通、阳狮、Interpublic和宏盟集团。站长网2023-06-29 15:46:010000高德世界地图正式上线!基于北斗定位:国外实时精准导航
快科技9月2日消息,今天高德地图官方正式宣布,高德世界地图”正式上线,在国外也能定位、导航了。据介绍,高德世界地图基于北斗系统的全球定位能力,实现境外路线规划与导航服务。此外,高德用户非常喜欢的电量足迹功能也扩展至全球了,在国外使用高德导航时,就能点亮沿途经过的国家和城市。截至目前,高德世界地图已在全球超过200个国家和地区上线,用户升级高德地图APP至最新版后即可使用体验。站长网2023-09-02 15:52:380000研究人员发布了针对ChatGPT和其他LLM的攻击算法
卡内基梅隆大学(CMU)的研究人员发表了LLMAttacks,这是一种用于构建针对各种大型语言模型(LLM)的对抗攻击的算法,包括ChatGPT、Claude和Bard。这些攻击是自动生成的,对GPT-3.5和GPT-4的成功率为84%,对PaLM-2的成功率为66%。站长网2023-08-07 09:01:480000