微软发布小型语言模型Orca 2:仅7亿/13亿参数,媲美Llama-2-Chat-70B
**划重点:**
1. 📊 *Orca2模型在零样本测试中,涵盖语言理解和常识推理等15个多样化基准测试中,与五到十倍更大的模型相匹敌或胜过。
2. 🌐 微软开源了两个规模为7亿和13亿参数的Orca2模型,旨在促进对更小型模型的研究,这有助于有限资源的企业更经济地解决特定应用场景。
3. 🧠 与传统的模仿学习不同,微软研究人员通过精心设计的合成数据集,教授Orca2模型使用不同的解决方案策略,为不同任务提供最有效的解决方案策略。
在OpenAI发生权力斗争和大规模辞职的时刻,微软作为AI巨头的长期支持者,依然在其人工智能努力上不懈努力。微软公司的研究部门今日发布了Orca2,这是一对小型语言模型,经测试在复杂推理任务的零样本设置中,与Meta的Llama-2Chat-70B等五到十倍大的语言模型相匹敌或更胜一筹。
这两个模型分别具有7亿和13亿个参数,是在几个月前展示了强大推理能力的原始13B Orca模型的基础上进行的改进。微软研究人员在一篇联合博客中写道:“通过Orca2,我们继续展示改进的训练信号和方法可以使较小的语言模型获得增强的推理能力,这通常只在更大型的语言模型中找到。”
公司已经将这两个新模型开源,以促进对能够与更大模型一样出色执行的较小模型的开发和评估的进一步研究。这项工作为那些资源有限的企业提供了更好的选择,以解决目标用例而无需过多投资于计算能力。
针对小型模型缺乏推理能力的问题,微软研究决定通过在高度定制的合成数据集上对Llama2基础模型进行微调来解决这一差距。与常用的模仿学习技术不同,研究人员训练模型在不同任务中采用不同的解决方案策略。他们的理念是,较大模型的策略并不总是完美适用于较小模型。例如,GPT-4可能能够直接回答复杂问题,但没有这种能力的较小模型可能通过将相同任务分解为几个步骤而受益。
研究人员在今天发表的一篇论文中写道:“在Orca2中,我们教授模型各种推理技巧(逐步,回忆然后生成,回忆-推理-生成,直接回答等)。更关键的是,我们旨在帮助模型学会为每个任务确定最有效的解决方案策略。”项目的训练数据是从更强大的教师模型中获得的,以这样一种方式获取数据,以教授学生模型处理如何使用推理策略以及何时对手头的特定任务使用它。
在15个多样化的基准测试中,涵盖语言理解、常识推理、多步推理、数学问题解决、阅读理解、摘要和真实性等方面,Orca2模型在零样本设置中表现出色,大多数情况下匹配或超过了五到十倍规模更大的模型。
所有基准测试结果的平均值显示,Orca2的7B和13B版本胜过了Llama-2-Chat-13B和70B以及WizardLM-13B和70B。唯独在GSM8K基准测试中,包含8.5K高质量小学数学问题,WizardLM-70B的表现确实比Orca模型和Llama模型更为出色。
尽管这些性能对于希望在经济应用中获得小型高性能模型的企业团队来说是个好消息,但值得注意的是,这些模型也可能继承其他语言模型以及它们微调的基本模型的常见限制。
微软补充说,用于创建Orca模型的技术甚至可以应用于其他基础模型。研究团队写道:“尽管它有一些局限性...,但是Orca2在未来推理、专业化、控制和较小模型的安全性方面的潜力是显而易见的。对精心筛选的合成数据进行后训练在这些改进中是一个关键策略。随着更大的模型不断取得进展,我们与Orca2的合作在多样化语言模型的应用和部署选项方面迈出了重要一步。”
随着Orca2模型的开源发布和该领域正在进行的研究,可以安全地说未来可能会涌现更多高性能的小型语言模型。就在几周前,中国最近刚刚成为独角兽的01.AI,由资深AI专家李开复创立,也在这一领域迈出了重要的一步,发布了一个支持中文和英文的340亿参数模型,胜过了70亿Llama2和180亿Falcon等竞品。这家初创公司还提供了一个培训有60亿参数的较小选项,并在广泛使用的AI/ML模型基准测试中表现不俗。
六个月前在巴黎创立并以其独特的Word Art标志和创纪录的1.18亿美元种子轮融资引起轰动的Mistral AI公司,也提供了一个7亿参数的模型,优于Meta的Llama213B(Meta较新模型中的较小型号之一)。
微软博客介绍:https://www.microsoft.com/en-us/research/blog/orca-2-teaching-small-language-models-how-to-reason/
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架
【新智元导读】来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。在需要大量事实知识的文本生成任务中,RAG成为了常用的LLM部署技巧。站长网2024-07-09 20:12:520008昆仑万维:23年收入49亿净利润13亿 将加大AI研发投入
4月23日晚间,昆仑万维披露了2023年年度业绩报告。公司在2023年实现了营业收入49.2亿元,其中海外业务收入占比达86.0%,同比提升8.4个百分点;净利润为12.6亿元,同比增长9.15%,继续保持行业前列的利润规模。站长网2024-04-24 11:40:180000DevOpsGPT: AI自动完成软件开发 提高开发效率
DevOpsGPT是一个基于人工智能的软件开发自动化解决方案,将自然语言需求转化为可工作的软件。通过结合LLM(大型语言模型)和DevOps工具,DevOpsGPT极大地提高了开发效率,缩短了开发周期,并降低了沟通成本,从而实现了更高质量的软件交付。项目地址:https://github.com/kuafuai/DevOpsGPT核心功能:站长网2023-08-04 10:19:550000被偏爱的,被围猎的,实地探访狗头萝莉煎饼摊
站长网2023-07-22 07:07:190000AI协助创作日本漫画家手塚治虫作品,新一章《怪医黑杰克》上架
**划重点:**1.🎨手冢治虫的《怪医黑杰克》迎来新篇章,由人工智能与人类合作创作,令人瞩目。2.🚀大型语言模型GPT-4和AI图像生成器StableDiffusion协同,决定故事情节和人物设计,人类负责插图创作。3.💬手冢治虫之子表示,尽管不是所有人都会满意这一项目,但希望此举能激发关于人工智能在创意领域的更多讨论。站长网2023-11-22 14:50:070001