羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品
开源羊驼大模型LLaMA上下文追平GPT-4,只需要一个简单改动!
Meta AI这篇刚刚提交的论文表示,LLaMA上下文窗口从2k扩展到32k后只需要小于1000步的微调。
与预训练相比,成本忽略不计。

扩展上下文窗口,就意味着AI的“工作记忆”容量增加,具体来说可以:
支持更多轮对话,减少遗忘现象,如更稳定的角色扮演
输入更多资料完成更复杂的任务,如一次处理更长文档或多篇文档
更重要的意义在于,所有基于LLaMA的羊驼大模型家族岂不是可以低成本采用此方法,集体进化?
羊驼是目前综合能力最强的开源基础模型,已经衍生出不少完全开源可商用大模型和垂直行业模型。

论文通信作者田渊栋也激动地在朋友圈分享这一新进展。

基于RoPE的大模型都能用
新方法名为位置插值(Position Interpolation),对使用RoPE(旋转位置编码)的大模型都适用。
RoPE早在2021年就由追一科技团队提出,到现在已成为大模型最常见的位置编码方法之一。

但在此架构下直接使用外推法(Extrapolation)扩展上下文窗口,会完全破坏自注意力机制。
具体来说,超出预训练上下文长度之外的部分,会使模型困惑度(perplexity)飙升至和未经训练的模型相当。
新方法改成线性地缩小位置索引,扩展前后位置索引和相对距离的范围对齐。

用图表现二者的区别更加直观。

实验结果显示,新方法对从7B到65B的LLaMA大模型都有效。
在长序列语言建模(Long Sequence Language Modeling)、密钥检索(Passkey Retrieval)、长文档摘要(Long Document Summarization)中性能都没有明显下降。

除了实验之外,论文附录中也给出了对新方法的详细证明。

Three More Thing
上下文窗口曾经是开源大模型与商业大模型之间一个重要差距。
比如OpenAI的GPT-3.5最高支持16k,GPT-4支持32k,AnthropicAI的Claude更是高达100k。
与此同时许多开源大模型如LLaMA和Falcon还停留在2k。
现在,Meta AI的新成果直接把这一差距抹平了。
扩展上下文窗口也是近期大模型研究的焦点之一,除了位置插值方法之外,还有很多尝试引起业界关注。
1、开发者kaiokendev在一篇技术博客中探索了一种将LLaMa上下文窗口扩展到8k的方法。

2、数据安全公司Soveren机器学习负责人Galina Alperovich在一篇文章中总结了扩展上下文窗口的6个技巧。

3、来自Mila、IBM等机构的团队还在一篇论文中尝试了在Transformer中完全去掉位置编码的方法。

有需要的小伙伴可以点击下方链接查看~
Meta论文:
https://arxiv.org/abs/2306.15595
Extending Context is Hard…but not Impossible
https://kaiokendev.github.io/context
The Secret Sauce behind100K context window in LLMs
https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c
无位置编码论文
https://arxiv.org/abs/2305.19466
—完—
昆仑万维闯入国产ChatGPT的竞赛现场
ChatGPT的燎原之火,看起来远未到烧尽之时。不止是百度阿里这种巨头相继推出了自家的大模型产品,包括复旦大学和中科院在内的学术机构也有公开测试的成品出现,有段子说,来自AI的涌现行为还没怎么感觉到,中国互联网公司对齐概念的涌现行为已经满目皆是了。站长网2023-04-27 13:53:220000当打假网红被打假
打假网红铁头,终于迎来了人生中最大的一次翻车。8月27日,杭州市公安局滨江区分局通报,已对董某某(网名“铁头”)等人以涉嫌敲诈勒索罪依法立案侦查。在此之前,铁头就曾因在直播间自曝涉黄而遭遇全网封禁。被封禁后不久,铁头还曾奔赴日本整了一个颇具争议性的“大活”。但如今,铁头再度被人看见,已经是出现在一张蓝底白字的通告里。站长网2024-09-05 16:50:440000快手:将于12月31日停止第三方微短剧小程序商业投放
快手宣布,为引导付费短剧业务健康发展、夯实自身短剧内容和产业生态建设,将于12月31日20:00正式停止第三方微短剧小程序的商业推广和投放。快手官方称,从12月22日起,第三方小程序微短剧广告主可逐步迁移到快手小程序以及快手自建链路进行投放。期间,为了降低迁移对广告主的影响、保障投放效果,平台将给予一定的政策扶持。0000研究:大多数企业看好使用生成式人工智能进行颠覆,但低估了需求
划重点:⭐️全球调查发现,大多数企业希望利用生成式人工智能(AI)颠覆其行业,但只有少数认为他们拥有足够支持其快速采用的技术水平和其他要素。⭐️调查发现,企业对生成式AI的快速采用存在低估,这可能导致他们在部署过程中遇到困难,无法实现他们作为颠覆者的计划。⭐️调查显示,企业需要解决IT不足等问题,否则可能无法实现他们对生成式AI的雄心。站长网2024-03-05 16:12:520000Numenta发布基于大脑的NuPIC,将AI效率提高100倍
文章概要:1.Numenta公司经过17年的大脑研究,终于推出NuPIC产品,旨在使AI处理效率提高100倍。2.NuPIC是一款基于神经科学的人工智能解决方案,建立在深入研究的基础上,由计算先驱杰夫·霍金斯和唐娜·杜宾斯基创立。3.这一平台利用IntelCPU,提供高性能运行和完全控制,标志着人工智能领域的重要里程碑。站长网2023-09-12 10:03:140000