模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向
还有10个月,2024年还有很多期待空间。
在过去的2023年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望2024年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。
现在,2024年的第一个月已经过去,也许是时候盘点一番新年首月进展了。近日,AI 研究者 Sebastian Raschka 发布了一份报告,介绍了四篇与上述新阶段有关的重要论文。它们的研究主题简单总结起来是这样:
1. 权重平均和模型融合可将多个 LLM 组合成单个更好的模型,并且这个新模型还没有传统集成方法的典型缺陷,比如更高的资源需求。
2. 代理调优(proxy-tuning)技术可通过使用两个小型 LLM 来提升已有大型 LLM 的性能,这个过程无需改变大模型的权重。
3. 通过将多个小型模块组合起来创建混合专家模型,可让所得 LLM 的效果和效率媲美甚至超越更大型的对应模型。
4. 预训练一个小型的1.1B 参数的 LLM 可降低开发和运营成本,并能为教育和研究应用带来新的可能性。
最后他总结了1月份的多篇有趣研究,以下是机器之心对原文不改变原义的编译与整理。
1.WARM:On the Benefits of Weight Averaged Reward Models

论文地址:https://arxiv.org/abs/2401.12187
在这篇1月22日的论文《WARM: On the Benefits of Weight Averaged Reward Models》中,研究者提出了一种用于 LLM 奖励模型的权重平均方法。这里的奖励模型是指在用于对齐的 RLHF 中使用的奖励模型。
何为权重平均?因为用于 LLM 的权重平均和模型融合可能会成为2024年最有趣的研究主题,在深入介绍这篇 WARM 论文之前,我们先来谈谈这个主题。
了解模型融合和权重平均
模型融合和权重平均并不是新思想,但却是目前最受瞩目的方法。它成为了 Open LLM 排行榜上占据主导地位的技术。下面我们简单讨论一下这两个概念。
权重平均和模型融合都是将多个模型或检查点模型组合成单一实体。这有什么好处?类似于创建集成模型的概念,这种将多个模型组合成一个模型的思想可以提升训练的收敛、提升整体性能和提升稳健性。需要强调的是,不同于传统的集成方法,模型融合和权重平均会得到一个单一模型,而不是维护多个分立的模型,如下图所示。

权重平均和模型融合(左)和多数投票(majority voting)等传统集成方法(右)
传统上讲,权重平均涉及到将单个模型在训练过程中不同点的权重参数进行平均。通常而言,这是在模型接近收敛的训练结束时完成的。这一技术的一种常见形式是随机权重平均(SWA,Stochastic Weight Averaging)。这种方法是对一个初始较大的学习率进行衰减,而权重则在学习率衰减期间(仍然相对较高)在多轮迭代上进行平均。

随机权重平均(SWA)是在训练周期快结束时对模型的权重进行平均。
由于模型的训练轨迹可能并不均匀,因此其策略是在训练快结束时计算模型的平均,此时学习率较低,并且训练已接近收敛,如上图所示。
另一种方法是指数移动平均(EMA,Exponentially Moving Average),其做法是通过指数级地降低旧状态的权重来计算权重的一个平滑化版本。
2022年,最新权重平均(LaWA,Latest Weight Averaging)表明,通过平均最新的 k 个检查点的权重(每个权重都在 epoch 结束时获取),可在损失和准确度方面将训练过程加速多个 epoch。研究表明,这种技术能有效地用于 ResNet 视觉模型和 RoBERTa 语言模型。
然后到了2023年,论文《Early Weight Averaging Meets High Learning Rates for LLM Pre-training》探索了 LaWA 的一个修改版,其使用了更高的学习率,并且在训练期间会更早地在平均检查点中开始。其研究者发现,这种方法能显著提升标准 SWA 和 EMA 方法的性能。

来自论文《Early Weight Averaging meets High Learning Rates for LLM Pre-training》的修改版 LaWA,论文地址:https://arxiv.org/abs/2306.03241
权重平均的做法是将同一模型的多个检查点组合成单个模型,而模型融合则是将多个不同的已训练模型组合成单个模型。这些模型中的每一个都可能是独立训练的,并且可能基于不同的数据集或任务。
模型融合已有较长的历史,但最近一篇颇具影响力的 LLM 相关论文是《Model Ratatouille:Recycling Diverse Models for Out-of-Distribution Generalization》。(论文地址:https://arxiv.org/abs/2212.10445)
Model Ratatouille 背后的思想是复用多个同一基础模型在不同的多样性辅助任务上微调过的迭代版本,如下图所示。

通过 Model Ratatouille 实现模型融合,并且对比了其它微调策略,(OOD = 分布外 / 泛化)
细致来说,Model Ratatouille 方法可以总结成下图。

用于模型融合的 Model Ratatouille 方法
请注意,这样的整体思路也可用于 LoRA 适应器,如论文《LoraHub: Efficient Cross-Task Generalization via Dynamic LoRA Composition》展现的那样。(论文地址:https://arxiv.org/abs/2307.13269)
使用了权重平均的奖励模型
讨论完了权重平均和模型融合,下面我们回到近期新发布的论文《WARM:On the Benefits of Weight Averaged Reward Models》。
这项研究的主要目的是提升用于 LLM 的 RLHF 对齐步骤。具体来说,研究者希望通过平均微调后的奖励模型的权重来缓解 LLM 中的奖励骇入(reward hacking)问题。
奖励骇入是指 LLM 学会了操控或利用其奖励系统的漏洞来获得高分或奖励,而不是真正完成预期任务或实现基本目标。

权重平均能让奖励建模更为稳健地应对奖励骇入问题
为了解决奖励骇入问题,WARM 论文提出通过权重平均将 LLM 奖励模型组合到一起。相比于单个奖励模型,通过这个过程得到的融合版奖励模型获得了79.4% 的胜率。
WARM 是如何发挥作用的?方法其实相当简单:类似于随机权重平均,WARM 会对多个模型(这里是奖励模型)的权重进行平均,如下图所示。

WARM 在 RLHF 过程中的使用方式概况。这里唯一的新东西是该方法使用了来自权重平均的奖励模型,而不是训练单个奖励模型。
在此之前,我们已经讨论了一些权重平均方法。那么 WARM 是如何对权重执行平均以获得奖励模型呢?这里,和随机权重平均一样,他们使用了一种简单的线性平均。不过它们也有差别:其模型并不是采样于同一轨迹,而是基于预训练模型独立创建的,这一点和 Model Ratatouille 类似。另外,WARM 还使用了所谓的 Baklava 流程,可以沿微调轨迹进行采样。下图比较了这些差异。

不同的模型融合和平均方法之间的比较
按照上述 WARM 流程并且平均了10个奖励模型后,这些研究者发现了一种强化学习策略 —— 使用此策略,WARM 相对于单奖励模型的胜率为79.4%,如下图所示。

在第3000步时,WARM 的表现超过了最佳的单奖励模型方法
总结
模型融合并不是一种新技术,但在 LLM 领域却是比较新的;考虑到 LLM 的高成本和资源需求,其就尤显潜力了。因此,利用多个在训练期间创建的已有 LLM(不做其它处理)的方法就尤其具有吸引力。另外,相对于传统的集成方法(需要同时运行多个模型),经过权重平均得到的模型相对轻量,在推理时间的成本并不会超过单个模型。
展望未来,我认为 LLM 模型融合技术前景广阔。我也预计未来会出现更多创新性的模型融合方式。
2.Tuning Language Models by Proxy

论文地址:https://arxiv.org/abs/2401.08565
论文《Tuning Language Models by Proxy》提出了一种可用于提升 LLM 的技术:proxy-tuning。这里我们将其译为「代理调优」。这种方法可以在某种程度上不改变权重的前提下微调 LLM。
代理调优是通过调整目标 LLM 的 logit 来实现的,这是解码阶段中一个非常简单的过程。具体来说,它需要计算一个较小基础模型和一个已微调模型之间的 logit 之差。然后再将这个差添加到目标模型的 logit。Logit 是指模型最终层生成的原始输出值。这些 logit 表示 LLM 的每个可能的输出 token 的非归一化分数,之后这些分数会通过 softmax 等函数转换成概率。

代理调优图示
为了更清晰地说明这一概念,我们可以假设我们想要提升大型目标模型 M1(比如 Llama270B)的目标函数结果。该过程涉及两个较小的模型:一个小型基础模型(M2),比如 Llama27B;一个经过微调的基础模型(M3),比如 Llama27B Chat。
那么如何实现我们想要的增强呢?其实就是将这些较小模型的预测结果(logit)之差用于目标模型 M1。提升后的目标模型 M1* 的输出 logit 是这样计算的:M1*(x) = M1(x) [M3(x) - M2(x)]。在得到了这些输出 logit 之后,再使用 softmax 函数将它们转换成概率。然后再使用这些概率来采样得到最终输出结果,也就是生成的文本;这个过程可以使用核采样或 top-k 解码等技术。
代理调优的实践效果如何?
他们的实验得到了让人印象深刻的积极结果。这些研究者在三个不同场景中实验了这种方法:
1. 指令微调:提升 Llama270B 基础模型,使之能比肩 Llama270B Chat 模型。
2. 领域适应:提升 Llama270B 基础模型的代码能力,目标是达到 CodeLlama70B 的代码水平。
3. 针对特定任务进行微调:提升 Llama270B 基础模型执行特定任务的能力,比如 TriviaQA 或数学问题。
可以观察到,在每种场景中,相较于原始基础模型,新方法都能带来显著提升。举个例子,下表重点对比了 Llama70B Base 和 Chat 模型。但是,这篇论文还为 CodeLlama 提供了额外的基准。

来自代理调优论文的结果图表
可以看到,根据上图所示的基准结果,经过代理调优的70B Llama2模型的表现优于70B 基础模型,并且几乎能媲美直接微调的 Llama70B Chat 模型。
实践方面的考虑
这种方法可以用于提升研发效率:开发新的训练或模型提升方法并在较小模型上测试它们以降低成本。然后,再扩展这些方法,使之可用于提升更大型的基础模型,同时无需训练大模型。
但是,如果要在真实世界中实际使用这些方法,仍然需要用到三种不同的模型:
1. 一个大型通用基础模型
2. 一个较小的通用模型
3. 一些针对特定用例或客户需求定制化的小型专用模型
因此,我们为什么还要选择这种方法呢,毕竟已经有 LoRA(低秩适应)这种更好的方法了 ——LoRA 不需要较小的通用模型 ,也可以使用一组小型 LoRA 矩阵替代多个小型专用模型 。
这里就需要说明代理调优方法的两个潜在优势:
在某些场景中,代理调优的表现可能优于 LoRA,尽管还没人对它们直接进行比较。
当大型基础模型是「黑箱」时,也就是内部权重不可用时,这种方法也可用。
但是,问题也依然存在:较小模型必须与大型目标模型有一样的词表。(理论上讲,如果有人知道 GPT-4的词表并且可以访问其 logit 输出,他们就可以使用此方法创建专用型的 GPT-4模型。)
3.Mixtral of Experts

论文地址:https://arxiv.org/abs/2401.04088
Mixtral8x7B 论文终于来了!(机器之心也在该论文发布时第一时间进行了报道,参阅《Mixtral8x7B 论文终于来了:架构细节、参数量首次曝光》)Mixtral8x7B 是一种稀疏的混合专家(稀疏 MoE)模型,目前是性能最佳的大型语言模型(LLM)之一,同时也是最受人关注的一种公开可用的 LLM。根据原论文,该模型的代码库基于 Apache2许可证发布,可以免费用于学术和商业目的。
MoE 是什么?MoE 是混合专家(Mixture of Experts)的缩写,这是一类将多个较小「专家」子网络组合起来得到的集成模型。每个子网络都负责处理不同类型的任务。通过使用多个较小的子网络,而不是一个大型网络,MoE 可以更高效地分配计算资源。这让它们可以更有效地扩展,并可望在更广泛的任务上实现更好的性能。
在下面将讨论的论文《Mixtral of Experts》中,研究者讨论了构建 Mixtral8x7B 的方法。这个模型的表现能比肩大得多的 Llama270B 模型。

Mixtral8x7B 能在许多基准上比肩甚至超越大得多的 Llama270B 模型
Mixtral 架构
Mixtral8x7B 的关键思想是用8个专家层替换 Transformer 架构中的每个前馈模块,如下图所示。

Transformer 架构,来自论文《Attention Is All You Need》
前馈模块本质上就是一个多层感知器。使用类似 PyTorch 的伪代码,看起来就会是这样:

此外,还有一个路由模块,其作用是将每个 token 嵌入重定向到8个专家前馈模块。然后再将这8个专家前馈层的输出求和汇总,如下图所示。

论文《Mixtral of Experts》中对 MoE 模块的解释
如果用数学表示,当有8个专家 {E_1, E_2, ..., E_8})时,则可以写成如下形式:

这里,G 表示路由(即门控网络),E_i 表示专家模块的输出。根据上面的公式,MoE 层会计算专家输出 E_i 的加权和,其中权重是由门控网络 G (x)_i 为每个输入 x 提供的。
乍一看,Mixtral 似乎只是通过这些专家(前馈)模块为 LLM 添加额外的参数,以表示一种加权集成方法。但其实它还有另一种调整:Mixtral 是一种稀疏 MoE,这就意味着每个输入只会使用这些专家中的一部分:

在 Mixtral8x7B 这个特例中,作者设定了 TopK=2,也就是一次仅使用2个专家。因此,根据上式,G (x) 的输出可能看起来是这样的:[0,0,0.63,0,0,0.37,0,0]。这表示第三个专家为输出贡献了63%,而第六个专家则贡献了37%。
模型大小
Mixtral8x7B 如何得名的?稀疏 MoE 模型的实际大小如何?8x 是指使用了8个专家子网络。7B 是指其组合了 Mistral7B 模块。但是,需要重点指出:Mixtral 的大小并不是8x7B =56B。7B 参数表示 Mistral7B 模型的整体参数规模,而在 Mixtral8x7B 中,专家层仅替换了前馈层而已。
总体而言,Mixtral8x7B 有47B 参数。这意味着 Mistral7B 模型有9B 个非前馈参数;有趣的是,LLM 中的大多数参数都包含在前馈模块中,而不是注意力机制中。
Mixtral8x7B 总共有47B 参数,明显少于 Llama270B 等模型。此外,由于每个时间步骤仅有2个专家处于活动状态,因此对于每个输入 token,该模型仅使用13B 参数。如此一来,它的效率就比常规的非 MoE47B 参数模型高多了。

来自论文《Mixtral of Experts》
让专家专业化
有趣的问题来了:这些专家能否展现出任何特定于任务或 token 的模式?不幸的是,作者没能观察到特定于具体主题的专业性,如 GitHub、Arxiv、Mathematics、Wikipedia 等数据集。
但是,作者却观察到了一个有趣的现象:文本数据集中的连续 token 通常会被分配给同样的专家。此外,Python 代码中的缩进 token 经常被分配给同一专家,如下图所示。

来自论文《Mixtral of Experts》
(作者并未说明每个 token 的两个专家中哪个被标记了颜色,但我猜想他们总是标记权重更高的专家。)
总结
Mixtral8x7B 有几个优点:公开可用、可比肩甚至超越 Llama270B 等更大模型、以一种较新颖的方式使用稀疏 MoE 模块来构建 LLM。
它性能强大,参数效率高并且有能力处理长达32k 的上下文窗口,因此很可能在可预见的未来(或至少在未来几个月)里成为一大颇具吸引力的模型。我相信 MoE 模型也会成为2024年大多数开源项目的一个重点关注领域,因此《Mixtral of Experts》值得关注。
但这篇论文也有个小问题:作者并未分享训练数据集的有关信息。但也可以理解,因为这样可以避免潜在的版权争议。
另外,如果作者能基于同一数据集比较一下 Mixtral8x7B 和 Llama270B 就更好了;但这类研究的成本很高。还有,我也想看看 Mixtral8x7B 与以下两种假定的模型相比如何,因为这样可以直接对比 MoE 与非 MoE 方法的效果:
・Mistral56B(更大的非 MoE 模型)
・Mistral47B(与 Mixtral8x7B 参数数量一样的非 MoE 模型)
还有一个有趣的事实:Brave 浏览器的 Leo 助理功能现在使用 Mixtral8x7B 作为默认 LLM。)
4.TinyLlama:An Open-Source Small Language Model
论文地址:https://arxiv.org/abs/2401.02385
微软的 phi-2在去年12月引起了不少关注,之后TinyLlama 就成了小型 LLM 类别的新晋成员。TinyLlama 不仅小,仅有1.1B 参数,而且还完全开源。这里,「开源」是指通过一个不受限的开源软件库提供训练代码和检查点模型。你可以访问其 GitHub 代码库:https://github.com/jzhang38/TinyLlama
小型 LLM(也常写成 SLM,即小型语言模型)为何如此吸引人?因为小型 LLM:
容易获取且成本低,这就意味着可以在资源有限的计算设备(比如笔记本电脑和 / 或小型 GPU)上运行它们。
开发和预训练成本更低 —— 这些模型仅需要相对少量的 GPU。
更容易针对目标任务定制化 —— 小模型通常可以仅在单个 GPU 上完成微调。
能效更高 —— 考虑到训练和运行大规模 AI 模型对环境的影响,这也是一个重点考虑因素。另一个考虑方面是在智能手机等便携式设备上部署 LLM 时的电池寿命问题。
对教育方面的应用很有价值 —— 小型 LLM 更容易掌控,因此更容易理解和调整。
TinyLlama 的性能
TinyLlama 的优势不仅是小和开源,而且在常识推理和问题求解基准上的表现也相当不错,胜过其它同等大小的开源模型。

TinyLlama 的性能表现
当然,TinyLlama 在这些基准上比不上更大型的模型,但由于它的所有代码都已开源,因此任何人都可以进一步研究和微调它。
TinyLlama 带来的想法
举个例子,从作者的训练过程可以得到一个颇具教育意义的有趣见解:在1万亿 token 上训练该模型3epoch(而不是1epoch)实际上是有用的,尽管这有违 Chinchilla 的缩放率。这些缩放率认为对于这样的模型大小,应该使用小得多的数据集。

来自论文《Training Compute-Optimal Large Language Models》
举个例子,如下图表所示,即使训练了多个 epoch,使用的数据都已重复,模型依然会继续提升。

来自 TinyLlama 论文的图表,并且在其它6个基准上也有类似的趋势
研究在「过大」数据集上的行为或训练多个 epoch 的行为时,如果使用很大的模型,就会很困难。未来在 TinyLlama 上的微调实验可能还能得到一些有趣结果,值得期待。(早期实验表明,该模型目前落后于小型的 phi-2模型,但其实 phi-2模型依然比 TinyLlama 大3倍。
一月份其它有趣的研究论文
下面是一月份我看到的其它一些有趣论文。受限于篇幅,下面会用星号★标记我认为尤其有趣的论文。

论文标题:KVQuant:Towards10Million Context Length LLM Inference with KV Cache Quantization
论文地址:https://arxiv.org/abs/2401.18079
研究者提出了一种量化键 - 值缓存激活的方法,该方法可尽可能缓解困惑度指标劣化问题,并能在单个 A100(80GB) GPU 上运行 Llama-7B 等模型同时还支持高达100万的上下文长度。
论文标题:Rephrasing the Web:A Recipe for Compute and Data-Efficient Language Modeling
论文地址:https://arxiv.org/abs/2401.16380
作者提出使用经过阐释的网络文档来更高效地训练大型语言模型,这能在多种任务上实现更快的预训练,获得更优的性能,并能让我们更好地理解训练数据的组成结构对分布外性能的影响。
论文标题:MoE-LLaVA:Mixture of Experts for Large Vision-Language Models
论文地址:https://arxiv.org/abs/2401.15947
该论文提出了一种用于扩展大型视觉 - 语言模型的混合专家范式,能用更少的参数实现比肩更大模型的性能。
论文标题:EAGLE:Speculative Sampling Requires Rethinking Feature Uncertainty
论文地址:https://arxiv.org/abs/2401.15077
EAGLE 能加速 LLM 中的自回归解码,其方法是在次要的特征层级上进行处理,并整合未来的 token。
论文标题:Multimodal Pathway:Improve Transformers with Irrelevant Data from Other Modalities
论文地址:https://arxiv.org/abs/2401.14405
这篇论文提出了 Multimodal Pathway(多模态通路)。该技术可以使用未配对的模态数据(比如音频)提升视觉 Transformer 在另一特定模态(比如图像)上的性能,其在多种图像识别任务上都取得了显著的性能提升。
论文标题:Pix2gestalt:Amodal Segmentation by Synthesizing Wholes
论文地址:https://arxiv.org/abs/2401.14398
Pix2gestalt 是一种用于零样本非模态图像分割的框架,其利用了扩散模型和一个精心合成的数据集来估计部分遮挡目标的形状和外观。
论文标题:Rethinking Patch Dependence for Masked Autoencoders
论文地址:https://arxiv.org/abs/2401.14391
交叉注意力掩码式自动编码器是一种新式预训练框架,它仅使用掩蔽 token 和可见 token 之间的交叉注意力来重建被遮掩的图块,其效率和质量都胜过传统的掩码式自动编码器。
论文标题:SpacTor-T5:Pre-training T5Models with Span Corruption and Replaced Token Detection
论文地址:https://arxiv.org/abs/2401.13160
这篇论文提出了 SPACTOR,这是一种用于训练 LLM 的方法,其将 span 损坏和 token 替换检测组合成了一个两阶段课程;其靠少50% 的预训练迭代次数和少40% 的计算成本实现了与标准方法一样的性能。
论文标题:MambaByte:Token-free Selective State Space Model
论文地址:https://arxiv.org/abs/2401.13660
MambaByte 是一种无 token 语言 Mamba 选择性状态空间模型,其直接操作原始字节,可避免子词 token 化偏差。
论文标题:Spotting LLMs With Binoculars:Zero-Shot Detection of Machine-Generated Text
论文地址:https://arxiv.org/abs/2401.12070
Binoculars 这种新方法可以不使用训练数据来更准确地检测 LLM 生成的文本,其方法是通过简单的计算来对比两个预训练的 LLM。
论文标题:WARM:On the Benefits of Weight Averaged Reward Models
论文地址:https://arxiv.org/abs/2401.12187
这项研究解决了与人类偏好对齐的 LLM 中的奖励崩溃问题,其方法是通过平均微调后的奖励模型权重来执行强化学习。
论文标题:SpatialVLM:Endowing Vision-Language Models with Spatial Reasoning Capabilities
论文地址:https://arxiv.org/abs/2401.12168
这项研究可提升视觉 - 语言模型(VLM)的3D 空间推理能力 —— 作者开发了一个互联网规模的空间推理数据集并基于其训练了一个 VLM。
论文标题:Knowledge Fusion of Large Language Models
论文地址:https://arxiv.org/abs/2401.10491
研究者提出了一种知识融合方法,可将多个不同 LLM 组合成一个统一模型,其性能优于单个模型、传统集成方法和其它模型融合方法。
论文标题:VMamba:Visual State Space Model
论文地址:https://arxiv.org/abs/2401.10166
这项研究将视觉 Transformer 的全局感受野和动态权重与 CNN 的线性复杂性组合起来,得到了一个名为 VMamba 的新架构,该架构在更高的图像分辨率上表现尤其出色。
论文标题:Self-Rewarding Language Models
论文地址:https://arxiv.org/abs/2401.10020
使用 LLM 作为评判员(LLM-as-a-Judge)的方法在训练期间执行自我奖励,可以提升 LLM 遵循指令和建模奖励的能力;这表明,除了基于人类偏好进行的常规训练,还有可能让模型持续进行自我提升。
论文标题:DiffusionGPT:LLM-Driven Text-to-Image Generation System
论文地址:https://arxiv.org/abs/2401.10061
DiffusionGPT 是一种文本到图像生成框架,其使用 LLM 解析不同的 prompt,并可从一个思维树(Tree-of-Thought)结构(同样也整合了人类反馈)中选择最合适的生成模型。
论文标题:ReFT:Reasoning with Reinforced Fine-Tuning
论文地址:https://arxiv.org/abs/2401.08967
这篇论文提出了 Reinforced FineTuning (ReFT,强化微调)技术,可提升大型语言模型在数学问题求解等任务上的推理能力。其做法是将监督式微调与强化学习组合起来使用,可在不使用额外训练数据的前提下取得优于标准微调的结果。
论文标题:RAG vs Fine-tuning:Pipelines, Tradeoffs, and a Case Study on Agriculture
论文地址:https://arxiv.org/abs/2401.08406
尽管 RAG(检索增强式生成)和微调谁更胜一筹的争论一直存在,但这篇论文却表明可将 RAG 和微调组合起来,提升累积准确度(背景是农业应用)。
论文标题:Code Generation with AlphaCodium:From Prompt Engineering to Flow Engineering
论文地址:https://arxiv.org/abs/2401.08500
AlphaCodium 是一种迭代式的、基于测试的方法,可用于 LLM 的代码生成任务,其可凭借更低的计算负载超过之前的方法。
论文标题:Scalable Pre-training of Large Autoregressive Image Models
论文地址:https://arxiv.org/abs/2401.08541
受 LLM 预训练的启发,该论文研究了以自回归方式(无监督)来预训练视觉模型。结果证明模型性能会随模型大小和数据量扩展,并且其在 ImageNet-1k 上取得了亮眼的结果(而且还未饱和)。
论文标题:Tuning Language Models by Proxy
论文地址:https://arxiv.org/abs/2401.08565
在适应大型语言模型方面,代理调优是一种能高效利用资源的方法。其做法是使用一个较小的已微调模型来修改其预测结果。该方法在实验中表现接近直接微调方法,甚至在专有模型上也是如此。
论文标题:An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models
论文地址:https://arxiv.org/abs/2401.06692
使用 LLM 的监督式微调中的实验设计技术(选取信息量最大的样本进行标注以最大化效率),研究者将标注成本降低了50%(相比于随机采样)。
论文标题:A Closer Look at AUROC and AUPRC under Class Imbalance
论文地址:https://arxiv.org/abs/2401.06091
这篇论文挑战了机器学习领域一个广被认可的信念:对于类别不平衡的二元分类问题,精度召回曲线下面积(AUPRC)优于接收者操作特征下面积(AUROC)。
论文标题:The Unreasonable Effectiveness of Easy Training Data for Hard Tasks
论文地址:https://arxiv.org/abs/2401.06751
作者发现,模型通常能够很好地从简单数据泛化到困难数据。他们指出在更简单数据上进行训练会更高效。他们使用多达700亿参数的模型在多个问答数据集上实验验证了这一点。
论文标题:Sleeper Agents:Training Deceptive LLMs that Persist Through Safety Training
论文地址:https://arxiv.org/abs/2401.05566
这项研究调查了 LLM 学习欺骗行为的可能性,并发现标准的安全训练技术无法有效地移除这些持续存在的欺骗性策略。
论文标题:Transformers are Multi-State RNNs
论文地址:https://arxiv.org/abs/2401.06104
这项研究表明,最初被认为与循环神经网络(RNN)不同的仅解码器 Transformer 可被视为具有无限隐藏状态大小的无限多状态 RNN。
论文标题:RoSA:Accurate Parameter-Efficient Fine-Tuning via Robust Adaptation
论文地址:https://arxiv.org/abs/2401.04679
这项研究提出了一种新的用于 LLM 的参数高效型微调方法 RoSA。其做法是在固定的预训练权重上训练低秩和高度稀疏的组件,这样得到的效果优于 LoRA 等现有方法。
论文标题:A Minimaximalist Approach to Reinforcement Learning from Human Feedback
论文地址:https://arxiv.org/abs/2401.04056
该论文提出了自我对弈偏好优化(SPO),这是一种简单却有效的强化学习算法,可替代 RLHF 但不需要奖励模型。
论文标题:MoE-Mamba:Efficient Selective State Space Models with Mixture of Experts
论文地址:https://arxiv.org/abs/2401.04081
该论文提出将 Mamba 等状态空间模型与混合专家(MoE)组合起来,这样得到的 MoE-Mamba 模型在效率和有效性上既优于标准的 Mamba 结构的状态空间模型,也胜过一个 Transformer-MoE 基准模型。
论文标题:Soaring from4K to400K:Extending LLM’s Context with Activation Beacon
论文地址:https://arxiv.org/abs/2401.03462
研究者提出通过激活信标(activation beacon)来扩展 LLM 的上下文窗口。所谓的激活信标是指添加到输入上下文中的激活的压缩状态。
论文标题:Denoising Vision Transformers
论文地址:https://arxiv.org/abs/2401.02957
作者发现,视觉 Transformer(ViT)中常见的网格状伪影是由输入阶段的位置嵌入造成的。他们提出了一种去噪视觉 Transformer,可从现有 ViT 提取出净化后的特征。
论文标题:DeepSeek LLM:Scaling Open-Source Language Models with Longtermism
论文地址:https://arxiv.org/abs/2401.02954
DeepSeek LLM 有7B 和67B 两种配置,其训练使用了一个2万亿 token 的数据集。该研究优化了 Chinchilla 缩放率并且表现优于 LLaMA-270B 和 GPT-3.5等模型。
论文标题:Blending Is All You Need:Cheaper, Better Alternative to Trillion-Parameters LLM
论文地址:https://arxiv.org/abs/2401.02994
这篇论文提出了 Blending。该方法可从多个更小的聊天 AI 模型随机选取响应。结果表明组合使用中等大小的模型(6B/13B)可以达到或超过 ChatGPT(参数超过175B)等更大型模型的表现。
论文标题:LLM Augmented LLMs:Expanding Capabilities through Composition
论文地址:https://arxiv.org/abs/2401.02412
CALM(增强语言模型的组合方法)是将础 LLM 和专业 LLM 组合到一起,其使用了交叉注意力来提升在新任务上的表现(比如资源很少的语言的翻译和代码生成任务),这个过程仅需极少量的额外参数和数据。
论文标题:LLaMA Pro:Progressive LLaMA with Block Expansion
论文地址:https://arxiv.org/abs/2401.02415
该论文提出了一种用于 LLM 的后预训练方法,将 Llama7B 转变为 Llama Pro-8.3B。该方法可扩展 Transformer 模块,以提升其在编程和数学等领域的表现,同时还不会忘记以前的知识。
论文标题:A Mechanistic Understanding of Alignment Algorithms:A Case Study on DPO and Toxicity
论文地址:https://arxiv.org/abs/2401.01967
该研究探索了直接偏好优化(DPO)算法如何通过降低有害性来将 GPT2-medium 等预训练模型与用户偏好对齐,其中揭示出它会绕过而不是移除预训练功能。该研究还给出了一种将模型恢复到其原始有毒行为的方法。
论文标题:LLaMA Beyond English:An Empirical Study on Language Capability Transfer
论文地址:https://arxiv.org/abs/2401.01055
该论文探究了如何将 Llama 等 LLM 的能力迁移用于非英语任务 —— 用不到1% 的预训练数据就可以实现与当前最佳模型相当的性能。
论文标题:Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models
论文地址:https://arxiv.org/abs/2401.01335
这篇论文提出了 Self-Play fIne-tuNing (SPIN,自我博弈微调)。该方法采用了一种自我博弈机制,让 LLM 可以生成并优化自己的训练数据,从而无需任何额外的人类标注数据便能提升 LLM。
论文标题:LLM Maybe LongLM:Self-Extend LLM Context Window Without Tuning
论文地址:https://arxiv.org/abs/2401.01325
这篇论文提出了一种非常简单的技术(只有4行代码),无需任何微调便能扩展 LLM 的上下文处理能力。
论文标题:A Comprehensive Study of Knowledge Editing for Large Language Models
论文地址:https://arxiv.org/abs/2401.01286
该论文讨论了如何让 LLM 保持信息更新,其中回顾点评了多种知识编辑技术(使用外部知识、将知识融合到模型中、编辑内部知识)并提出了一个新的 KnowEdit 基准。
论文标题:Astraios:Parameter-Efficient Instruction Tuning Code Large Language Models
论文地址:https://arxiv.org/abs/2401.00788
这篇论文评估了不同的全微调和参数高效型微调技术,并且发现全微调通常性能表现最佳,而 LoRA 通常能在成本和性能之间取得最好的平衡。
原文链接:https://magazine.sebastianraschka.com/p/research-papers-in-january-2024
80%代码秒生成!AI神器Copilot大升级,百万开发者动嘴编码5年内成真
【新智元导读】AI编码神器Copilot模型升级,5年80%的代码自动生成,百万码农提速55%。码农AI神器又升级了!就在刚刚,Github官宣,Copilot模型升级,5年内80%的代码将自动生成。GitHubCopilot发布还不到两年,就已经为100多万的开发者,编写了46%的代码,并提高了55%的编码速度。这次升级究竟改进了什么呢?5年,80%代码自动生成站长网2023-07-31 09:12:220000火药味浓厚!马斯克暗示将起诉ChatGPT开发商OpenAI
财联社4月19日讯(编辑卞纯)周二,特斯拉CEO埃隆·马斯克在推特上暗示将起诉ChatGPT背后的公司OpenAI。当播客主持人本尼·约翰逊(BennyJohnson)在推特上询问马斯克为何不“起诉OpenAI欺诈”他时,马斯克的回应是:“等着瞧……”。这一回复令网友们纷纷猜测,马斯克或将对人工智能巨头OpenAI采取法律行动。站长网2023-04-19 12:09:480000抖音上线“抖音好书榜”功能 可依据数据生成图书推荐榜单
4月21日,抖音上线“抖音好书榜”功能,依据平台数据生成图书推荐榜单,发掘用户正在分享的好书。据悉,首期共有《快乐上等》《翦商》等20本书上榜。在平台搜索【抖音好书榜】即可查看完整榜单。进入站内榜单,点击榜单上的书籍图片,还可进入该书的聚合页面,观看相关高赞书评视频,进而更立体地了解这本书。站长网2023-04-23 14:05:210000周鸿祎试驾飞行汽车无法起飞:试飞手续未能及时完成
站长之家(ChinaZ.com)5月7日消息:近日,小鹏汇天携带两款备受瞩目的飞行汽车参展了由360集团创始人周鸿祎举办的车展。原本,这些飞行汽车计划在车展上进行直播试驾,向公众展示其独特魅力。然而,由于小鹏汇天在试飞手续上未能及时完成,原定的飞行汽车试驾活动被迫取消,这无疑给此次车展增添了一丝遗憾。站长网2024-05-07 19:48:510000Windows 12继续免费升级!不会搞云订阅
按照目前的迹象,微软下一代操作系统,也就是传闻中的Windows12,大力集成AI、云功能。近日有传闻称,Windows12可能会改为云订阅收费,按照月度、年度之类的付费,一如很多云服务,一如Windows365。站长网2023-10-18 21:20:150000