Transformer速查宝典:模型、架构、训练方法的论文都在这里了
论文大合集,一篇文章就搞定。
AI 发展迅速,这对于刚刚入门或是正想跟上「潮流」的新手们来说并不友好。如果有一份详细全面的知识列表可能会帮助他们更快走上「正途」。
今天给大家带来一篇 Transformer 的综述文章,供大家了解 Transformer 的来龙去脉及相关技术。
本篇综述涵盖了21种模型、11种架构变化、7种预训练后处理技术和3种训练技术(还有5种不属于以上技术的东西)。模型包括 GPT-3、GPT-4、Gopher、AlphaCode、RETRO、GPT-3.5、Chinchilla、Flamingo 等。一些重要的架构变化包括多查询注意力、稀疏注意力、混合专家等。同时还介绍了 RLHF、CAI、Minerva 等预训练后处理技术以及超参。所有内容均按照重要性和独特性进行排序,并将链接附在下方。
以下为机器之心不改变原义对文章进行编译的内容。
一、模型
以下模型的属性若未明确说明,要么未公开,要么大致遵循标准 GPT 配置。
1.GPT-3
属性:175B 参数,96层,12288嵌入维度,96个注意力头
论文地址:https://arxiv.org/pdf/2005.14165.pdf
发布详情 Open AI 发布于2020年5月
本文是继 GPT-2论文(2018及扩展定律论文后,大语言模型的一片开创性论文。以下是论文中指出有关 GPT-3的特征。
它在一个300B token 的数据集上进行训练。该数据集主要由过滤后的 Common Crawl 以及一些书籍、网络文本和维基百科构成;
使用了 BPE tokenizer(与 GPT-2相同);
2048上下文长度;
交替使用密集和稀疏注意力层;
在最初的375M toks 中,学习率升至0.6×10^-4,260B toks 后余弦衰减至10%;
在前12B 个 token 中,批大小从32k toks 上升到3.2M toks;
4x MLP 投影率,如2017年 Transformer 论文所示;
50k 词汇表(vocab size)。
以上的许多特征形成了一种标准配置,被后来的模型重复使用。
在论文记录超参数的表2.1中有一个可能的拼写错误,其中 GPT-313B 被记作为具有5140的嵌入维度,这里应该是5120。
2.GPT-4
报告地址:https://arxiv.org/pdf/2303.08774.pdf
发布详情:Open AI2022年8月对其完成预训练,发布于2023年3月。
GPT-4是 OpenAI 提供的一个模型,其架构不明(技术上类似于 Transformer)。技术报告主要包含大部分评估(结果表现良好),以及能够从较小模型精确推断出的持续扩展结果。报告还记录了提高模型安全性的措施,并演示了 GPT-4的多模态能力,这种能力似乎是用类似于 Flamingo 的方式训练的。
3.Gopher
属性:280B 参数,260B 非嵌入参数,80层,16384嵌入维度,128个注意力头
论文地址:https://arxiv.org/pdf/2112.11446.pdf
发布详情:DeepMind 在2020年底对其进行训练,发布于2021年12月。
Gopher 是 DeepMind 在2021年发布的第一个大型语言模型。它使用 RMSNorm 而不是 LayerNorm,使用 Transformer-XL 的相对位置编码方案而不是绝对位置编码,这就是嵌入参数如此之多的原因。
它使用 SentencePiece 进行分词,词汇表大小为32k,并用300B token 进行训练,其中一半来自为 Gopher 收集的 MassiveText,以及书籍、Common Crawl、维基百科、新闻和 Github。
4.AlphaCode
属性:41B 参数,8个编码器层,56个解码器层,6144嵌入维度
论文地址:https://arxiv.org/pdf/2203.07814.pdf
发布详情:DeepMind 发布于2022年2月。
AlphaCode 是在715GB(967B token)代码基础上训练出来的模型,可以用于解决编程竞赛问题。它是本文中唯一采用解码器 - 编码器架构的模型。它将编程竞赛题视为一项翻译任务(问题陈述 → 解决方案),以获得双向性。它在编码器中使用1536个 token,在解码器中使用768个 token。使用多查询注意力,并在推理时生成数千个样本,然后选择一个解决方案子集进行提交。
5.RETRO
属性:7B 参数
论文地址:https://arxiv.org/pdf/2112.04426.pdf
发布详情:DeepMind 发布于2022年2月。
检索是一种通用的技术,即在进行推理时提供一个数据库供其查找。RETRO 是第一篇使用2T token 数据库的 Transformer 检索论文。它使用预训练的 BERT 式模型将 token 数据库嵌入块中,然后在训练和推理期间对数据库中的最近邻执行分块交叉注意力。
6.GPT-3.5
属性:架构未知
文档地址 https://platform.openai.com/docs/guides/gpt
发布详情:OpenAI 发布于2022年3月。
OpenAI 将三种模型划分为 GTP-3.5,具体包括 davinci-002系列中的两种和 davinci-003系列中的一种。其中, code-davinci-002是基本模型,text-davinci-002是一个带有 FeedME 非 RL 指令调整的版本。text-davinci-003是带有 RLHF 的 InstructGPT。有一篇 InstructGPT 论文训练了 RLHF 模型,但没有提到 FeedME,而 text-davinci-002虽然是 InstructGPT 模型,但没有使用 RLHF。OpenAI API 上的 davinci 模型在2020年的论文中被指出是175B 模型,但从未证实 davinci-002是否具有相同尺寸。
7.Chinchilla
属性:70B 参数,80层,8192嵌入维度,64个注意力头
论文地址:https://arxiv.org/pdf/2203.15556.pdf
发布详情:DeepMind 发布于2022年3月。
Chinchilla 的论文中引入了新的、改进版的 scalling law。它使用1.5T token(与 Gopher 相似的数据集)和与 Gopher 相同的计算量进行训练,但性能优于 Gopher。在 scalling law 中,模型的参数和 token 数按照20:1的比例线性增加。学习率采用余弦调度进行调整。Megatron Turing NLG 和 Jurassic J-1Jumbo 是另外两个大型模型,由于它们不是 Chinchilla 最优模型,也没有独特意义,因此没有在本文中单独记录。
8.Flamingo
属性:80B 参数
论文地址 https://arxiv.org/pdf/2204.14198.pdf
发布详情:DeepMind 发布于2022年4月。
Flamingo 是一个多模态(文本 / 图像)模型。它只生成文本,而图像输入通过视觉编码器(435M 参数)运行,并使用交叉注意力来关注这些输出。它还在视觉编码器之后使用重采样器(194M 参数),无论输入特征的数量如何,都能产生固定(少量)的视觉 token。它们建立在冻结的 Chinchilla 模型上,80B 参数来自添加到70B Chinchilla 模型中的交叉注意力层。PaLI 是谷歌的图像 / 语言多模态模型。
9.Gato
属性:1.18B 参数
论文地址:https://arxiv.org/pdf/2205.06175.pdf
发布详情:发布于2022年5月。
Gato 是一个通用型智能体,算是 Flamingo 的后续产品,但拥有更多的模态。它使用图像和文本,以及按钮按压数据格式化成的 token,还有来自机器人感知的连续数据编码,并尝试使用尽可能少的数据来完成额外的任务。这些任务包括机器人堆叠测试、图像字幕和 Atari。
10.Anthropic LM
属性:52B 参数,64层,8192嵌入维度
论文地址:https://arxiv.org/pdf/2112.00861.pdf
发布详情:Anthropic 发布于2021年12月。
在400Btoken 上进行训练,但在 Chinchilla 之后的一篇论文(《 Language Models (Mostly) Know What They Know 》)中,Anthropic 使用了为850B token 训练的具有相同架构的模型。在后来的另一篇关于道德自我纠正的论文中,使用了一个没有明确说明的175B 模型。
11.PaLM
属性:540B 参数,118层,18432嵌入维度,48个注意力头
论文地址:https://arxiv.org/pdf/2204.02311.pdf
发布详情:Google 发布于2022年4月。
截至2023年1月,这是公开已知的最大密集语言模型。PaLM 使用 SwiGLU 激活,使用并行注意力、多查询注意力、旋转嵌入,并对输入和输出嵌入使用相同的矩阵。它没有使用偏置,使用了一个包含256k 个 token 的 SentencePiece tokenizer。PaLM 是在与 LaMDA 和 GLaM 类似的数据集上,用780B 个 token 进行训练的。
12.GPT-NeoX
属性:20B 参数
论文地址:https://arxiv.org/pdf/2204.06745.pdf
项目地址:https://github.com/EleutherAI/gpt-neox
发布详情:Eleuther AI 发布于2022年2月。
这是 Eleuther 的一个开源模型。它使用 DeepSpeed (微软) 和 Nvidia Megatron 在 GPU 上进行训练,并使用与 GPT-J 相同的架构修改,在整个 Pile (400B token) 上进行训练。
13.GPT-J
属性:6.7B 参数
项目地址:https://github.com/kingoflolz/mesh-transformer-jax/#gpt-j-6b
发布详情:Eleuther AI 发布于2021年7月。
GPT-J 因完全开源而闻名,并且与 GPT-3论文中6.7B 版本性能相媲美。它在 TPU 上进行训练,并使用旋转嵌入,并行注意力。为降低复杂性,它仅使用了密集注意力层。它是在 Pile 上训练的,Pile 是一个由 Eleuther AI 创建的开放数据集,包含22个较小的数据集,包括 Common Crawl、 OpenWebText、书籍和论文。
14.GLaM
属性:1.2T 参数
论文地址:https://arxiv.org/pdf/2112.06905.pdf
发布详情:Google 发布于2021年12月。
GLaM 被称为「通用语言模型」,是一个混合专家 (MoE) 模型,其中的参数是稀疏激活。它每层有64个专家,每个 token 激活96.6B 参数。每一层都有一个门控单元,它为每个 token 选择64个 MLP 中的一个或两个。
15.LAMDA
属性:137B 参数,64层,8192嵌入维度,128个注意力头
论文地址:https://arxiv.org/pdf/2201.08239.pdf
发布详情:Google 在 I/O 上演示于2021年5月,论文发布于2022年1月。
LaMDA 对话模型是根据 Meena 创建的。它明确有一个包含大量对话 / 论坛的2.81T 数据集 (用32k 的 SentencePiece tokenizer 进行编码)。基础模型有时被称为 LaMDA GLM 或 GLM-137B;LaMDA 在此基础上添加了许多对话微调。
模型训练用了多少个 token 是明确的,它用到了1024个 TPUv3,使用率为56.5%,训练时间为57.7天,batch 大小为256k,可能是 bf16,计算表明这将是2.81T token 中的约900B。
16.Switch
属性:1T 参数
论文地址:https://arxiv.org/pdf/2101.03961.pdf
发布详情:Google 发布于2022年6月。
SwitchTransformer 对 GLaM 进行了改进,它只路由到一个专家,从而减少了计算量。它的创新是使用了不同的路由机制,证明了路由到单个专家是有效的。
17.BLOOM
属性:176B 参数,70层,14336嵌入维度,112个注意力头
论文地址:https://arxiv.org/pdf/2211.05100.pdf
发布详情:HuggingFace 发布于2022年7月。
截止于本文梳理的时间,BLOOM 是最大的开源模型。它在 HuggingFace 语料库 ROOTS 上进行训练,该语料库包含498个 HuggingFace 数据集。该模型在366B token 上进行训练,并且位置编码是用 ALiBi 完成的。它用到了250k 词汇表大小的 BPE tokenizer,帮助它适应多语言数据。
18.Galactica
属性:120B 参数
论文地址:https://arxiv.org/pdf/2211.09085.pdf
发布详情:Meta 发布于2022年11月。
Galactica 是一个科学模型,主要以论文、少量代码、其他基于知识的数据和一些 Common Crawl 数据为基础进行预训练。它用 <work> token 对工作记忆进行编码,并使用特殊 token 对引文进行编码。
19.LLaMa
属性:65B 参数
论文地址:https://arxiv.org/pdf/2302.13971.pdf
发布详情:Meta 发布于2023年2月。
LLaMa 像是 Chinchilla 的复制品,有着相当标准的训练组合,大部分为 Common Crawl。
20.OPT
属性:175B 参数,与 GPT-3相同的架构
论文地址:https://arxiv.org/pdf/2205.01068.pdf
项目地址:https://github.com/facebookresearch/metaseq/blob/main/projects/OPT/chronicles/OPT175B_Logbook.pdf
发布详情:Meta 发布于2022年5月。
这是 GPT-3的复刻版,它在 Pile 和 PushShift reddit 上训练,只有180B token。
这些 Meta 论文完全不是相互关联的项目。LLama、OPT 和 Galactica 共有41位作者,只有一位是重合的。
21.GLM-130B
属性:130B 参数
论文地址:https://arxiv.org/pdf/2210.02414.pdf
发布详情:清华大学发布于2022年10月。
GLM 是一个开源的双语(中文 / 英文)模型。它使用旋转嵌入和 DeepNorm,并通过 GeGLU 激活 MLP。值得关注的是,它主要以 INT4进行推理(而其他模型,如 BLOOM 和 OPT,则量化为 INT8)。它还在预训练中加入了 prompt,而不是标准的 GPT 架构,并且使用 GLM 实现了双向注意力。
架构变化
1. 多查询注意力(Multi-Query Attention,MQA)
论文地址:https://arxiv.org/pdf/1911.02150.pdf
Noam Shazeer 的这篇论文中,key 和 value 在 head 之间共享,大大减少了推理时所需的内存数量,提高了延迟和吞吐量。这是一篇非常简洁的论文,并附有代码和结果。AlphaCode 和 PaLM 都使用 MQA。
2. 稀疏注意力
论文地址:https://arxiv.org/pdf/1904.10509.pdf
在这种机制中,注意力不会应用于所有之前的 token。它描述了稀疏 Transformer 的两种风格,一种是跨步式,即关注最后 N 个 token;另一种是固定式,即关注序列中的部分 token。在 GPT-3论文中,该模型被描述为交替密集和「局部带状」稀疏层。
3. 混合专家(Mixture-of-Experts,MoE)
关于 MoE 的内容有很多,在介绍 GLaM 和 Switch 时已经提到了一点。因此,此处将罗列一些优秀的原始文献。
2017年关于 LSTM 的 MoE 论文 https://arxiv.org/abs/1701.06538
面向 MoE 的 Deepmind Scaling Laws 论文 https://arxiv.org/pdf/2202.01169.pdf
训练1.1T 参数 MoE 的 Meta 论文 :https://arxiv.org/pdf/2112.10684.pdf
一些谷歌的论文:
https://arxiv.org/pdf/2202.08906.pdf
https://arxiv.org/pdf/2202.09368.pdf
https://arxiv.org/pdf/2205.10937.pdf
https://arxiv.org/pdf/2202.08906.pdf
https://openreview.net/pdf?id=23ZjUGpjcc
4.FlashAttention
论文地址:https://arxiv.org/pdf/2205.14135.pdf
FlashAttention 是一种架构变革,能以更少的内存访问量完成注意力处理。它对注意力矩阵进行切片和增量化的 softmax 约简,并避免了在后向传播过程中存储整个中间注意力矩阵。论文指出,与 megatron 相比,它训练速度提高到1.7倍,推理速度提高到4倍多(上下文长度越长,倍数越大)。在此之前,另一篇文章 (https://arxiv.org/pdf/2112.05682.pdf) 也在 TPU 上采用了同样的方法,实现了 O (log_n) 内存占用。
5. 编码器 解码器
论文地址:https://arxiv.org/pdf/1706.03762.pdf
根据 Transformer 的原始论文,编码器 - 解码器架构最初是为翻译任务而设计的。经典的 GPT 架构交替使用注意力和 MLP 模块。原始的 Transformer 则采用了编码器块和解码器块。编码器块的结构是:注意力机制 → MLP;解码器块的结构是:掩蔽注意力→ 编码器 - 解码器注意力 → MLP。对于许多序列到序列的任务来说,例如 AlphaCode 或 T5,这也是一个合理的架构。
6. 平行注意力
论文地址:https://arxiv.org/pdf/2204.02311.pdf
PaLM 使用平行注意力。即在训练模型时,注意力层和 MLP 层并行运行,使用相同的向量。如此一来,就可以将注意力和前馈矩阵乘法合并在一起,从而提升运算强度,获得更好的性能(PaLM 的训练速度提升了15%)。GPT-J 也使用了这种方法。
7. 可供选择的激活方案:GeGLU,SwiGLU,SoLU
论文地址:https://arxiv.org/pdf/1706.03762.pdf
最初的 Transformer 论文使用 ReLU 来激活 MLP 模块。它在两个线性变换(matmuls)之间进行简单的 x if > x =0else0。从直观上看,这有点草率。GeLU 与 ReLU 类似,但要平滑一些。
论文地址:https://transformer-circuits.pub/2022/solu/index.html
SoLU(Softmax)简单地说就是 x*softmax (x),用于提高模型的可解释性。
论文地址:https://arxiv.org/pdf/2002.05202.pdf
SwiGLU 是所列论文中最复杂的,也是 Noam Shazee 的个人论文。它建立在门控线性单元的基础上,旨在比 ReLU 更稳定,并在 GLU 之前进行 swish 运算。与 GeLU 一样,它软化了 ReLU,允许某些值低于零。
8.LayerNorm 的替代方案:DeepNorm,RMSNorm
LLM 每个区块有两次 norm(一次用于注意力,一次用于前馈),它会执行一些归一化功能以改进训练。
DeepNorm 论文地址:https://arxiv.org/pdf/2203.00555.pdf)
RMSNorm 论文地址:https://arxiv.org/pdf/1910.07467.pdf
DeepNorm 和 RMSNorm 可以成为替代方案。RMSNorm(均方根)简单来说就是数值均值的平方根。还有一种 batch norm,效率很低,用起来似乎不太聪明。
9.RoPE
论文地址:https://arxiv.org/pdf/2104.09864.pdf
相关 Blog 文章:https://blog.eleuther.ai/rotary-embeddings/
这篇 Blog 文章总结得十分优秀,本文不做赘述。
10.BPE vs SentencePiece Tokenizers
BPE 项目地址:https://huggingface.co/learn/nlp-course/chapter6/5?fw=pt
SentencePiece 编码器项目地址:https://github.com/google/sentencepiece
字节对编码(Byte Pair Encoding,BPE)是大多数语言模型的默认编码,最初的 GPT 论文、GPT-3以及 GPT-3.5都使用了这种编码。不使用纯 BPE,而使用 SentencePiece 情况的一个明显原因是,分布不包含空格分隔的单词,就像 AlphaCode、GLM(中文)和 PaLM(明确是因为多语言)那样。
11.ALiBi
论文地址:https://arxiv.org/pdf/2108.12409.pdf
ALiBi(Attention with Linear Biases)是一种长上下文位置嵌入方案,通过根据距离对 qk 分数进行线性偏置,来支持对更长的长度进行外推。BLOOM 用了 ALiBi,Galactica 也尝试过,但没有采用。
预训练后处理技术
1. 采用 PPO 算法的 RLHF
在 RLHF 中,首先要训练一个奖励模型,由标注员评估模型生成的数组。然后在 RL 中使用 PPO(近端策略优化),策略生成由奖励模型评估的输出,以改进策略。
Christiano 论文:https://proceedings.neurips.cc/paper/2017/hash/d5e2c0adad503c91f91df240d0cd4e49-Abstract.html
Deepmind 的 Sparrow 和 Anthropic 的 LM 都是用 RL (AI|H) F 训练的,它们都有对话界面。WebGPT 和 GopherCite 一样,也是用 RLHF 训练的(后者调用了 RLHPreferences)。我认为,这都起源于2017年的 Christiano,它先于 LLM 所有内容,之后才是2020年根据人类反馈进行的总结以及 PPO 论文。
2020年根据人类反馈进行的总结 https://proceedings.neurips.cc/paper/2020/file/1f89885d556929e98d3ef9b86448f951-Paper.pdf
2.Constitutional
论文链接:https://arxiv.org/pdf/2212.08073.pdf
作为 RLHF 的扩展,Constitutional 基本上是 RLAIF,不过实际上被称为 CAI。它有一个监督学习阶段,在这一阶段,只提供帮助的 AI 会生成对抗性 prompt。然后,助手会根据所提供的 constitution(以字符串的形式提供给模型的一组短值)迭代出自己的响应。然后对这些响应进行微调。第二阶段就像采用 PPO 的 RLHF,只不过将 AI 反馈替换了。
3.Minerva
论文地址:https://arxiv.org/pdf/2206.14858.pdf
Minerva 是 Blueshift 团队于2022年6月发布的一个数学和科学数据微调模型,执行效果非常好。它是一个来自 PaLM 的62/540B 微调模型。它的数据集来自 ArXiV 和一些网站,并经过精心预处理,保留了数学格式。
4.Codex
论文地址:https://arxiv.org/pdf/2107.03374.pdf
Codex 于2021年7月推出(并支撑了 Github Copilot 的推出),是在100B token 代码 (此处为公开的 Github 代码) 上微调而成的。该论文还首次提出了 HumanEval,即人类编写的代码评估。本文最值得注意的是,它证明了代码数据对代码性能非常重要,因为 GPT-J 在代码方面的表现优于 GPT-3。他们还为代码添加了一些 token,这使压缩率提高了30%。
5. 只对 CoTed 输出进行微调
我忘了哪篇论文是这么做的,但依稀记得他们根据模型的思维链输出对模型进行了微调,结果变得更好。虽然这在意料之中,但是也值得关注。
6.FeedME (SFT)
论文地址:https://arxiv.org/pdf/2203.02155.pdf
这种方法在 Instruct GPT 论文中有所描述,但这不一定是该方法起源。该方法的起源更加接近下面这篇论文。
论文地址:https://arxiv.org/pdf/1909.08593.pdf
监督微调使用人工生成的内容,然后用于微调预训练模型。论文发现,SFT 比基础预训练模型表现更好,但 RLHF 比 SFT 表现更好。
7.FLAN
论文地址:https://arxiv.org/pdf/2109.01652.pdf
FLAN 是一个经过指令调整的模型(在指令格式的 nlp 任务上进行了微调),可提升零样本性能。
训练技术
1. 善于设置超参数
没有论文是专门讨论这个的,但正确设置超参数显然是非常重要的。
通过阅读以下文章可以获得一些基准。
Chinchilla 论文:https://arxiv.org/pdf/2203.15556.pdf
Scalling Laws 论文 https://arxiv.org/pdf/2001.08361.pdf
Jane Street 的有关理解批大小的博客文章:https://blog.janestreet.com/does-batch-size-matter/
2. 基于人类反馈的预训练
论文地址:https://arxiv.org/pdf/2302.08582.pdf
尽管 PHF(Pretraining with Human Feedback)在预训练时使用了一种简单的技术来标记数据,但预训练往往采用无监督的形式。该方法在训练时使用两个条件 token(好的和坏的)预置到样本中,然后在推理时使用它们进行采样。该研究还尝试了其他各种目标(尤其是把坏数据过滤掉),但在 python 风格、PII 和毒性上的评估结果都很差。
3.MuP
论文地址:https://arxiv.org/pdf/2203.03466.pdf
MuP(Maximal Update Parameterization )是一种参数化方法,这种方法不仅节省了参数扫描计算,而且更接近最优。这篇论文很好地阐述了这一方法的理论依据。
其他
1. 思维链(CoT)
论文地址:https://arxiv.org/pdf/2201.11903.pdf
CoT 是一种让模型 「step-by-step」思考并产生更好结果的技术,名字起源于上述论文《 Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 》。论文描述了发表于2021年2月的论文《Prompt Programming for Large Language Models:Beyond the Few-Shot Paradigm》中技术的具体应用。
论文地址:https://arxiv.org/pdf/2102.07350.pdf
2. 工具使用
关于规范工具使用的论文可以最早追溯到2021年12月的 WebGPT 论文。文中 GPT-3可以访问网络,从而大大增强了模型能力。
论文地址:https://arxiv.org/pdf/2112.09332.pdf
除此以外,DeepMind 还训练了可以借助 RL 工具来完成各种任务的智能体 ;Meta 发布语言模型 Toolformer,可以教会自己使用工具。
DeepMind 论文:https://arxiv.org/pdf/2202.08137.pdf
Meta 的 Toolformer:https://arxiv.org/pdf/2302.04761.pdf
3.Fill In the Middle
论文地址:https://arxiv.org/pdf/2207.14255.pdf
这篇论文描述了一种简单的数据转换,它将子字符串从文本中间移到末尾,并要求模型填充中间部分。这样,模型就能获得一种对代码补全等任务非常有用的能力,而不会影响严格意义上从左到右任务的性能。
4. 采样技术:Top-k,Top-p (核),Beam Search
与 Top -P 有关的论文地址:https://arxiv.org/pdf/1904.09751.pdf
语言模型的输出基本上是每个可能 token 的 logit,然后将其 softmax 化为概率。将 logits 转换为 token 的最简单方法,就是取最有可能的 token。当语言模型有温度控制时,它将 logits 除以温度,这使模型对其首选更有信心 / 更没有信心。Top -K 采样从该分布中获取前 K 个 token 和样本。Top -P 采样,或称核采样,会选择 tokens 中概率累积排名前 P 个百分比的部分,并从这个选定的部分进行抽样。
5. 无尾采样(Tail Free Sampling)
文章地址:https://www.trentonbricken.com/Tail-Free-Sampling/
无尾采样是 Top-p 采样的衍生,之所以这样命名是为了找到 「尾」,因为 Top-p 采样可能会在许多 token 具有相似概率的点上被切断而失败。上面这篇文章像是说明了无尾采样能够更好进行采样工作的原因,但当涉及到提高模型的创造力和范围时,没有很好的基准。
补充地址(文章中提到的其他论文的地址)如下:
GPT-2论文(2018):https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
扩展定律论文:https://arxiv.org/pdf/2001.08361.pdf
Transformer 论文2017:https://arxiv.org/pdf/1706.03762.pdf
Turing NLG 论文:https://arxiv.org/pdf/2201.11990.pdf
Jurassic J-1Jumbo 论文:https://uploads-ssl.webflow.com/60fd4503684b466578c0d307/61138924626a6981ee09caf6_jurassic_tech_paper.pdf
PaLI 论文:https://arxiv.org/pdf/2209.06794.pdf
post-Chinchilla 论文:https://arxiv.org/pdf/2207.05221.pdf
有关道德自我纠正的论文:https://arxiv.org/pdf/2302.07459.pdf
近端策略优化论文:https://arxiv.org/pdf/1707.06347.pdf
Deepmind 的 Sparrow 论文:https://arxiv.org/pdf/2209.14375.pdf
WebGPT 论文:https://arxiv.org/pdf/2112.09332.pdf
GopherCite 论文:https://arxiv.org/pdf/2203.11147.pdf
原文链接:https://kipp.ly/transformer-taxonomy/?continueFlag=a897a8d0eb16dcae5398f1b58cc5e06f
报告:到今年底全球将有13亿部iPhone活跃设备 超50%为二手设备
10月11日消息,据外媒报道,研究机构CCSInsight发布报告称,到2023年底,全球将有13亿部iPhone活跃设备,其中超过50%是二手设备。早在2021年7月份,苹果CEO蒂姆·库克(TimCook)就表示,iPhone活跃设备量已超过10亿大关。0001OpenAI 正在为 DALL-E3生成的图片上增加新水印
划重点:💧OpenAI在DALL-E3图像生成器中添加了水印,以支持C2PA标准-💻水印将出现在ChatGPT网站和DALL-E3模型API生成的图像中-🛠️用户可以通过ContentCredentialsVerify等网站检查图像生成的来源站长网2024-02-07 09:51:060000OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺
近日,OpenAI、谷歌、微软和智谱AI等来自不同国家和地区的16家公司,在“人工智能首尔峰会”(AISeoulSummit)上共同签署了前沿人工智能安全承诺(FrontierAISafetyCommitments)。这一承诺标志着AI开发领域的一次重大进展,旨在加强AI技术的安全性和透明度。图源备注:图片由AI生成,图片授权服务商Midjourney站长网2024-05-24 11:42:100000苹果MR即将问世 与AR和VR有何不同? 果链能否重振旗鼓?
#挑战30天在头条写日记#最新消息显示,在6月6日即将举办的2023苹果WWDC(全球开发者大会)上,苹果公司将发布旗下第一款混合现实(MR)设备。苹果MR通常指苹果公司推出的混合现实技术产品。这个产品通常是指苹果公司使用AR技术和VR技术制造的一种具有交互性的计算机生成环境,可在物理世界和虚拟世界之间切换,使用户能够与虚拟对象进行实时互动。AR、VR和MR有何不同?站长网2023-05-23 22:55:490000苹果的“ACDC 项目”正在为数据中心开发人工智能芯片
据华尔街日报报道,苹果公司正在研发一款可在数据中心伺服器上运行人工智能(AI)软件的晶片,该项目代号为“ProjectACDC”,旨在帮助苹果在AI领域取得竞争优势。虽然晶片推出时间尚未确定,但苹果已承诺将在6月的全球开发者大会上发布更多AI相关产品和消息。站长网2024-05-07 11:51:350000