数据标注员什么时候会被AI替代?谷歌:现在就行
似乎自ChatGPT进入大众视野起,需要依靠人工进行数据标注,就成为人们对大语言模型(LLM)根深蒂固的印象之一。
从两个以上大模型针对同一个问题给出的不同回答里,找到当中的语病、逻辑和事实错误,标记不同的错误类型,再对这些回答按照质量分别进行打分等,这些都是大模型数据标注员要干的事情。
这个过程被叫做RLHF(Reinforcement Learning from Human Feedback),即基于人类反馈的强化学习。RLHF也是被ChatGPT、Bard和LLaMA等新兴大模型带火的模型训练方法,它最大的好处就在于能够将模型和人类的偏好对齐,让大模型给出更符合人类表达习惯的回答。
不过最近发布在arXiv的一份论文表明,这份看起来只有人类能做的工作,也能被AI取代!
AI也取代了RLHF中的“H”,诞生了一种叫做“RLAIF”的训练方法。
这份由谷歌研究团队发布的论文显示,RLAIF能够在不依赖数据标注员的情况下,表现出能够与RLHF相媲美的训练结果——
如果拿传统的监督微调(SFT)训练方法作为基线比较,比起SFT, 1200 个真人“评委”对RLHF和RLAIF给出答案的满意度都超过了70%(两者差距只有2%);另外,如果只比较RLHF和RLAIF给出的答案,真人评委们对两者的满意度也是对半分。
这里的“胜率”体现了文中的“满意度”
需要说明的是,谷歌的这篇论文也是第一个证明了RLAIF在某些任务上能够产生与RLHF相当的训练效果的研究。
最早提出让AI反馈代替人类反馈用于强化学习训练的研究,是来自 2022 年Bai et al. 发布的一篇论文。这篇论文也首次提出了RLAIF的概念,并发现了AI标注的“天赋”,不过研究者在当时还并没有将人类反馈和AI反馈结果进行直接比较。
总之谷歌的这一研究成果一旦被更多人接受,将意味着不用人类指点,AI也能训练自己的同类了。
下面可以来看看RLAIF具体是怎么做的。
我们知道,RLHF的方法大致可以分为三个步骤:预训练一个监督微调LLM,收集数据训练一个奖励模型(RM),以及用强化学习(RL)方式微调模型。
从论文给出的图示看,AI和人类标注员发挥作用的环节,主要是在训练奖励模型(RM)并生成反馈内容这里。你可以把“奖励”理解为,让人/AI来告诉模型哪种回答更好,答得更好就能有更多奖励(所以也能理解人工标注存在的必要)。
接着研究人员主要就“根据一段文字生成摘要”这一任务,展示了RLAIF的标记方法。
下面的表格比较完整地展示了RLAIF方法的输入结构:
首先是序言(Preamble),用来介绍和描述手头任务的说明。比如描述说,好的摘要是一段较短的文字,具有原文的精髓…给定一段文本和两个可能的摘要,输出 1 或 2 来指示哪个摘要最符合上述定义的连贯性、准确性、覆盖范围和整体质量。
其次是样本示例(1-Shot Exemplar)。比如给到一段“我们曾是超过四年的好朋友……”的文本,接着给到两个摘要,以及“摘要 1 更好”的偏好判断,让AI学着这个示例对接下来的样本做标注。
再者就是给出所要标注的样本(Sample to Annotate),包括一段文本和一对需要标记的摘要。
最后是结尾,用于提示模型的结束字符串。
论文介绍到,为了让RLAIF方法中AI标注更准确,研究者也加入了其他方法以获取更好的回答。譬如为了避免随机性问题,会进行多次选择,其间还会对选项的顺序进行交换;此外还用到了思维链(CoT)推理,来进一步提升与人类偏好的对齐程度。
从原始prompt到输出的完整流程如下图所示:
能看到,就像人类标注员会给不同的回答打分一样(比如满分 5 分),AI也会依据偏好给每个摘要打分,相加起来是 1 分。所以这个分数就可以理解为上文提到的奖励。
以上就是RLAIF方法大致会经历的过程。
而在评价RLAIF方法的训练结果到底好不好时,研究人员使用了三个评估指标,分别是AI标签对齐度(AI Labeler Alignment)、配对准确度(Pairwise Accuracy)和胜率(Win Rate)。
简单理解三个指标,AI标签对齐度指的就是AI偏好相对于人类偏好的精确程度,配对准确度指训练好的奖励模型与人类偏好数据集的匹配程度,胜率则是人类在RLAIF和RLHF生成结果之间的倾向性。
研究人员在依据评估指标进行了繁杂的计算之后,最终得出了RLAIF和RLHF“打平手”的结论。
当然也有一些非量化的定性分析。譬如研究发现,RLAIF似乎比RLHF更不容易出现“幻觉”,下表所示几个例子中标红部分便是RLHF的幻觉,尽管看上去是合理的:
而在另一些例子里,RLAIF的语法表现似乎又比RLHF差不少(标红为RLAIF的语法问题):
尽管如此,RLAIF和RLHF整体来说生成高质量摘要的能力还是旗鼓相当的。
该论文的发布很快收获了不少关注。比如有从业者评论道,等到GPT- 5 可能就不需要人类数据标注员了。
也有网友贴图打趣,用AI来训练同类的做法就好比是这张梗图。
不过针对谷歌这篇论文中用到的研究方法,身为著名软件工程师、AI专家的Evan Saravia也认为,研究人员只在论文中分析了RLAIF和RLHF在“生成摘要”这一任务上的表现,其他更加泛化的任务表现如何还有待观察。
此外,研究人员也没有将人工标注和使用AI成本的因素考虑在内。
其实以上网友预测未来的大模型将不再需要人类标注员,也侧面体现出目前RLHF方法因为过于依赖人工而遇到的瓶颈:大规模高质量的人类标注数据可能会非常难以获取——
大模型数据标注员往往是流动性非常高的工种,并且由于数据标注很多时候非常依赖标注员的主观偏好,也就更加考验标注员的自身素质。
短期内也许会像这位从业者说的,“我不会说这(RLAIF)降低了人工标注的重要性,但有一点可以肯定,人工智能反馈的RL可以降低成本。人工标注对于泛化仍然极其重要,而RLHF RLAIF混合方法比任何单一方法都要好。”
董明珠怒斥孟羽童 称孟羽童只想用格力平台去当网红
今年5月,曾被视为董明珠接班人的孟羽童从格力离职,这一消息在网上引起了热议,尤其是关于她的离职原因。近日,董明珠在格力电器2023届大学生入职仪式中再次提及孟羽童,揭露了背后的真相。董明珠表示,当初在实习生节目中看中了孟羽童的勤奋,选她来做秘书。然而,在工作中孟羽童的表现并不尽如人意,她只想着利用格力平台成为网红,在公司中产生了不良影响。因此,董明珠决定将她开除。0000FF宣布签署1亿美元的无担保可转换债融资
FaradayFuture(FF)宣布,签署1亿美元融资的无担保可转债的最终协议。本融资所得现金预计将用于支持旗舰车型FF91的持续生产爬坡和销售及服务体系发展。站长网2023-05-10 12:01:290001谷歌发布人工智能笔记应用「Project Tailwind」:你的私人文档专属 AI
Google在今年的I/O大会上宣布了许多人工智能项目,其中别一些人最兴奋可能是一个笔记项目:ProjectTailwind。图片截自ProjectTailwind从本质上讲,它实际上是一个基于你的文档训练的人工智能笔记本,你可以用它来查询,就像一个个性化的导师或写作伴侣。Google将它作为一种学生工具,但它对任何需要处理大量文本的人都有更大的潜力。站长网2023-05-11 09:07:030000小米汽车推出锁单等待关怀活动:3个月以上将不定期收到小礼品
在近期的小米汽车APP更新中,一项名为“锁单等待关怀计划”的新政策引起了广大用户的关注。该政策明确规定,对于那些因车辆交付周期长而需要等待3个月以上的用户,小米汽车将不定期地送上精心准备的惊喜礼品,以此表达对用户耐心等待的感激与关怀。站长网2024-06-29 16:22:450000华为智界 S7 汽车正式发布 售价 24.98 万起
今日,华为智选车品牌旗下的首款轿车——智界S7已经正式发布。它提供了四款车型,包括智界S7Pro、智界S7Max、智界S7Max和智界S7MaxRS,售价分别为24.98万、28.98万、31.98万和34.98万。外观上,智界S7采用了全新的OneBox造型设计,这种设计大幅提升了舱内空间的利用率。车辆的一体式车身结构和流体黄金曲线赋予了其0.203Cd的超低风阻。站长网2023-11-28 18:44:370000