数据标注员什么时候会被AI替代?谷歌:现在就行
似乎自ChatGPT进入大众视野起,需要依靠人工进行数据标注,就成为人们对大语言模型(LLM)根深蒂固的印象之一。
从两个以上大模型针对同一个问题给出的不同回答里,找到当中的语病、逻辑和事实错误,标记不同的错误类型,再对这些回答按照质量分别进行打分等,这些都是大模型数据标注员要干的事情。
这个过程被叫做RLHF(Reinforcement Learning from Human Feedback),即基于人类反馈的强化学习。RLHF也是被ChatGPT、Bard和LLaMA等新兴大模型带火的模型训练方法,它最大的好处就在于能够将模型和人类的偏好对齐,让大模型给出更符合人类表达习惯的回答。
不过最近发布在arXiv的一份论文表明,这份看起来只有人类能做的工作,也能被AI取代!
AI也取代了RLHF中的“H”,诞生了一种叫做“RLAIF”的训练方法。
这份由谷歌研究团队发布的论文显示,RLAIF能够在不依赖数据标注员的情况下,表现出能够与RLHF相媲美的训练结果——
如果拿传统的监督微调(SFT)训练方法作为基线比较,比起SFT, 1200 个真人“评委”对RLHF和RLAIF给出答案的满意度都超过了70%(两者差距只有2%);另外,如果只比较RLHF和RLAIF给出的答案,真人评委们对两者的满意度也是对半分。
这里的“胜率”体现了文中的“满意度”
需要说明的是,谷歌的这篇论文也是第一个证明了RLAIF在某些任务上能够产生与RLHF相当的训练效果的研究。
最早提出让AI反馈代替人类反馈用于强化学习训练的研究,是来自 2022 年Bai et al. 发布的一篇论文。这篇论文也首次提出了RLAIF的概念,并发现了AI标注的“天赋”,不过研究者在当时还并没有将人类反馈和AI反馈结果进行直接比较。
总之谷歌的这一研究成果一旦被更多人接受,将意味着不用人类指点,AI也能训练自己的同类了。
下面可以来看看RLAIF具体是怎么做的。
我们知道,RLHF的方法大致可以分为三个步骤:预训练一个监督微调LLM,收集数据训练一个奖励模型(RM),以及用强化学习(RL)方式微调模型。
从论文给出的图示看,AI和人类标注员发挥作用的环节,主要是在训练奖励模型(RM)并生成反馈内容这里。你可以把“奖励”理解为,让人/AI来告诉模型哪种回答更好,答得更好就能有更多奖励(所以也能理解人工标注存在的必要)。
接着研究人员主要就“根据一段文字生成摘要”这一任务,展示了RLAIF的标记方法。
下面的表格比较完整地展示了RLAIF方法的输入结构:
首先是序言(Preamble),用来介绍和描述手头任务的说明。比如描述说,好的摘要是一段较短的文字,具有原文的精髓…给定一段文本和两个可能的摘要,输出 1 或 2 来指示哪个摘要最符合上述定义的连贯性、准确性、覆盖范围和整体质量。
其次是样本示例(1-Shot Exemplar)。比如给到一段“我们曾是超过四年的好朋友……”的文本,接着给到两个摘要,以及“摘要 1 更好”的偏好判断,让AI学着这个示例对接下来的样本做标注。
再者就是给出所要标注的样本(Sample to Annotate),包括一段文本和一对需要标记的摘要。
最后是结尾,用于提示模型的结束字符串。
论文介绍到,为了让RLAIF方法中AI标注更准确,研究者也加入了其他方法以获取更好的回答。譬如为了避免随机性问题,会进行多次选择,其间还会对选项的顺序进行交换;此外还用到了思维链(CoT)推理,来进一步提升与人类偏好的对齐程度。
从原始prompt到输出的完整流程如下图所示:
能看到,就像人类标注员会给不同的回答打分一样(比如满分 5 分),AI也会依据偏好给每个摘要打分,相加起来是 1 分。所以这个分数就可以理解为上文提到的奖励。
以上就是RLAIF方法大致会经历的过程。
而在评价RLAIF方法的训练结果到底好不好时,研究人员使用了三个评估指标,分别是AI标签对齐度(AI Labeler Alignment)、配对准确度(Pairwise Accuracy)和胜率(Win Rate)。
简单理解三个指标,AI标签对齐度指的就是AI偏好相对于人类偏好的精确程度,配对准确度指训练好的奖励模型与人类偏好数据集的匹配程度,胜率则是人类在RLAIF和RLHF生成结果之间的倾向性。
研究人员在依据评估指标进行了繁杂的计算之后,最终得出了RLAIF和RLHF“打平手”的结论。
当然也有一些非量化的定性分析。譬如研究发现,RLAIF似乎比RLHF更不容易出现“幻觉”,下表所示几个例子中标红部分便是RLHF的幻觉,尽管看上去是合理的:
而在另一些例子里,RLAIF的语法表现似乎又比RLHF差不少(标红为RLAIF的语法问题):
尽管如此,RLAIF和RLHF整体来说生成高质量摘要的能力还是旗鼓相当的。
该论文的发布很快收获了不少关注。比如有从业者评论道,等到GPT- 5 可能就不需要人类数据标注员了。
也有网友贴图打趣,用AI来训练同类的做法就好比是这张梗图。
不过针对谷歌这篇论文中用到的研究方法,身为著名软件工程师、AI专家的Evan Saravia也认为,研究人员只在论文中分析了RLAIF和RLHF在“生成摘要”这一任务上的表现,其他更加泛化的任务表现如何还有待观察。
此外,研究人员也没有将人工标注和使用AI成本的因素考虑在内。
其实以上网友预测未来的大模型将不再需要人类标注员,也侧面体现出目前RLHF方法因为过于依赖人工而遇到的瓶颈:大规模高质量的人类标注数据可能会非常难以获取——
大模型数据标注员往往是流动性非常高的工种,并且由于数据标注很多时候非常依赖标注员的主观偏好,也就更加考验标注员的自身素质。
短期内也许会像这位从业者说的,“我不会说这(RLAIF)降低了人工标注的重要性,但有一点可以肯定,人工智能反馈的RL可以降低成本。人工标注对于泛化仍然极其重要,而RLHF RLAIF混合方法比任何单一方法都要好。”
湖北将发放3亿元消费券 线上京东、云闪付、翼支付
湖北省商务厅发布公告称,2023年惠购湖北家电消费券将于6月16日开始发放,共有线上券和线下券两种类型,总计投入财政资金3亿元,其中线上券投放资金0.5亿元,线下券投放资金2.5亿元。站长网2023-06-15 09:55:310000智谱AI上线4K60帧“新清影”,还要直接开源,我觉得他们疯了。
就在刚刚,智谱宣布全新迭代的AI视频模型“新清影”,正式上线。10s、4k、60帧,还能自带生成挺匹配的AI音效。视频模型已经上线智谱清言上,人人可用。音效模型这个月也即将上线。这个点,其实还好,就是线上模型迭代升级了一版而已。但是最牛逼的是,他们直接宣布,把这个“新清影”背后的底层模型,也就是CogVideoXv1.5,直接开源了。。。我觉得他们疯了,真的。站长网2024-11-17 09:43:420001中兴:今年将发布自研AI大模型以及首款AI旗舰终端
中兴手机宣布,将在今年发布自研AI大模型以及中兴首款AI旗舰终端。此次中兴终端的AI大模型应用架构全面而深入,涵盖了智能场景、交互技术、业务应用大模型以及大模型基础设施等多个方面。在智能场景方面,中兴的AI大模型将深入应用于商务出行、影音娱乐、家庭教育、运动健康以及智能驾驶等多个领域,为用户提供更加智能化的生活体验。站长网2024-02-26 09:39:060000五家大厂瓜分春节流量:谁赔本?谁赢了?
春节历来是互联网公司的超级战场,2024年龙年春节的过节氛围里,已经透出了互联网大厂的火药味。如果把镜头拉高拉远,我们可以看到剑拔弩张的两大战场:第一个战场,也是龙年春节最大战场——春晚。这一届,砸钱派的代表是京东和小红书。站长网2024-01-31 09:02:460001报告:第三季度全球生成式AI应用支出突破1.25亿美元 创新高
据data.ai公布数据显示,生成式人工智能(AIGC)APP第三季度全球用户支出已突破1.25亿美元(不包括第三方Android商店)。data.ai表示,尽管用户支出创下纪录,并实现9%季度环比增长,但AIGC类别涨幅最大的阶段其实发生在2023年的第2季度。站长网2023-11-03 10:27:500000