OpenAI发布PVG:用小模型验证大模型输出,解决“黑盒”难题
7月18日凌晨,OpenAI在官网发布了最新技术研究——Prover-Verifier-Games。
随着ChatGPT在法律、金融、营销等领域的广泛使用,确保模型的安全、准确输出同时被很好理解变得非常重要。但由于神经网络的复杂和多变性,我们根本无法验证其生成内容的准确性,这也就会出现输出“黑盒”的情况。
为了解决这个难题,OpenAI提出了全新训练框架Prover-Verifier Games(简称“PVG”),例如,用GPT-3这样的小模型来验证、监督,GPT-4大模型的输出,从而提升输出准确率以及可控性。
OpenAI论文地址:https://cdn.openai.com/prover-verifier-games-improve-legibility-of-llm-outputs/legibility.pdf

其实PVG技术概念早在2021年8月的一篇论文中就被提出来,OpenAI也正是受此灵感启发。这是一种基于博弈论的训练方法,通过模拟证明者和验证者之间的互动,提高模型的输出质量。
在这个机制中, Prover(证明者)的任务就是生成内容,而Verifier(验证者)的任务就是判断这些内容是否正确。
论文地址:https://arxiv.org/abs/2108.12099

PVG模块的核心思想是通过多轮迭代训练,来提升证明者和验证者的整体性能。在每一轮训练中,验证者首先使用监督学习来预测从之前轮次的证明者中采样的内容的正确性。
这样做的目的是让验证者学会如何从大量的内容中识别出正确的答案。随后,证明者通过强化学习来优化其生成的内容,使其不仅正确,还能够说服验证者来接受这些内容。
在验证的过程中,证明者和验证者的角色是相互依赖的。证明者需要生成能够说服验证者的内容,而验证者则需要具备足够的判断力来识别出正确的内容。
为了进一步提升效率性,OpenAI在此基础之上又设计了两种强化类型的证明者,有用的证明者(Helpful prover)和狡猾的证明者(Sneaky prover)。

有用的证明者的目标是生成正确且有说服力的内容。它通过优化其生成的内容,使其能够被验证者接受。
而狡猾的证明者则试图生成错误但同样有说服力的内容,以此来欺骗验证者。这种设计不仅增加了训练的难度,也使得验证者必须具备更高的判断力和鲁棒性。
在训练PVG时,每轮训练都包括验证者和证明者的优化。在每一轮中,验证者首先使用监督学习来预测内容的正确性,帮助验证者学会如何从大量的内容中识别出正确的答案。使证明者通过强化学习来优化其生成的内容。
例如,当用户提出问题“肖娜的父亲是肖娜的5倍。肖娜目前的年龄是阿莉亚的3倍。如果阿莉亚3岁,肖娜的父亲有多大?”
GPT-4的输出为45岁。

而验证者模型GPT-3需要确定阿莉亚的年龄,然后根据阿莉亚的年龄计算出肖娜的年龄,最后再根据肖娜的年龄计算出肖娜父亲的年龄,整个过程需要多轮验证。

此外,在训练过程中,OpenAI还引入了一种名为“可检查性训练”(checkability training)的方法。
通过交替训练验证器和证明者模型,从而验证使用监督学习来预测从之前轮次的证明者中采样的解决方案的正确性。证明者则使用强化学习,根据当前轮次验证器的接受度和解决方案的正确性来进行持续优化。
研究人员表示,随着训练轮次的增加,验证者的健全性逐渐提升,表现为对狡猾论证者生成的错误解决方案的抵抗力增强。同时,有益论证者生成的解决方案也变得更清晰,更易于被人类理解。

不过需要注意的是,在训练验证者模型时,需要大量真实、准确的标签数据,以提升其辨别真假的能力。也就是说,如果使用的验证模型存在偏差,那么验证的内容还是会出现非法输出的可能。
钉钉斜杠“/”放大招:私有小模型机器人、工作群一键爬楼,手绘表格秒变小程序
用私有数据定制一个专属的AI对话机器人,是很多人“ChatGPT自由”后的下一个梦想。现在,钉钉先帮大家实现了!一键自动学习文档内容创建问答机器人,不同于Langchain等需要开发能力的方案,有手就能玩。简单创建好后,就可以向机器人提问了,对于资料里有的内容,基本都引用原文给出答案。简直是公司培训、客服答疑、社群运营等场景的利器。站长网2023-05-31 21:00:300001ChatGPT解锁新身份 为美国一对新人当婚礼司仪
近日,美国科罗拉多州的一对新人婚礼上,ChatGPT首次以婚礼司仪的身份出现,为这场婚礼增添了科技与个性化的色彩。在仪式上,ChatGPT用熟练的语言表达出了这个历史性时刻的重要性,以及爱情与科技交织的无限可能性。它还即兴发挥,为新人和客人带来了个性化的祝福和感谢。站长网2023-07-04 14:40:320001OpenAI CEO:如果无法遵守欧盟的 AI 法规 可能退出欧洲市场
欧洲未来的人工智能(AI)监管规定可能迫使OpenAI离开欧洲,这是OpenAI首席执行官SamAltman于周三表示的。欧盟正在制定可能成为全球首个规范AI的法规。根据初稿,部署生成式AI工具(如ChatGPT)的公司将需要披露用于开发系统的任何受版权保护的材料。站长网2023-05-25 20:12:190001谷歌的研究人员使用人工智能MusicLM将脑部扫描变成音乐
谷歌和大阪大学刚刚发表的研究展示了一种将思想转化为音乐的技术。五名志愿者躺在功能磁共振成像扫描仪内,以十种音乐风格播放了500多个不同的曲目。他们大脑活动的图像被输入到一个名为Brain2Music的AI模型中,该模型使用谷歌的AI音乐生成器MusicLM学会了创建类似于受试者正在听的歌曲。站长网2023-07-31 14:09:220000综艺后期狂喜:编辑一帧,整个视频跟着变!比LNA渲染快5倍,Adobe联合出品
前不久跑男为了让“kunkun”原地消失,后期只能一帧一帧的抠图。现在,只要编辑一帧,整个视频就跟着变!就是点点kunkun,整集就自动消失的那种(手动狗头)。AdobeResearch和英属哥伦比亚大学的研究人员发现,使用INVE(交互式神经视频编辑),只需在单帧上“画笔涂鸦”,就能自动应用改动到整个视频中。站长网2023-07-23 14:23:090000