OpenAI推出“Meta-Prompting”,显著提升GPT-4等模型内容准确性
OpenAI、斯坦福大学的研究人员推出了一个创新大模型增强框架——Meta-ProMetating(简称“Meta”)。
Meta可增强GPT-4、PaLM和LLaMa等模型的性能,使生成的内容更加精准、安全可靠。
其技术原理也很简单明确,通过将模型复杂的任务或问题分解为更小、可管理的子任务,并将其分配给功能更强的专家模型来进行指导。
实验数据显示,Meta与GPT-4相结合后,在不同任务中的测试表现非常强悍,例如,在Game of24、 Checkmate-in-One和Sonnet Writing测试任务中,Meta的准确率明显优于其他几种主流辅助提示框架。特别是Meta与Python代码解释器相结合使用后,效果更佳。
论文地址:https://arxiv.org/abs/2401.12954
传统的模型提示指导方法是,需要为每个特定任务提供详细示例或具体的微调指导,这种模式非常费时、浪费AI算力。
而META采用了一种可以跨特定任务的通用高层次指导,打造了一个集中协调和多个专家模型于一体的创新框架,从而实现任务的分解和协同解决,主要由指挥模型、专家模型、沟通协调等模块组成。
指挥和专家模型
当大语言模型收到一个内容查询时,指挥模型负责生成一个消息历史,其中包含来自各种专家模型的回答。
指挥模型首先根据查询选择适当的专家模型,并为每个特定查询制定具体的指令。然后,将这些指令传递给相应的专家模型,并监督和协调它们之间的通信和合作。指挥模型还运用自身的批判性思维、推理和验证能力来完善和验证最终结果。
而每个专家模型都有丰富的任务实例,可根据指挥为每个特定查询选择的专业知识和信息生成更准确地输出。
专家模型通过接收来自指挥模型的指令,并根据这些指令执行特定的子任务。通过将复杂任务分解为较小、可管理的子任务,专家模型能够更好地处理并生成准确、一致的回答。
上下文选择
该模块负责为每个专家模型提供动态的上下文选择。在处理复杂文本任务时,不同的上下文会引入新的视角和信息,从而丰富模型的知识和理解。
上下文选择模块可根据指挥模型的指令和当前任务的要求,选择适当的上下文信息,并将其传递给相应的专家模型。这种动态的上下文选择使得专家模型能够更好地理解和解决复杂任务。
为了保证输出内容的准确性,META还内置了批判和验证模块,通过使用逻辑推理、常识知识和验证技术来评估和验证专家模型的指导输出内容。
评估模块会对每个专家模型生成的回答进行验证,并将验证结果反馈给指挥模型。指挥模型再根据这些反馈进行调整和修正并进行自适应学习,以生成更准确和可靠的最终答案。
谷歌宣布对更多用户开放搜索中对新的生成式 AI 功能的访问
在GoogleI/O之后注册SearchLabs的美国Google用户现在可以开始使用一些早期实验,包括SGE(搜索生成体验)、代码提示和添加到表格。如果你想试用这些功能,可以通过访问此网站进行注册,如果你已注册,还可以在那里查看候补名单状态。图片来自Google站长网2023-05-26 09:33:010000为了盈利,B站都做了哪些事
这是《窄播Weekly》的第05期,本期我们关注的商业动态是:1.B站发布2023年Q4及全年财报,称实现全年正向经营现金流,并将于今年Q3盈利;2.抖音生活服务组织架构调整,生活服务与商业化部门多位负责人换岗,且提出年度6000亿的营收目标;3.窄播独家消息:TikTok电商将于5月在沙特开启本对本,SHEIN斋月订单量预计增长50%。以下为本期《窄播Weekly》的主要内容:0000AI日报:比肩MJ6!SD3 API发布;Kimi升级!联网回复更快了;微软发布对口型软件VASA-1;刘强东数字人首播破纪录
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、StableDiffusion3API发布性能比肩Midjourneyv6【AiBase提要:】站长网2024-04-19 01:36:170000AI视野:Pika1.0首批用户资格揭晓;Runway官宣下场通用世界模型;妙鸭相机推出AI修图;抖音正式上线AI创作功能
📰🤖📢AI新鲜事Pika1.0首批用户资格揭晓PikaLabs最新视频生成产品Pika1.0引起轰动,已开始向候补名单用户发放使用资格。Pika1.0以文生成视频为特色,提供3秒视频快速生成、背景修改等功能。用户可在推特或邮箱确认是否成为首批体验者。【AiBase提要】:🚀Pika1.0发布:PikaLabs推出视频生成工具Pika1.0,引起广泛关注。站长网2023-12-12 15:45:020000深度求索开源多模态大模型DeepSeek-VL系列
3月11日,DeepSeek-AI开源了全新多模态大模型DeepSeek-VL系列,分为1.3b和7b两种规模,共有4个版本。它具有融合语言和视觉能力,可以在不损失语言理解能力的情况下处理多模态任务,识别高分辨率图像中的细小物体。这个模型结合了视觉和语言信息,通过预训练微调的方法,在种领域中展现出很好的性能。站长网2024-03-13 09:45:020001