重大突破!微软发布“自我进化”,帮小模型超OpenAI-o1
微软亚洲研究院发布了一种创新算法——rStar-Math。
rStar-Math通过代码增强CoT、蒙特卡洛树搜索等,可以帮助小参数模型在不依赖老师模型蒸馏的情况下,实现多轮自我思维深度进化,极大增强模型的数学推理能力。
在美国数学竞赛AIME2024测试中,rStar-Math平均解决了53.3%(8/15)的难题,超过了OpenAI o1-preview的44.6%,以及所有其他开源的大模型,成为最聪明的前20%高中数学生。
在MATH基准测试中,rStar-Math将阿里开源的小模型Qwen2.5-Math-7B的准确率从58.8%提高到90.0%,Qwen2.5-Math-1.5B的准确率从51.2%提高到87.8%,Phi3-mini-3.8B从41.4%提高到86.4%,全部超过了OpenAI o1-preview。
这充分说明,小模型在创新算法和高质量数据加持下,推理能力同样可以超大参数的前沿模型。
代码增强CoT
传统的数学推理模型依赖于自然语言生成的推理步骤,这种方法虽然直观,但容易产生错误或不相关的步骤,尤其是在复杂的数学问题中很难被察觉到。所以,rStar-Math使用代码增强CoT(Chain-of-Thought,思维链)的方法来解决这个难题。
模型在生成每一步推理时,不仅生成自然语言的解释,还生成对应的Python代码,并通过代码执行来验证推理步骤的正确性。代码增强CoT能够提供严格的验证机制,确保每一步推理的正确性。
例如,在解决一个数学问题时,模型可能会生成一个方程求解的步骤,并通过Python代码实际执行该方程求解过程。如果代码执行成功且结果正确,该步骤才会被保留为有效推理步骤。这种方法不仅减少了错误推理步骤的生成,还提高了推理轨迹的整体质量。
为了进一步确保推理步骤的质量,rStar-Math 使用了蒙特卡洛树搜索(MCTS)来生成逐步推理轨迹。MCTS 被用来分解复杂的数学问题为多个单步生成任务。
每个步骤中,策略模型生成多个候选步骤,并通过代码执行来过滤有效节点。通过广泛的MCTS回滚,rStar-Math 能够为每个步骤分配Q值,确保生成的推理轨迹由正确且高质量的中间步骤组成。
PPM训练方法
目前,多数大模型在推理数学问题时面临着无法提供细粒度的步骤级反馈,以帮助其在推理过程中做出更优的选择。rStar-Math通过引入过程奖励模型(PRM)来帮助模型找到更优的推理路径。
PPM 的核心思想是通过构建步骤级的正负偏好对来训练模型,而不是直接依赖于精确的步骤级评分。PPM 的训练方法利用了MCTS生成的Q值,这些Q值是通过广泛的回滚和反向传播过程计算得出的,反映了每个步骤对最终答案的贡献。虽然这些Q值本身并不完全精确,但它们能够可靠地区分高质量步骤和低质量步骤。
PPM从MCTS树中选择Q值最高的两个步骤作为正例,Q值最低的两个步骤作为负例,构建偏好对。通过这种方式,PPM 能够学习到哪些步骤更有可能引导模型生成正确的推理轨迹,从而在推理过程中做出更优的选择。
PPM 的训练过程采用了标准的Bradley-Terry 模型和成对排序损失函数。对于每个步骤,PPM 预测一个奖励分数,并通过成对排序损失函数来优化模型的预测能力。成对排序损失函数的核心思想是最大化正例步骤与负例步骤之间的奖励分数差异,从而确保模型能够准确地区分高质量和低质量的推理步骤。
PPM 的训练方法还引入了一个重要的创新点,避免直接使用Q值作为奖励标签。虽然Q值能够提供一定的步骤级反馈,但由于其固有的噪声和不精确性,直接使用Q值作为训练目标会导致模型学习到不准确的奖励信号。
所以,PPM 通过构建偏好对将Q值转化为相对排序问题,从而减少了噪声对模型训练的影响。这种方法不仅提高了模型的鲁棒性,还使得PPM能够在推理过程中更可靠地评估每一步的质量。
多轮自我进化
rStar-Math通过四轮自我思维深度进化,并结合PPM、MCTS和代码增强CoT 逐步增强模型的推理能力。
第一轮,通过监督微调对基础模型进行初步改进,为后续的自我进化奠定基础。这一轮的关键在于生成高质量的初始训练数据,并利用这些数据对基础模型进行微调。
第二轮,通过PPM显著提升模型推理能力。PPM通过分析策略模型生成的推理步骤,识别出哪些步骤是高质量的,哪些步骤需要改进。然后将这些反馈信息传递给策略模型,指导其在后续的推理中做出更好的选择。
第三轮,通过PPM增强的MCTS生成更高质量的数据,进一步提升模型的推理能力。在这一轮中,PPM不仅评估策略模型生成的推理步骤,还指导MCTS的搜索过程,使其更有效地探索高质量的推理路径。
第四轮,通过增加MCTS回滚次数解决超难数学推理问题。在前三轮自我进化的基础之上,第四轮自我进化通过增加MCTS的回滚次数,进一步提升了rStar-Math解决具有挑战性数学问题的能力。
增加回滚次数使得MCTS能够更深入地探索不同的推理路径,发现那些在初步探索中可能被忽略的高质量解决方案。这不仅提高了模型对复杂问题的解决能力,还增强了其在面对高难度数学问题时的鲁棒性。
代码地址(目前无法打开处于审核中):https://github.com/microsoft/rStar
论文地址:https://arxiv.org/abs/2501.04519
从昨天微软开源的最强小模型Phi-4,以及最新推出创新算法rStar-Math来看,未来小模型的性能和效率将逐渐成为主流,并且对于没有强大算力集群的中小企业和个人开发者来说非常实用。
OpenAI向所有付费API客户开放GPT-4
OpenAI宣布向所有付费API访问的开发者开放GPT-4。GPT-4是在GPT-3之后的一个重大突破,拥有超过1000亿个参数,其数量是GPT-3的10倍。GPT-4可以根据给定的文本或语音输入,生成各种类型和风格的自然语言输出,如文章、对话、摘要、诗歌、歌词等。站长网2023-07-08 17:08:220000女子被好友改名文件传输助手骗5年 后续:对方已被封号
在日常生活中,许多人都习惯将微信的文件传输助手作为备份工具,但往往忽视了可能存在的风险。最近,一位名叫@布鲁克林奶王的博主分享了自己的一段经历,警示大家提高警惕。站长网2024-02-28 13:52:290000GitHub2023年度报告:生成式AI项目数量猛增 同比增长248%
**划重点:**1.📈2023年GitHub新增65,000个生成式AI项目,同比增长248%。2.🌐开源生成式AI项目进入2023年度贡献者数量前十,其中包括LangChain和StableDiffusion等热门项目。3.🌐GitHub预测印度将在2027年成为全球最大的开发者社区,而生成式AI的迅速发展将对业务产生深远影响。站长网2023-11-16 10:40:510000英伟达推出免训练,可生成连贯图片的文生图模型
目前,多数文生图模型皆使用的是随机采样模式,使得每次生成的图像效果皆不同,在生成连贯的图像方面非常差。例如,想通过AI生成一套图像连环画,即便使用同类的提示词也很难实现。虽然DALL·E3和Midjourney可以对图像实现连贯的生成控制,但这两个产品都是闭源的。因此,英伟达和特拉维夫大学的研究人员开发了免训练一致性连贯文生图模型——ConsiStory。(即将开源)站长网2024-02-21 09:16:310000天涯社区App重新上架应用商店:预计5月1日前恢复访问
快科技3月17日消息,日前,下架快一个月的天涯社区App重新上架苹果AppStore及部分安卓应用商店,版本号依然是1年前的7.3.0。经实测,目前天涯社区App无法注册账号、登陆账号,选择注册账号时会提示未能找到使用指定主机名的服务器”。在选择浏览进入”模式进入应用后,也无法显示任何内容,显示显示没有取得数据,请求刷新”。天涯社区去年4月1日被暂停访问,至今没有恢复。站长网2024-03-17 13:08:180000