OpenAI直播第二弹!奥特曼2024年最大惊喜竟来自字节?强化微调让o1-mini逆袭o1

  新智元报道

  编辑:Aeneas 好困

  OpenAI 第二天的直播,揭示了强化微调的强大威力:强化微调后的 o1-mini,竟然全面超越了地表最强基础模型 o1。而被奥特曼称为「2024 年我最大的惊喜」的技术,技术路线竟和来自字节跳动之前公开发表的强化微调研究思路相同。

  OpenAI 12 天连播的第二弹,用短短三个单词体现了什么叫「字少事大」——强化微调(Reinforcement Fine-Tuning)。

  首先,这是 OpenAI 第一次将之前仅限自家模型(如 GPT-4o 和 o1 系列)使用的强化学习技术,开放给外部开发者。

  其次,开发者只需提供最低「几十个」高质量任务,就能通过强化微调实现领域专家模型的定制!并且,还能根据提供的参考答案对模型的回应进行评分。

  最后,强化微调加强了模型在处理领域问题时的推理能力,并提升了在特定任务上的准确性。对于那些要求高精确性和专业知识的领域,强化微调将会发挥至关重要的作用。

  从 OpenAI 的官方演示中不难看出,强化微调的效果可谓是相当显著——经过强化微调的 o1 mini,竟然全面超越了当今最强的基础模型 o1。

  其中,强化微调版的 o1 mini,在 Top-1 准确率上直接跃升 180% 达到了 31%,远超 o1 的 25%。

  对此,奥特曼激动地表示:「这项工作效果出奇得好,是我 2024 年最大的惊喜之一!非常期待大家会用它去构建什么。」

  目前,强化微调研究计划已进入 Alpha 阶段,并将于 2025 年第一季度公开发布。

  为了搞清楚「强化微调」到底是个啥,我们便去问了问 OpenAI 自家的 AI 搜索。

  没想到,结果却出人意料——这个技术思路,在一篇被 ACL 2024 录用为 Oral 的论文中,就已经提出了。

  而更喜人的是,团队的成员全部来自字节跳动!

  在这项工作中,研究人员提出了一种简单而有效的方法,来自增强 LLM 推理时的泛化能力——强化微调(Reinforced Fine-Tuning,ReFT)。

  论文地址:https://arxiv.org/abs/2401.08967

  简单来说,ReFT 首先会使用 SFT 对模型进行预热,然后采用在线强化学习(PPO 算法)进行优化。

  也就是,对给定的问题自动采样大量的推理路径,并根据真实答案来获取奖励,从而进一步对模型进行微调。

  在 GSM8K、MathQA 和 SVAMP 数据集上的大量实验表明,ReFT 显著优于 SFT,并且通过结合多数投票和重新排序等策略,可以进一步提升模型性能。

  不仅如此,ReFT 还有着卓越的泛化能力——在训练中仅需使用与 SFT 相同的问题集,而无需依赖额外或增强的训练数据。

  强化微调,不是传统微调

  这次上阵直播的四人,是 OpenAI 的研究员 Mark Chen、John Allard、Julie Wang,以及伯克利实验室计算生物学家 Justin Reese。

  他们介绍说,这项功能已允许用户在自己的数据集上微调 o1。

  不过要强调的是,并不是传统的微调,而是强化微调。它真正利用了强化学习算法,把模型从高级中学水平提升到专家博士级别。

  这个功能,能够帮助把自己的优质数据集转化为独一无二的用品,带来「魔力」。

  强化微调(RFT),能让开发者、研究人员和机器学习工程师首次有机会使用强化学习来创建专家级模型,在特定领域的任务中有卓越表现。

  对于法律、金融、工程、保险等领域,这项技术简直是量身打造的。

  举例来说,OpenAI 最近和汤森路透合作,利用强化微调对 o1 Mini 进行了微调,使其成为了一名法律助手,帮法律专业人士完成了一些复杂、需要深入分析的工作流程 。

  史上首次,OpenAI 微调支持强化学习

  去年年初,OpenAI 就推出了监督微调 API。这项技术非常强大,核心目标是让模型复制在输入文本或图像中发现的特征。

  在强化微调中,它不仅是教模型模仿输入,而是去学习在自定义域上以全新的方式进行推理。

  当模型看到一个问题,研究者会给它空间来思考问题,然后给它的最终答案进行评分。

  然后,利用强化学习的强大能力,他们会强化那些导致正确答案的思维路径,同时抑制那些导致错误答案的思维路径。

  只需要数十到数千个高质量示例,模型就能学会以新的、有效的方式在定制领域中进行推理了!

  用 OpenAI 研究者的话说,这实在太疯狂了,令人难以置信——仅用 12 个例子就能做到,这是传统微调难以实现的。

  这也是史上首次,OpenAI 的模型定制平台可以支持强化学习。

  研究者强调说,OpenAI 内部用来训练 GPT-4o 和 o1 系列等顶尖模型,就是用的同样技术。

  强化微调的 o1,诊断罕见病

  伯克利实验室的 Justin,就介绍了强化微调给他的研究带来的巨大帮助。

  他研究的是,使用计算方法来理解罕见疾病背后的遗传原因。

  然而,现在评估罕见疾病并不容易,首先要对医学有专业领域知识,还要对生物医学数据进行系统化推理。

  而这,o1 模型可以凭借其高级推理能力提供帮助。

  在这个项目中,Justin 和同事们从数百篇关于罕见疾病的科学病例报告中提取了疾病信息,包括患者的体征和症状。

  他们希望能根据患者的症状,找出可能发生突变、导致这些症状的基因。

  为此,他们和 OpenAI 团队一起训练了 o1 模型,让它更高效地推理疾病的成因。

  而在「根据一系列症状预测可能引发遗传疾病的基因」这一任务上,o1-mini 的表现超越了 o1!

  这非常重要,因为 o1-mini 比 o1 更小、更快、成本更低。

  在 OpenAI 的开发平台上,他们已经对一个模型进行监督微调一年多了。

  他们上传了一个训练数据集,包含 1100 个示例。

  以下是一个单独的数据点,包括病例报告、指令、正确答案三个部分。

病例报告显示,这是一名 51 岁的女性,有眼距增宽、甲状旁腺功能亢进等症状。 在指令部分,研究者会提示模型,希望它做什么。 最后就是正确答案。

  注意,训练过程中,并不会向模型展示这个答案,否则就是作弊了。

  但是,研究者以这训练过程中用这个答案来评估模型。

  可以看出,这个任务的难度,已经远远超越了「Strawberry 中有几个r」的级别。

  接下来,他们上传了一些验证数据,它的格式与训练数据完全相同,但验证数据集和训练数据集之间的正确基因没有重叠。

  这就意味着,模型不能作弊,不能只是简单地记住症状列表并将其与基因匹配。

  它必须真正从训练数据集泛化到验证数据集。

  强化学习的部分,是这样体现的——

  他们引入评分器的概念,将模型输出与正确答案比较,返回 0 到 1 之间的一个分数。0 表示模型完全错误,1 表示模型完全正确。

  在这个例子中,模型得到了 0.7 的分数,因为 FOXE 3 是正确答案,在基因列表中排第二位。

  它在列表中越往后,分数会越接近0。

  最终,研究者提供了一套评分器合集,能有效覆盖在强化微调时可能会有的各种意图空间。

  接下来,可以快速地复制一下评分器,然后就启动了一个训练任务。

  厉害的地方在于,只需要提供数据集和评分器(体现领域专业知识),就可以利用 OpenAI 强化学习算法的全部能力,以及完整的分布式模型训练技术栈,来为自己的使用场景定制一个前沿模型了。

  一句话就是:拿上你的数据集和评分器,OpenAI 就会给你一个微调模型。

  强化学习微调任务可能需要几个小时到几天的时间来运行

  可以看到,验证集的奖励分数呈上升趋势。

  由于训练数据集和验证数据集之间的基因没有重叠,这意味着:模型确实学会了这项任务中进行泛化!

  模型学会通用推理能力

  为了更深入地了解模型中微调过程中发生了什么变化,可以查看评估仪表板。

  其中,研究者设置了三个不同运行,分别是运行在 o1、o1 mini 和强化微调后的 o1 mini 上的任务。

  可以看到,奖励分数呈现右上角上升的趋势,但这对任务来说意味着什么呢?

  为此,他们设置了三个不同的评估指标,分别是 Top-1(第一项正确率)、Top-5(前五项正确率)和 Top-max(是否包含正确答案)。

  在 Top-1 指标中,o1 mini 在约 200 条数据上的得分是 17%。o1 得到了 25%,而微调后的 o1 mini,得到了 31%。

  ChatGPT 就此生成了一张更直观的图表。

  这显示出,模型确实学会了如何在这类数据上进行推理的通用能力!

  在 Justin 看来,强化学习将极大地振奋生物学研究社区,近期内的最佳方案,可能就是结合现有生物信息学工具和类 o1 模型的混合解决方案。

  而以上,仅仅是强化微调在科学研究中的一个应用而已。

  除了已经验证的生物化学、AI 安全、法律以及医疗保健数据集,模型还会在数百种其他应用场景上发挥作用。

  OpenAI 的 Alpha 计划,会让更多人在最重要的任务上,推动 o1 模型能力的边界。

  直播最后,依然是 OpenAI 式的圣诞冷笑话一则——

  最近,圣诞老人在尝试制造一辆无人驾驶雪橇,但不知为何,他的模型总是无法识别树木,导致雪橇不停地撞上道路两旁的树。你们猜这是为什么?

  答案是:因为他忘了给模型进行「pine-tune」(松树微调)!

  参考资料:

  https://openai.com/form/rft-research-program/

  https://x.com/OpenAI/status/1865091561912164499

  https://arxiv.org/pdf/2401.08967