您现在的位置是:网站首页>人工智能人工智能

178电玩城手机版下载

徐醉蓝 2025-05-14 人工智能 8673 人已围观

本文由香港中文大学与快手可灵等团队联合完成⑱。第一作者为香港中文大学 MMLab 博士生刘杰❶,他的研究方向为强化学习和生成模型❸,曾获 ACL Outstanding Paper Award①。

流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑥,已成为图像生成和视频生成领域最先进模型的训练方法⑰。然而⑲,这些最先进的模型在处理包含多个物体❶、属性与关系的复杂场景⑬,以及文本渲染任务时仍存在较大困难⑩。与此同时⑦,在线强化学习因其高效探索与反馈机制⑤,在语言模型领域取得显着进展❷,但在图像生成中的应用仍处于初步阶段⑯。

为此⑩,港中文 MMLab⑮、快手可灵⑬、清华大学等团队联合提出Flow-GRPO❸,首个将在线强化学习引入 Flow Matching 模型的工作▓。在 Flow-GRPO 加持下⑯,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑭,组合式生图能力超越 GPT4o⑤,这说明流匹配模型还有很大提升空间⑮,Flow-GRPO 的成功实践⑥,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性❸、组合性⑨、推理能力方面的潜力⑪,开辟了充满希望的新范式

论文标题:Flow-GRPO: Training Flow Matching Models via Online RL

论文链接:https://www.arxiv.org/pdf/2505.05470

代码地址:https://github.com/yifan123/flow_grpo

模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval

作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case⑰,强化学习训练过程中图片变化的网页⑤,帮助读者更好地体会 RL 对于流匹配模型的极大提升①。

一.核心思路与框架概览⑯、Flow-GRPO 的核心在于两项关键策略❶,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑯,并提升训练效率:

ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成④。为了强化学习探索所需的随机性⑰,作者采用了一种 ODE 到随机微分方程的转换机制②。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑥,从而在不改变模型基础特性的前提下④,为 RL 提供了有效的探索空间❷。

去噪步数「减负」提效: 在 RL 训练采样时⑮,大胆减少生成步数❶,极大加速数据获取⑩;而在最终推理生成时⑦,仍然使用完整步数⑰,保证高质量输出②。在极大提升 online RL 训练效率的同时③,保证性能不下降⑥。

图 1 Flow-GRPO 框架

二. ODE to SDE

GRPO 的核心是依赖随机采样过程⑧,以生成多样化的轨迹批次用于优势估计和策略探索⑭。但对于流匹配模型⑧,其确定性的采样过程不满足 GRPO 要求⑧。为了解决这个局限性⑨,作者将确定性的 Flow-ODE 转换为一个等效的 SDE⑪,它匹配原始模型的边际概率密度函数③,在论文附录 A 中作者提供了详细的证明过程⑬。原始的 flow matching 模型 inference 的时候按照如下公式:

转变成 SDE 后❷,最终作者得到的采样形式如下:

之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性⑲。

三.Denoising Reduction

为了生成高质量的图像⑨,流模型通常需要大量的去噪步骤⑲,这使得在线强化学习的训练数据收集成本较高❸。作者发现⑧,对于在线强化学习训练⑨,较大的时间步长在样本生成时是多余的④,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本❶。作者在训练时将时间步长设置为 10⑮,而推理时的时间步长保持为原始的默认设置 40⑩。通过这样的「训练时低配⑰,测试时满配」的设置③,达到了在不牺牲最终性能的情况下实现快速训练⑯。

四.核心实验效果⑥、Flow-GRPO 在多个 T2I生成任务中表现卓越:

复杂组合生成能力大幅提升: 在 GenEval 基准上④,将 SD3.5-M 的准确率从 63% 提升至 95%⑧,在物体计数⑨、空间关系理解⑮、属性绑定上近乎完美⑯,在该评测榜单上效果超越 GPT-4o⑰!

图 2 Flow-GRPO 训练过程中的性能持续上升

图 3 GenEval 各项指标详细结果

图 4 在 GenEval 基准上的定性比较

文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%⑱,可以较为准确地在图片中渲染文字①。

更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步⑨。

奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑬,图像质量和多样性基本未受影响⑤,有效缓解 reward hacking 问题▓。

五.总结与展望⑨、作为首个将在线强化学习引入流匹配模型的算法⑪,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑪,并引入 Denoising Reduction 技术⑰,实现了在流匹配模型上的高效在线强化学习⑪。实验结果显示⑯,即便是当前最先进的 flow matching 模型⑳,在引入强化学习后依然有显着的性能提升空间⑮。Flow-GRPO 在组合式生成⑦、文字渲染和人类偏好等任务上⑱,相比基线模型均取得了大幅改进❷。

Flow-GRPO 的意义不仅体现在指标上的领先⑲,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑩。其成功实践为未来进一步释放流匹配模型在可控性③、组合性与推理能力方面的潜力⑨,尤其在图像⑯、视频⑭、3D 等多模态生成任务中❶,提供了一个充满前景的新范式⑱。

很赞哦⑫!

随机图文