您现在的位置是:网站首页> 财经财经
超级魔术师电玩城
阎访枫 2025-05-14 【财经】 5944 人已围观
本文由香港中文大学与快手可灵等团队联合完成④。第一作者为香港中文大学 MMLab 博士生刘杰⑪,他的研究方向为强化学习和生成模型⑥,曾获 ACL Outstanding Paper Award⑧。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑮,已成为图像生成和视频生成领域最先进模型的训练方法⑮。然而⑧,这些最先进的模型在处理包含多个物体❷、属性与关系的复杂场景⑬,以及文本渲染任务时仍存在较大困难④。与此同时❷,在线强化学习因其高效探索与反馈机制①,在语言模型领域取得显着进展⑧,但在图像生成中的应用仍处于初步阶段⑮。
为此⑥,港中文 MMLab❸、快手可灵⑦、清华大学等团队联合提出Flow-GRPO❶,首个将在线强化学习引入 Flow Matching 模型的工作⑤。在 Flow-GRPO 加持下⑤,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑬,组合式生图能力超越 GPT4o⑳,这说明流匹配模型还有很大提升空间▓,Flow-GRPO 的成功实践⑳,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性⑤、组合性⑧、推理能力方面的潜力⑤,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case⑲,强化学习训练过程中图片变化的网页⑫,帮助读者更好地体会 RL 对于流匹配模型的极大提升❶。
一.核心思路与框架概览⑳、Flow-GRPO 的核心在于两项关键策略⑯,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑫,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成⑱。为了强化学习探索所需的随机性⑦,作者采用了一种 ODE 到随机微分方程的转换机制⑧。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布④,从而在不改变模型基础特性的前提下⑰,为 RL 提供了有效的探索空间❶。
去噪步数「减负」提效: 在 RL 训练采样时❷,大胆减少生成步数⑪,极大加速数据获取⑨;而在最终推理生成时❸,仍然使用完整步数⑬,保证高质量输出⑳。在极大提升 online RL 训练效率的同时⑮,保证性能不下降③。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程⑲,以生成多样化的轨迹批次用于优势估计和策略探索▓。但对于流匹配模型❶,其确定性的采样过程不满足 GRPO 要求⑭。为了解决这个局限性⑧,作者将确定性的 Flow-ODE 转换为一个等效的 SDE⑲,它匹配原始模型的边际概率密度函数⑥,在论文附录 A 中作者提供了详细的证明过程⑯。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后⑦,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性⑭。
三.Denoising Reduction
为了生成高质量的图像❷,流模型通常需要大量的去噪步骤⑫,这使得在线强化学习的训练数据收集成本较高⑫。作者发现⑩,对于在线强化学习训练⑳,较大的时间步长在样本生成时是多余的⑧,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本⑲。作者在训练时将时间步长设置为 10⑩,而推理时的时间步长保持为原始的默认设置 40⑧。通过这样的「训练时低配⑩,测试时满配」的设置⑪,达到了在不牺牲最终性能的情况下实现快速训练⑥。
四.核心实验效果⑲、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上⑧,将 SD3.5-M 的准确率从 63% 提升至 95%❶,在物体计数⑦、空间关系理解①、属性绑定上近乎完美③,在该评测榜单上效果超越 GPT-4o⑱!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%⑦,可以较为准确地在图片中渲染文字⑫。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步▓。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑱,图像质量和多样性基本未受影响⑨,有效缓解 reward hacking 问题⑥。
五.总结与展望⑫、作为首个将在线强化学习引入流匹配模型的算法⑪,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑱,并引入 Denoising Reduction 技术⑫,实现了在流匹配模型上的高效在线强化学习⑰。实验结果显示⑯,即便是当前最先进的 flow matching 模型⑳,在引入强化学习后依然有显着的性能提升空间⑯。Flow-GRPO 在组合式生成①、文字渲染和人类偏好等任务上▓,相比基线模型均取得了大幅改进⑭。
Flow-GRPO 的意义不仅体现在指标上的领先❸,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑧。其成功实践为未来进一步释放流匹配模型在可控性⑫、组合性与推理能力方面的潜力❶,尤其在图像⑮、视频⑨、3D 等多模态生成任务中⑮,提供了一个充满前景的新范式⑩。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑥,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐②,非常欢迎各位朋友分享到个人站长或者朋友圈④,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑮。
很赞哦⑫!
相关文章
随机图文
追梦:只要能赢一场一切都会改变 我们会尽一切努力找到获胜之法
适应性:适用于城市▓、干旱区⑤、寒冷地区⑮。断崖式下滑③,穆迪首轮场均9.6分❸,次轮总共只得6分且两场得分挂零
最近④,曼联传奇球员罗伊-基恩在Stick to Football节目中表示❶,已经离队的麦克托米奈在曼联时期⑤,因为和弗雷德的搭档⑩,让他的成长很不顺利⑧,因为这2人的组合很不合理⑲,自然也不成功最后❶。雷霆记者:虽然路还很远 但一切在朝雷霆有利的方向发展
关键词 :⑪、彩票⑦、提醒乌方:泽连斯基只接受与普京会谈 拒见其他俄代表
中国石化13日宣布⑬,旗下中原油田部署在四川盆地普光地区的铁北1侧HF井垂深超过5300米⑳,试产获高产工业气流⑨,该井刷新了我国页岩气井垂深纪录⑮,助力四川盆地超深层页岩气开发⑤。年度IO开发者大会前夕 传谷歌(GOOGL.US)正研发软件开发AI代理 io开发者大会
然后挤眉弄眼地全跑了▓,将主场让给了魏邵和小乔②,这些书中没有的小场景看着特别有意思❸。近期战绩1胜4负感觉如何❸?马斯切拉诺:我们真他X的好
如果不是心理和身体上获得完全的放松⑤,这种得分方式⑳,即使对男球员来说都是很难做到的⑯!小区垃圾房装空调❸、电视❶,网友疑惑“太奢侈”▓?扬州环卫处给出解释
皖东大地一派生机盎然⑯。地处安徽省滁州市全椒县十字镇万春圩内的潘氏生态农业发展有限公司万亩稻虾田波光粼粼④。负责人潘正福轻点手机屏幕⑬,近200台增氧设备启动作业①。“从前⑦,这活得跑断腿⑦,如今动动手指就行了⑯。詹姆斯:20总决赛我吸引两三人防守 传格林大空位三分也有人批评
卢尼:巴特勒是比赛节奏的管理者❷,他知道何时出手⑦,何时传球①。我们信任他②,他会做出正确判断⑰。