您现在的位置是:网站首页>人工智能人工智能
骏悦科技天天电玩城
曾问兰 2025-05-14 【人工智能】 1773 人已围观
本文由香港中文大学与快手可灵等团队联合完成❷。第一作者为香港中文大学 MMLab 博士生刘杰⑩,他的研究方向为强化学习和生成模型⑪,曾获 ACL Outstanding Paper Award⑤。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑳,已成为图像生成和视频生成领域最先进模型的训练方法⑫。然而⑥,这些最先进的模型在处理包含多个物体③、属性与关系的复杂场景②,以及文本渲染任务时仍存在较大困难⑯。与此同时⑲,在线强化学习因其高效探索与反馈机制⑪,在语言模型领域取得显着进展⑧,但在图像生成中的应用仍处于初步阶段⑪。
为此⑩,港中文 MMLab①、快手可灵⑤、清华大学等团队联合提出Flow-GRPO⑯,首个将在线强化学习引入 Flow Matching 模型的工作⑳。在 Flow-GRPO 加持下❷,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑭,组合式生图能力超越 GPT4o⑩,这说明流匹配模型还有很大提升空间④,Flow-GRPO 的成功实践⑰,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性❶、组合性④、推理能力方面的潜力⑲,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case④,强化学习训练过程中图片变化的网页⑱,帮助读者更好地体会 RL 对于流匹配模型的极大提升⑩。
一.核心思路与框架概览⑥、Flow-GRPO 的核心在于两项关键策略⑪,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑫,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成⑦。为了强化学习探索所需的随机性⑪,作者采用了一种 ODE 到随机微分方程的转换机制⑫。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑩,从而在不改变模型基础特性的前提下⑰,为 RL 提供了有效的探索空间⑯。
去噪步数「减负」提效: 在 RL 训练采样时⑱,大胆减少生成步数▓,极大加速数据获取⑭;而在最终推理生成时⑭,仍然使用完整步数⑦,保证高质量输出①。在极大提升 online RL 训练效率的同时⑭,保证性能不下降⑫。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程⑮,以生成多样化的轨迹批次用于优势估计和策略探索④。但对于流匹配模型⑩,其确定性的采样过程不满足 GRPO 要求⑯。为了解决这个局限性⑤,作者将确定性的 Flow-ODE 转换为一个等效的 SDE⑥,它匹配原始模型的边际概率密度函数⑮,在论文附录 A 中作者提供了详细的证明过程⑲。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后▓,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性⑧。
三.Denoising Reduction
为了生成高质量的图像⑰,流模型通常需要大量的去噪步骤⑯,这使得在线强化学习的训练数据收集成本较高⑳。作者发现▓,对于在线强化学习训练②,较大的时间步长在样本生成时是多余的⑯,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本❶。作者在训练时将时间步长设置为 10❶,而推理时的时间步长保持为原始的默认设置 40④。通过这样的「训练时低配⑫,测试时满配」的设置⑩,达到了在不牺牲最终性能的情况下实现快速训练⑩。
四.核心实验效果⑫、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上①,将 SD3.5-M 的准确率从 63% 提升至 95%④,在物体计数⑳、空间关系理解⑭、属性绑定上近乎完美⑳,在该评测榜单上效果超越 GPT-4o①!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%⑥,可以较为准确地在图片中渲染文字⑰。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步⑱。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑪,图像质量和多样性基本未受影响⑯,有效缓解 reward hacking 问题⑳。
五.总结与展望②、作为首个将在线强化学习引入流匹配模型的算法⑳,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑦,并引入 Denoising Reduction 技术❸,实现了在流匹配模型上的高效在线强化学习⑯。实验结果显示⑦,即便是当前最先进的 flow matching 模型⑱,在引入强化学习后依然有显着的性能提升空间▓。Flow-GRPO 在组合式生成⑦、文字渲染和人类偏好等任务上⑫,相比基线模型均取得了大幅改进③。
Flow-GRPO 的意义不仅体现在指标上的领先⑦,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑱。其成功实践为未来进一步释放流匹配模型在可控性⑰、组合性与推理能力方面的潜力⑬,尤其在图像❸、视频⑯、3D 等多模态生成任务中③,提供了一个充满前景的新范式▓。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑪,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑪,非常欢迎各位朋友分享到个人站长或者朋友圈④,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑭。
很赞哦⑩!
相关文章
随机图文
历史状元秀排名:詹姆斯力压贾巴尔&魔术师 艾弗森入选前十
直播吧05月13今晚第七届弗拉特科-马尔科维奇国际锦标赛③,葡萄牙U15国家队4-1战胜日本U15❸,布拉加小将卡布拉尔戴帽③。C罗儿子迷你罗身穿7号⑯,在第53分钟替补登场⑤,上演葡萄牙国字号球队首秀④。城市野趣新地标⑱!象山宁远桥现“美人蕉画廊”引市民打卡
点击上面↑“电动知家”⑪、关注⑮,记得加☆“星标”⑲!男篮世界杯预选赛分组:中国⑬、日本⑤、韩国②、中国台北同组
All Rights Reserved 新浪公司 版权所有罗马诺:小法和科莫一起规划下赛季⑥,完全期待下赛季继续留队 塞斯克·法布雷加斯
这一标志性的曼城风格过去常见于客场球衣①,而在2025-26赛季首次出现在主场球衣上⑩,创造了一种与过去的联系⑧,并通过未来主义的设计弥合了不同世代曼城球迷之间的代沟⑭。吉利在杭州成立醇氢电动新能源商用车公司
项目主页:https://craftjarvis.github.io/MCU从坚守底线到超越上限④,风云A9L定义中国汽车价值高度
总之⑲,在AI搜索引擎已经成为兵家必争之地时⑧,压力也给到了Perplexity⑱。-
第三节39-17打崩勇士⑳!森林狼单节净胜22分创队史纪录⑭!
事实上⑲,自今年4月份以来②,已有多家中小银行陆续下调存款利率▓。进入5月份⑲,这一调整节奏进一步加快⑮,部分银行自4月份启动本轮利率调整周期以来⑨,已累计四次调降存款利率⑭。 航天+雨林+海洋⑭!海南发布7条特色研学旅游路线
据悉⑮,《重大火灾隐患判定规则》强制性国家标准❸,建立了火灾隐患分级判定体系④,通过量化指标和动态评估模型⑤,实现隐患早识别❷、早预警②,筑牢消防安全防线⑲。《危险化学品企业安全生产标准化通用规范》强制性国家标准③,