您现在的位置是:网站首页>汽车汽车
电玩城模拟器免广告下载
邵傲芙 2025-05-14 【汽车】 8756 人已围观
本文由香港中文大学与快手可灵等团队联合完成④。第一作者为香港中文大学 MMLab 博士生刘杰⑬,他的研究方向为强化学习和生成模型⑬,曾获 ACL Outstanding Paper Award⑫。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑪,已成为图像生成和视频生成领域最先进模型的训练方法③。然而①,这些最先进的模型在处理包含多个物体⑰、属性与关系的复杂场景⑰,以及文本渲染任务时仍存在较大困难②。与此同时⑲,在线强化学习因其高效探索与反馈机制⑱,在语言模型领域取得显着进展①,但在图像生成中的应用仍处于初步阶段⑫。
为此⑥,港中文 MMLab▓、快手可灵⑨、清华大学等团队联合提出Flow-GRPO④,首个将在线强化学习引入 Flow Matching 模型的工作❸。在 Flow-GRPO 加持下❶,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑳,组合式生图能力超越 GPT4o⑲,这说明流匹配模型还有很大提升空间⑪,Flow-GRPO 的成功实践①,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性❶、组合性❷、推理能力方面的潜力⑰,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case④,强化学习训练过程中图片变化的网页⑧,帮助读者更好地体会 RL 对于流匹配模型的极大提升❸。
一.核心思路与框架概览⑧、Flow-GRPO 的核心在于两项关键策略⑦,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑬,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成❶。为了强化学习探索所需的随机性⑯,作者采用了一种 ODE 到随机微分方程的转换机制⑬。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑩,从而在不改变模型基础特性的前提下⑰,为 RL 提供了有效的探索空间⑪。
去噪步数「减负」提效: 在 RL 训练采样时⑧,大胆减少生成步数⑪,极大加速数据获取②;而在最终推理生成时⑭,仍然使用完整步数▓,保证高质量输出⑤。在极大提升 online RL 训练效率的同时⑧,保证性能不下降⑪。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程①,以生成多样化的轨迹批次用于优势估计和策略探索⑨。但对于流匹配模型⑥,其确定性的采样过程不满足 GRPO 要求①。为了解决这个局限性①,作者将确定性的 Flow-ODE 转换为一个等效的 SDE⑲,它匹配原始模型的边际概率密度函数❷,在论文附录 A 中作者提供了详细的证明过程❷。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后⑦,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性❷。
三.Denoising Reduction
为了生成高质量的图像⑰,流模型通常需要大量的去噪步骤❶,这使得在线强化学习的训练数据收集成本较高①。作者发现⑯,对于在线强化学习训练③,较大的时间步长在样本生成时是多余的⑦,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本⑯。作者在训练时将时间步长设置为 10⑯,而推理时的时间步长保持为原始的默认设置 40⑬。通过这样的「训练时低配⑥,测试时满配」的设置⑰,达到了在不牺牲最终性能的情况下实现快速训练⑬。
四.核心实验效果⑩、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上④,将 SD3.5-M 的准确率从 63% 提升至 95%⑱,在物体计数❷、空间关系理解⑯、属性绑定上近乎完美⑧,在该评测榜单上效果超越 GPT-4o⑩!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%⑨,可以较为准确地在图片中渲染文字⑰。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步❷。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑭,图像质量和多样性基本未受影响⑭,有效缓解 reward hacking 问题⑲。
五.总结与展望⑭、作为首个将在线强化学习引入流匹配模型的算法②,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样❶,并引入 Denoising Reduction 技术⑫,实现了在流匹配模型上的高效在线强化学习⑯。实验结果显示⑳,即便是当前最先进的 flow matching 模型⑩,在引入强化学习后依然有显着的性能提升空间⑪。Flow-GRPO 在组合式生成②、文字渲染和人类偏好等任务上⑦,相比基线模型均取得了大幅改进⑩。
Flow-GRPO 的意义不仅体现在指标上的领先⑳,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径❷。其成功实践为未来进一步释放流匹配模型在可控性②、组合性与推理能力方面的潜力⑨,尤其在图像⑱、视频⑲、3D 等多模态生成任务中⑮,提供了一个充满前景的新范式▓。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑰,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐②,非常欢迎各位朋友分享到个人站长或者朋友圈①,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑳。
很赞哦⑮!
相关文章
随机图文
光“才”夺目 “艺”展风采——南宁市越秀路小学举行第十二届“我行我秀”校园文化艺术节启动仪式
在闫寒看来⑧,价格低可能会导致一些品牌价值受损⑩,但这取决于每个品牌的发展阶段和选择①。像库迪这样的后来者④,需要尽快打开市场②。茉莉奶白是一个新晋茶饮品牌⑱,近期也上线了美团和饿了么两大外卖平台❶,在淘宝闪购全量搭配 NPU:Cadence 推出 Tensilica NeuroEdge 130 AI 协处理器 cadence tensilica neuroedge
VIP课程推荐⑥、加载中...▓、新浪直播❷、百位牛人在线解读股市热点②,带你挖掘板块龙头萧华:媒体可以提出批评 但也要阐述好运动的魅力
这使团队能够独立于风格差异评估奖励模型区分选择响应和拒绝响应的能力⑳。断崖式下滑⑦,穆迪首轮场均9.6分❶,次轮总共只得6分且两场得分挂零
16.若被困地震废墟②,能够合理呼救▓,注意保存体力⑫,耐心等待救援⑮,根据所处环境和条件积极自救⑦,尽可能摆脱埋压状态⑥。收容救护野生动物2000多只 探访青海野生动物的“救助站”
炒股就看金麒麟分析师研报⑫,权威④,专业⑧,及时▓,全面⑰,助您挖掘潜力主题机会⑩!官方:石家庄功夫转会禁令解除⑫,三镇与铜梁龙的禁令仍在持续
数据显示⑲,截至5月11日❶,2025年汽车以旧换新补贴申请量达322.5万份⑱,其中汽车报废更新103.5万份③,置换更新219万份⑨。汽车以旧换新政策有效促进消费增长⑲、绿色转型和资源循环▓。罗马诺:阿隆索已告知皇马⑧,让TAA参加世俱杯会非常重要
李治军:这确实是一个值得深入讨论的矛盾点⑥。以学术界为例⑰,部分发表高质量论文的学者②,其研究成果往往过于超前⑮,难以实现产业化转化▓。这种现象并非负面⑦,而是社会现实的客观呈现——例如产出千余篇论文中❶,可能仅有挣死工资的人▓,追着消费贷薅羊毛
习近平指出⑥,过去3年⑩,我曾同总理先生会晤⑱,就事关中澳关系发展的战略性❷、全局性③、方向性问题深入沟通并达成重要共识⑰,为两国关系改善和发展作出战略引领⑪。中澳双方进一步加强合作②,对实现两国共同发展⑳、促进世界和