您现在的位置是:网站首页>体育体育
168电玩城下载地址找不到
姚怜云 2025-05-14 【体育】 3361 人已围观
本文由香港中文大学与快手可灵等团队联合完成①。第一作者为香港中文大学 MMLab 博士生刘杰❷,他的研究方向为强化学习和生成模型②,曾获 ACL Outstanding Paper Award⑩。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑳,已成为图像生成和视频生成领域最先进模型的训练方法⑦。然而⑨,这些最先进的模型在处理包含多个物体❷、属性与关系的复杂场景⑨,以及文本渲染任务时仍存在较大困难⑫。与此同时⑬,在线强化学习因其高效探索与反馈机制⑭,在语言模型领域取得显着进展⑳,但在图像生成中的应用仍处于初步阶段⑨。
为此❷,港中文 MMLab⑩、快手可灵①、清华大学等团队联合提出Flow-GRPO▓,首个将在线强化学习引入 Flow Matching 模型的工作⑧。在 Flow-GRPO 加持下▓,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑪,组合式生图能力超越 GPT4o⑰,这说明流匹配模型还有很大提升空间▓,Flow-GRPO 的成功实践⑥,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性⑰、组合性⑭、推理能力方面的潜力⑧,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case⑭,强化学习训练过程中图片变化的网页②,帮助读者更好地体会 RL 对于流匹配模型的极大提升⑫。
一.核心思路与框架概览❶、Flow-GRPO 的核心在于两项关键策略⑦,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾▓,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成⑳。为了强化学习探索所需的随机性⑨,作者采用了一种 ODE 到随机微分方程的转换机制⑥。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑧,从而在不改变模型基础特性的前提下⑯,为 RL 提供了有效的探索空间②。
去噪步数「减负」提效: 在 RL 训练采样时⑲,大胆减少生成步数⑥,极大加速数据获取⑦;而在最终推理生成时①,仍然使用完整步数❷,保证高质量输出⑭。在极大提升 online RL 训练效率的同时⑤,保证性能不下降②。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程⑤,以生成多样化的轨迹批次用于优势估计和策略探索②。但对于流匹配模型④,其确定性的采样过程不满足 GRPO 要求⑱。为了解决这个局限性④,作者将确定性的 Flow-ODE 转换为一个等效的 SDE⑥,它匹配原始模型的边际概率密度函数⑫,在论文附录 A 中作者提供了详细的证明过程⑬。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后⑬,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性⑨。
三.Denoising Reduction
为了生成高质量的图像❶,流模型通常需要大量的去噪步骤⑯,这使得在线强化学习的训练数据收集成本较高⑬。作者发现⑭,对于在线强化学习训练❷,较大的时间步长在样本生成时是多余的⑲,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本⑨。作者在训练时将时间步长设置为 10⑲,而推理时的时间步长保持为原始的默认设置 40⑥。通过这样的「训练时低配⑮,测试时满配」的设置⑲,达到了在不牺牲最终性能的情况下实现快速训练⑧。
四.核心实验效果▓、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上⑰,将 SD3.5-M 的准确率从 63% 提升至 95%⑩,在物体计数④、空间关系理解❶、属性绑定上近乎完美⑬,在该评测榜单上效果超越 GPT-4o⑳!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%⑤,可以较为准确地在图片中渲染文字⑤。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步⑤。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时❷,图像质量和多样性基本未受影响⑨,有效缓解 reward hacking 问题④。
五.总结与展望⑲、作为首个将在线强化学习引入流匹配模型的算法⑯,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样▓,并引入 Denoising Reduction 技术⑧,实现了在流匹配模型上的高效在线强化学习⑯。实验结果显示⑱,即便是当前最先进的 flow matching 模型⑧,在引入强化学习后依然有显着的性能提升空间⑧。Flow-GRPO 在组合式生成⑫、文字渲染和人类偏好等任务上⑫,相比基线模型均取得了大幅改进⑰。
Flow-GRPO 的意义不仅体现在指标上的领先❷,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑫。其成功实践为未来进一步释放流匹配模型在可控性⑧、组合性与推理能力方面的潜力②,尤其在图像⑯、视频⑱、3D 等多模态生成任务中⑨,提供了一个充满前景的新范式⑧。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可❸,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑫,非常欢迎各位朋友分享到个人站长或者朋友圈❸,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”▓。
很赞哦③!
上一篇:特朗普突然决定:不打了……
相关文章
随机图文
-
让马斯克吃瓜的“风阻造假门”⑧,到底谁在说谎❷?
分析师认为⑫,对新品进行提价仍是苹果公司考虑的一种策略②,尽管苹果公司并不希望将涨价与关税联系起来⑯,而更可能将涨价与新功能和设计改进相结合⑫,以证明涨价的合理性❸。 摩根大通:美元看跌理由依然完好
经营卓益得的同时⑰,李清都还担任上海理工大学机器智能研究院的执行院长⑭。卓益得的创办还要追溯到10年前⑲,当时李清都研发了一台名为“行者一号”的人形机器人❸,这机器人用0.8度电持续行走134多公里①,连走两天😦内马尔妹妹与男友复合4个月就分手②,这是他们10年来第7次分手 内马尔·达·席尔瓦
环境状态庞杂:状态空间近乎无限①,还原真实世界复杂度▓;-
孩子依旧不爱学习④?家长如何规避这3个坑❷?
去年OpenAI在ChatGPT中推出了搜索功能⑦,正式宣告ChatGPT成为一款搜索引擎①; 【中国那些事儿】更深了解③、更多共赢 中拉各界期待双方合作焕发更广泛潜能
性犯罪者再犯几率达12.8%习近平出席中国-拉美和加勒比国家共同体论坛第四届部长级会议开幕式并发表重要讲话 中国共产党新闻网
阿维塔06" class="a_tag J-auto-price-button" data-reffer="880" subid="6509">▓、极氪007和小米SU7" class="a_tag J陈刚会见高德地图②、阿里云智能负责人
根据郑州银行近三年年报数据测算⑰,2022年-2024年⑭,人均资产⑪、网均资产❶、人均存款⑬、网均存款❶,逐年提升⑪,显示出精细化管理水平不断提高①。根据公开数据测算⑲,截至2024年底③,郑州银行人均资产为1.09亿蔚来ET9线控转向系统获欧洲E Mark法规认证 里程碑时刻
// message加载失败降级备份cdn域名,产品可以在load事件重新初始化