您现在的位置是:网站首页>娱乐娱乐
电玩城单机版大合集下载
罗含玉 2025-05-14 【 娱乐】 4924 人已围观
本文由香港中文大学与快手可灵等团队联合完成⑥。第一作者为香港中文大学 MMLab 博士生刘杰❶,他的研究方向为强化学习和生成模型③,曾获 ACL Outstanding Paper Award⑳。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑮,已成为图像生成和视频生成领域最先进模型的训练方法⑥。然而▓,这些最先进的模型在处理包含多个物体❷、属性与关系的复杂场景▓,以及文本渲染任务时仍存在较大困难⑦。与此同时⑱,在线强化学习因其高效探索与反馈机制⑥,在语言模型领域取得显着进展①,但在图像生成中的应用仍处于初步阶段⑯。
为此❷,港中文 MMLab❸、快手可灵⑨、清华大学等团队联合提出Flow-GRPO⑫,首个将在线强化学习引入 Flow Matching 模型的工作⑪。在 Flow-GRPO 加持下⑰,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑲,组合式生图能力超越 GPT4o⑯,这说明流匹配模型还有很大提升空间▓,Flow-GRPO 的成功实践⑬,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性④、组合性⑦、推理能力方面的潜力⑬,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case⑪,强化学习训练过程中图片变化的网页②,帮助读者更好地体会 RL 对于流匹配模型的极大提升⑧。
一.核心思路与框架概览⑱、Flow-GRPO 的核心在于两项关键策略⑦,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾❶,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成⑩。为了强化学习探索所需的随机性⑰,作者采用了一种 ODE 到随机微分方程的转换机制▓。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑲,从而在不改变模型基础特性的前提下⑩,为 RL 提供了有效的探索空间⑥。
去噪步数「减负」提效: 在 RL 训练采样时▓,大胆减少生成步数⑱,极大加速数据获取②;而在最终推理生成时①,仍然使用完整步数⑩,保证高质量输出⑳。在极大提升 online RL 训练效率的同时⑨,保证性能不下降⑧。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程⑤,以生成多样化的轨迹批次用于优势估计和策略探索⑳。但对于流匹配模型⑨,其确定性的采样过程不满足 GRPO 要求⑦。为了解决这个局限性❷,作者将确定性的 Flow-ODE 转换为一个等效的 SDE▓,它匹配原始模型的边际概率密度函数④,在论文附录 A 中作者提供了详细的证明过程❶。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后▓,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性⑫。
三.Denoising Reduction
为了生成高质量的图像⑧,流模型通常需要大量的去噪步骤⑮,这使得在线强化学习的训练数据收集成本较高⑦。作者发现⑰,对于在线强化学习训练③,较大的时间步长在样本生成时是多余的⑧,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本⑤。作者在训练时将时间步长设置为 10②,而推理时的时间步长保持为原始的默认设置 40①。通过这样的「训练时低配⑬,测试时满配」的设置⑥,达到了在不牺牲最终性能的情况下实现快速训练⑬。
四.核心实验效果⑪、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上⑭,将 SD3.5-M 的准确率从 63% 提升至 95%⑩,在物体计数①、空间关系理解⑫、属性绑定上近乎完美⑫,在该评测榜单上效果超越 GPT-4o⑫!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%②,可以较为准确地在图片中渲染文字⑳。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步⑧。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑯,图像质量和多样性基本未受影响⑥,有效缓解 reward hacking 问题⑫。
五.总结与展望❸、作为首个将在线强化学习引入流匹配模型的算法⑰,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑮,并引入 Denoising Reduction 技术③,实现了在流匹配模型上的高效在线强化学习⑤。实验结果显示⑥,即便是当前最先进的 flow matching 模型⑬,在引入强化学习后依然有显着的性能提升空间⑱。Flow-GRPO 在组合式生成⑧、文字渲染和人类偏好等任务上⑲,相比基线模型均取得了大幅改进⑳。
Flow-GRPO 的意义不仅体现在指标上的领先❸,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑧。其成功实践为未来进一步释放流匹配模型在可控性⑬、组合性与推理能力方面的潜力❷,尤其在图像⑫、视频④、3D 等多模态生成任务中❷,提供了一个充满前景的新范式▓。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑪,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑪,非常欢迎各位朋友分享到个人站长或者朋友圈▓,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”❷。
很赞哦⑱!
相关文章
随机图文
-
新能源皮卡切换加速吉利雷达市占率57.3%封王,电混新品剑指燃油腹地
IT之家 5 月 13 日消息⑳,OpenHarmony 5.1 版本近日正式上线⑫。据北京麟卓消息⑦,其卓奕引擎 Beta 版正式发布③,它是一款支持安卓应用在 OpenHarmony 上高效无缝运行的中间 在海牙狱中⑳,杜特尔特当选家乡市长
而关于未来发展❶,汤道生也表示⑤,要以云❷、图为基础❸,推动“车云一体”战略⑫,帮助车企打造高效⑱、合规的数据闭环⑦,助力构建覆盖车企产品研发⑲、生产制造⑦、用户服务全链路的智能化底座⑧。-
“港脚”凭借稳定表现闪耀中超 掀起引援新潮流
视频新闻 京东物流发布Q1业绩:营收470亿元⑲,同比增长11.5%
谈恋爱反降低生活质量⑰?德容生日获国家德比胜利与家庭新成员
VanEck投资管理公司的多资产解决方案主管David Schassler表示:"这是一个强烈的信号▓,表明数字资产正在坚定地进入金融主流⑮。这反映了传统市场开始认可和整合加密基础设施的更广泛转变▓。"赵震谈王钰栋留洋:转会费多少▓,工资损失谁补⑲,球员决心多大
OpenAI表示③,与o1相比⑩,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段❸。教育部发新规▓,禁用AI代写作业
Miral集团首席执行官Mohamed Abdalla Al Zaabi表示:"将迪士尼主题公园度假村带到亚斯岛是我们进一步提升该岛作为全球卓越娱乐和休闲目的地的地位的一个历史性里程碑⑤。" "我们正在河南21条措施支持企业“小升规”
相反⑥,中国车企应意识到⑯,携手共进❸、相互学习④,共同推动技术创新⑭、完善产业链⑭、提升产品品质与服务⑰,才是在新能源汽车赛道上实现长远发展的正确道路❸。