您现在的位置是: 网站首页>人工智能人工智能
电玩城赌博输很多钱的人
罗映寒 2025-05-14 【人工智能】 6006 人已围观
本文由香港中文大学与快手可灵等团队联合完成⑨。第一作者为香港中文大学 MMLab 博士生刘杰❸,他的研究方向为强化学习和生成模型③,曾获 ACL Outstanding Paper Award⑨。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能⑦,已成为图像生成和视频生成领域最先进模型的训练方法④。然而▓,这些最先进的模型在处理包含多个物体⑭、属性与关系的复杂场景❸,以及文本渲染任务时仍存在较大困难⑫。与此同时❶,在线强化学习因其高效探索与反馈机制④,在语言模型领域取得显着进展①,但在图像生成中的应用仍处于初步阶段⑧。
为此⑩,港中文 MMLab❶、快手可灵⑳、清华大学等团队联合提出Flow-GRPO⑯,首个将在线强化学习引入 Flow Matching 模型的工作⑦。在 Flow-GRPO 加持下⑦,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑤,组合式生图能力超越 GPT4o▓,这说明流匹配模型还有很大提升空间⑱,Flow-GRPO 的成功实践⑳,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性⑭、组合性❸、推理能力方面的潜力⑫,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case⑨,强化学习训练过程中图片变化的网页⑰,帮助读者更好地体会 RL 对于流匹配模型的极大提升⑧。
一.核心思路与框架概览②、Flow-GRPO 的核心在于两项关键策略④,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑥,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成⑫。为了强化学习探索所需的随机性⑳,作者采用了一种 ODE 到随机微分方程的转换机制⑥。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑨,从而在不改变模型基础特性的前提下❷,为 RL 提供了有效的探索空间⑬。
去噪步数「减负」提效: 在 RL 训练采样时⑮,大胆减少生成步数④,极大加速数据获取⑥;而在最终推理生成时①,仍然使用完整步数②,保证高质量输出⑧。在极大提升 online RL 训练效率的同时⑧,保证性能不下降⑲。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程⑩,以生成多样化的轨迹批次用于优势估计和策略探索⑬。但对于流匹配模型⑫,其确定性的采样过程不满足 GRPO 要求⑬。为了解决这个局限性③,作者将确定性的 Flow-ODE 转换为一个等效的 SDE②,它匹配原始模型的边际概率密度函数⑰,在论文附录 A 中作者提供了详细的证明过程⑧。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后①,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性❶。
三.Denoising Reduction
为了生成高质量的图像⑲,流模型通常需要大量的去噪步骤⑪,这使得在线强化学习的训练数据收集成本较高⑲。作者发现⑦,对于在线强化学习训练▓,较大的时间步长在样本生成时是多余的❷,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本⑬。作者在训练时将时间步长设置为 10⑭,而推理时的时间步长保持为原始的默认设置 40⑭。通过这样的「训练时低配⑲,测试时满配」的设置③,达到了在不牺牲最终性能的情况下实现快速训练❸。
四.核心实验效果①、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上⑮,将 SD3.5-M 的准确率从 63% 提升至 95%②,在物体计数⑬、空间关系理解⑧、属性绑定上近乎完美⑲,在该评测榜单上效果超越 GPT-4o③!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%②,可以较为准确地在图片中渲染文字①。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步③。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑨,图像质量和多样性基本未受影响⑱,有效缓解 reward hacking 问题⑤。
五.总结与展望⑫、作为首个将在线强化学习引入流匹配模型的算法❷,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑳,并引入 Denoising Reduction 技术③,实现了在流匹配模型上的高效在线强化学习①。实验结果显示⑨,即便是当前最先进的 flow matching 模型▓,在引入强化学习后依然有显着的性能提升空间④。Flow-GRPO 在组合式生成⑬、文字渲染和人类偏好等任务上⑱,相比基线模型均取得了大幅改进⑭。
Flow-GRPO 的意义不仅体现在指标上的领先⑫,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑮。其成功实践为未来进一步释放流匹配模型在可控性❸、组合性与推理能力方面的潜力⑫,尤其在图像⑰、视频❶、3D 等多模态生成任务中⑪,提供了一个充满前景的新范式①。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可②,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑬,非常欢迎各位朋友分享到个人站长或者朋友圈⑮,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”③。
很赞哦⑯!
相关文章
随机图文
若有状元签是否会交易❸?爵士老板:安吉就干过 他换来塔图姆
今年3月⑱,Anthropic为旗下的Claude模型推出了联网搜索功能⑱。安克加入速卖通机器人矩阵⑰,割草机器人同比增长153%
五洲新春今年以来股价涨56.73%⑩,近5个交易日涨2.08%▓,近20日涨20.32%⑲,近60日跌13.59%⑥。新鹏城在深圳地铁站全息数字橱窗投广⑯,球迷打卡有机会赢球票
消息面上▓,OpenAI最新宣布推出了一个专门面向医疗大模型的测试评估集——HealthBench并且开源▓,旨在更好地衡量AI系统在医疗健康领域的能力⑤。-
穆尼奥斯社媒:很自豪能在皇马完成首秀③,我们将向更高目标进发
大胆用到了全唇线勾勒+亮面唇釉⑳,让嘴唇形状更饱满厚重⑤。欧美圈一直很喜欢这样的厚唇❶,会把焦点聚集到唇部③,非常性感❸。▼ 克罗斯:皇马2-0领先巴萨时也给人感觉不稳 夏窗皇马要抓紧引援
中美发布联合声明后⑱,特朗普转移炮火:欧盟对我们非常不公平!广汽昊铂限时终身免费充电权益升级⑯,新增 300 座极氪权益合作站
多年来❸,重庆师范大学以实践育人理念为课程设计思路⑩,以校内思政小课堂①、校外实践大课堂为抓手⑧,以艺术与思政融合理论为知识目标❸,审美感知与艺术表现为能力目标⑥,家国情怀与创意实践为素养目标⑯,引导大学生在实践基微纪录片丨“天然的亲近感”——跨越万里的光明接力
时代周报记者注意到③,在标明为苹果授权经销商的Apple产品京东自营旗舰店中⑫,5月13日20点618活动开启后①,iPhone 16 Pro 128G版本机型售价直降2000元至5999元⑩,精准卡进国补范乌方:泽连斯基只接受与普京会谈 拒见其他俄代表
转自:中国妇女报