您现在的位置是:网站首页>娱乐娱乐
hy电玩城网站多少
程迎梦 2025-05-13 【娱乐】 7418 人已围观
本文由香港中文大学与快手可灵等团队联合完成⑥。第一作者为香港中文大学 MMLab 博士生刘杰⑤,他的研究方向为强化学习和生成模型⑦,曾获 ACL Outstanding Paper Award⑮。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能③,已成为图像生成和视频生成领域最先进模型的训练方法⑨。然而⑪,这些最先进的模型在处理包含多个物体③、属性与关系的复杂场景②,以及文本渲染任务时仍存在较大困难⑨。与此同时④,在线强化学习因其高效探索与反馈机制⑩,在语言模型领域取得显着进展⑯,但在图像生成中的应用仍处于初步阶段⑩。
为此⑤,港中文 MMLab⑲、快手可灵⑨、清华大学等团队联合提出Flow-GRPO⑥,首个将在线强化学习引入 Flow Matching 模型的工作⑰。在 Flow-GRPO 加持下⑭,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%❸,组合式生图能力超越 GPT4o②,这说明流匹配模型还有很大提升空间⑧,Flow-GRPO 的成功实践⑳,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性①、组合性⑯、推理能力方面的潜力⑥,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case①,强化学习训练过程中图片变化的网页▓,帮助读者更好地体会 RL 对于流匹配模型的极大提升⑬。
一.核心思路与框架概览⑮、Flow-GRPO 的核心在于两项关键策略❷,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑰,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成⑫。为了强化学习探索所需的随机性④,作者采用了一种 ODE 到随机微分方程的转换机制❸。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布⑩,从而在不改变模型基础特性的前提下⑨,为 RL 提供了有效的探索空间⑤。
去噪步数「减负」提效: 在 RL 训练采样时①,大胆减少生成步数②,极大加速数据获取②;而在最终推理生成时⑬,仍然使用完整步数⑱,保证高质量输出④。在极大提升 online RL 训练效率的同时⑨,保证性能不下降❷。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程⑥,以生成多样化的轨迹批次用于优势估计和策略探索⑥。但对于流匹配模型⑬,其确定性的采样过程不满足 GRPO 要求⑩。为了解决这个局限性⑯,作者将确定性的 Flow-ODE 转换为一个等效的 SDE⑳,它匹配原始模型的边际概率密度函数⑯,在论文附录 A 中作者提供了详细的证明过程❷。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后⑦,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性⑭。
三.Denoising Reduction
为了生成高质量的图像②,流模型通常需要大量的去噪步骤⑮,这使得在线强化学习的训练数据收集成本较高⑧。作者发现⑦,对于在线强化学习训练⑫,较大的时间步长在样本生成时是多余的▓,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本❸。作者在训练时将时间步长设置为 10⑰,而推理时的时间步长保持为原始的默认设置 40▓。通过这样的「训练时低配▓,测试时满配」的设置⑳,达到了在不牺牲最终性能的情况下实现快速训练⑫。
四.核心实验效果⑤、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上⑧,将 SD3.5-M 的准确率从 63% 提升至 95%▓,在物体计数⑫、空间关系理解▓、属性绑定上近乎完美⑨,在该评测榜单上效果超越 GPT-4o⑯!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%⑥,可以较为准确地在图片中渲染文字⑬。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步⑨。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时⑰,图像质量和多样性基本未受影响❷,有效缓解 reward hacking 问题❸。
五.总结与展望⑩、作为首个将在线强化学习引入流匹配模型的算法⑫,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑳,并引入 Denoising Reduction 技术⑲,实现了在流匹配模型上的高效在线强化学习⑧。实验结果显示⑤,即便是当前最先进的 flow matching 模型⑥,在引入强化学习后依然有显着的性能提升空间⑳。Flow-GRPO 在组合式生成⑳、文字渲染和人类偏好等任务上①,相比基线模型均取得了大幅改进⑬。
Flow-GRPO 的意义不仅体现在指标上的领先②,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑬。其成功实践为未来进一步释放流匹配模型在可控性⑬、组合性与推理能力方面的潜力⑫,尤其在图像⑭、视频❶、3D 等多模态生成任务中⑲,提供了一个充满前景的新范式⑥。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可①,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐②,非常欢迎各位朋友分享到个人站长或者朋友圈⑦,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑩。
很赞哦⑤!
相关文章
随机图文
为何突然掉链子❶?迪卡尼奥:那不勒斯攻防有漏洞+心理压力大
据IT之家了解⑦,LUPIN 通过接收绕月卫星发出的类 GPS 信号⑥,能够让探测车和宇航员在月面上实时定位自己所在的位置⑯。许利民连续2场葬送胜局⑩!下半场3用人决策主导败局⑭,一度场边发懵
虽然这次曝光的还只是路试谍照⑨,但相对于现款在唐上面升级而来的N8⑪,全新N8无论是技术还是尺寸那都是翻天覆地的大变化⑰,而参考N9 38.98-44.98万的定价来看⑧,N8很有可能就是在35-40万之间⑬,-
约基奇的进攻全面崩盘实属罕见 掘金想要过雷霆必须破开防守困局
胡渊鸣:我会想我当时没做好的是什么⑤?我觉得我在同时扮演科学家⑰、工程师⑬、产品经理和创业者⑥。太极作为开源项目能做好③,是因为前三个角色我做好了——当时在做太极这个事情⑨,我自己写了很多代码⑫,当然社区也和我合作 今年4月我国动力电池装车量为54.1GWh③,同比增长52.8%
广东厂商已让科幻照进现实理想汽车承诺不兑现⑧,销售欺诈
例如一双运动鞋的碰撞⑯,⑪、为一身黑白的通勤装⑨,❶、续上随性自由的活力氛围⑯。首个奖励模型评分基准⑱!清华复旦港科大联合攻克AI评委“偏科”
我们还谈妥了索博斯洛伊⑭,2000万欧元的解约金支付给萨尔茨堡红牛❶,一切也都谈妥了⑯。但同样被否决了⑥,我心想⑲,这都是什么事啊①?我之后试图约见他们❸,但两个月里他们都不愿意见我⑪,所以我只能做出我最后的决定③,通双向奔赴的温暖❸!马山县这家爱心企业让7名残障员工创造价值
春山浦江投资管理有限公司董事长威廉·辛指出⑧,会谈结果远超市场预期⑤,“以前④,人们只是希望双方能坐下来谈谈⑱,市场一直很脆弱❷。现在❸,有了更多的确定性⑲。中国股市和人民币将在一段时间内处于上涨状态⑰。”铸造大船向海兴
//初始化反作弊⑨、// 只需初始化一次❷、"isShowComments": isShowComments,