您现在的位置是:网站首页>房产房产
hydwc电玩城最新版本
杨碧菡 2025-05-14 【房产】 2105 人已围观
本文由香港中文大学与快手可灵等团队联合完成⑯。第一作者为香港中文大学 MMLab 博士生刘杰⑰,他的研究方向为强化学习和生成模型⑪,曾获 ACL Outstanding Paper Award▓。
流匹配模型因其坚实的理论基础和在生成高质量图像方面的优异性能❶,已成为图像生成和视频生成领域最先进模型的训练方法⑥。然而⑫,这些最先进的模型在处理包含多个物体③、属性与关系的复杂场景⑪,以及文本渲染任务时仍存在较大困难③。与此同时⑩,在线强化学习因其高效探索与反馈机制❷,在语言模型领域取得显着进展❸,但在图像生成中的应用仍处于初步阶段⑤。
为此②,港中文 MMLab⑥、快手可灵⑫、清华大学等团队联合提出Flow-GRPO①,首个将在线强化学习引入 Flow Matching 模型的工作❷。在 Flow-GRPO 加持下⑦,SD3.5 Medium 在 GenEval 基准测试中的准确率从 63% 提升到 95%⑦,组合式生图能力超越 GPT4o❸,这说明流匹配模型还有很大提升空间⑧,Flow-GRPO 的成功实践③,为未来利用 RL 进一步解锁和增强各类流匹配生成模型在可控性②、组合性⑪、推理能力方面的潜力⑨,开辟了充满希望的新范式
论文标题:Flow-GRPO: Training Flow Matching Models via Online RL
论文链接:https://www.arxiv.org/pdf/2505.05470
代码地址:https://github.com/yifan123/flow_grpo
模型地址:https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者团队也会尽快提供 Gradio 在线 demo 和包含大量生成 case❸,强化学习训练过程中图片变化的网页①,帮助读者更好地体会 RL 对于流匹配模型的极大提升④。
一.核心思路与框架概览⑥、Flow-GRPO 的核心在于两项关键策略▓,旨在克服在线 RL 与流匹配模型内在特性之间的矛盾⑦,并提升训练效率:
ODE-SDE 等价转换: 流匹配模型本质上依赖确定性的常微分方程进行生成④。为了强化学习探索所需的随机性⑩,作者采用了一种 ODE 到随机微分方程的转换机制②。该机制在理论上保证了转换后的 SDE 在所有时间步上均能匹配原始 ODE 模型的边缘分布②,从而在不改变模型基础特性的前提下⑨,为 RL 提供了有效的探索空间⑦。
去噪步数「减负」提效: 在 RL 训练采样时④,大胆减少生成步数❷,极大加速数据获取⑧;而在最终推理生成时⑱,仍然使用完整步数⑮,保证高质量输出❷。在极大提升 online RL 训练效率的同时⑭,保证性能不下降❷。
图 1 Flow-GRPO 框架
二. ODE to SDE
GRPO 的核心是依赖随机采样过程①,以生成多样化的轨迹批次用于优势估计和策略探索⑬。但对于流匹配模型⑰,其确定性的采样过程不满足 GRPO 要求⑦。为了解决这个局限性⑦,作者将确定性的 Flow-ODE 转换为一个等效的 SDE①,它匹配原始模型的边际概率密度函数⑦,在论文附录 A 中作者提供了详细的证明过程②。原始的 flow matching 模型 inference 的时候按照如下公式:
转变成 SDE 后①,最终作者得到的采样形式如下:
之后就可以通过控制噪声水平的参数很好地控制 RL 策略的探索性❶。
三.Denoising Reduction
为了生成高质量的图像⑧,流模型通常需要大量的去噪步骤❶,这使得在线强化学习的训练数据收集成本较高⑰。作者发现⑤,对于在线强化学习训练⑥,较大的时间步长在样本生成时是多余的▓,只需要在推理时保持原有的去噪步骤仍能获得高质量的样本⑳。作者在训练时将时间步长设置为 10⑪,而推理时的时间步长保持为原始的默认设置 40⑲。通过这样的「训练时低配⑲,测试时满配」的设置⑥,达到了在不牺牲最终性能的情况下实现快速训练❶。
四.核心实验效果⑬、Flow-GRPO 在多个 T2I生成任务中表现卓越:
复杂组合生成能力大幅提升: 在 GenEval 基准上⑤,将 SD3.5-M 的准确率从 63% 提升至 95%❶,在物体计数⑰、空间关系理解❷、属性绑定上近乎完美▓,在该评测榜单上效果超越 GPT-4o⑥!
图 2 Flow-GRPO 训练过程中的性能持续上升
图 3 GenEval 各项指标详细结果
图 4 在 GenEval 基准上的定性比较
文字渲染精准无误: 视觉文本渲染准确率从 59% 大幅提升至 92%③,可以较为准确地在图片中渲染文字⑥。
更懂人类偏好: 在人类偏好对齐任务上也取得了显着进步⑫。
奖励黑客行为显着减少: Flow-GRPO 在性能提升的同时②,图像质量和多样性基本未受影响⑥,有效缓解 reward hacking 问题②。
五.总结与展望▓、作为首个将在线强化学习引入流匹配模型的算法⑰,Flow-GRPO通过将流模型的确定性采样机制改为随机微分方程采样⑲,并引入 Denoising Reduction 技术⑲,实现了在流匹配模型上的高效在线强化学习⑲。实验结果显示⑭,即便是当前最先进的 flow matching 模型⑧,在引入强化学习后依然有显着的性能提升空间③。Flow-GRPO 在组合式生成⑥、文字渲染和人类偏好等任务上⑩,相比基线模型均取得了大幅改进⑥。
Flow-GRPO 的意义不仅体现在指标上的领先⑱,更在于其揭示了一条利用在线强化学习持续提升流匹配生成模型性能的可行路径⑧。其成功实践为未来进一步释放流匹配模型在可控性❸、组合性与推理能力方面的潜力⑫,尤其在图像④、视频⑳、3D 等多模态生成任务中❷,提供了一个充满前景的新范式⑮。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑮,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑯,非常欢迎各位朋友分享到个人站长或者朋友圈⑭,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑧。
很赞哦①!
相关文章
随机图文
-
媒体人谈欧洲多队有意王钰栋:德甲是客套 法甲就欧塞尔但很难踢
除了裙子❸,草帽也很出圈⑱,Anya Taylor-Joy这两身的帽子和右边的裙子都是他家的②。▼ -
锦鲤NBA低概率中状元签球队:姚明玫瑰浓眉被抢走 一队错过KD
她还提到⑭,“因为需求非常旺盛③,这也给京东外卖团队带来了很大的商家审核压力⑨,但这也帮助我们快速建立了基于地理位置的商品供给①。” 饮品店取名警茶贴警察卡通引争议❸!律师称警茶店名已触多条法律红线
衣服能看到花纹细节❷,画家作中国画时笔触细腻得连“仙鹤”羽毛都根根分明⑦,还有不知从哪找来老式“雾化器”①,让我大开眼界⑳,原来一百年前就有这东西②?13日豆油上涨0.08%▓,最新持仓变化
用好社会支持力量⑧,优化全链条服务⑭,建立多方维护学生身心健康的格局民营经济发展一线观察·民企先锋|张大志:将初心扎根在黑土地上
京张铁路遗址公园下凹绿地通过地形将雨水汇聚①,里面种植着水生植物黄菖蒲⑨。 通过雨水收集装置吸纳的雨水不只可以补充地下水▓,经净化处理后❷,还能直接用于公园植被灌溉①,减少水资源消耗⑰。 记者注意到⑥,公园草坪意天空:图拉姆踢拉齐奥复出▓,劳塔罗并不会冒险出战
1—4月❷,汽车产销分别完成1017.5万辆和1006万辆⑳,同比分别增长12.9%和10.8%⑥。其中①,乘用车产销分别完成876.5万辆和864.1万辆⑥,同比分别增长14.5%和12.4%⑤;商用车产销分别违规收集使用个人信息被通报❶,爱奇艺:将更新合规版本
滴滴出行网约车平台乘客总经理杨硕近日在“滴滴开放日:宠物出行来啦⑫!”活动介绍:“滴滴宠物出行会始终秉持着对宠物的关爱与责任①,不断提升服务质量⑬,也希望在今天的场合持续倾听司乘及各界反馈⑬,让宠物出行变得更镜报:若阿莫林今夏离开曼联⑩,穆里尼奥可能重返老特拉福德
青少年⑧,在学习和生活中⑪,战胜困难容不得急功近利①,需要以求真求实的科学精神作为行动指导⑳。