您现在的位置是:网站首页>科技科技
HY电玩城投诉热线官网
叶夜山 2025-05-14 【科技】 8281 人已围观
在多模态大模型快速发展的当下▓,如何精准评估其生成内容的质量❸,正成为多模态大模型与人类偏好对齐的核心挑战❶。然而①,当前主流多模态奖励模型往往只能直接给出评分决策②,或仅具备浅层推理能力⑦,缺乏对复杂奖励任务的深入理解与解释能力⑪,在高复杂度场景中常出现 “失真失准”①。
那么⑰,奖励模型是否也能具备像人类一样的深度思考能力❷?
近日⑰,混元与上海 AI Lab⑥、复旦大学⑯、上海创智学院联合提出全新研究工作 UnifiedReward-Think⑭,构建出首个具备长链式推理能力的统一多模态奖励模型❶,首次让奖励模型在各视觉任务上真正 “学会思考”⑧,实现对复杂视觉生成与理解任务的准确评估❸、跨任务泛化与推理可解释性的大幅提升⑬。
论文题目: Unified Multimodal Chain-of-Thought Reward Model through Reinforcement Fine-Tuning
项目主页:https://codegoat24.github.io/UnifiedReward/think
论文链接:https://arxiv.org/pdf/2505.03318
模型:https://huggingface.co/collections/CodeGoat24/unifiedreward-models-67c3008148c3a380d15ac63a
数据集:https://huggingface.co/collections/CodeGoat24/unifiedreward-training-data-67c300d4fd5eff00fa7f1ede
一⑳、背景与动机:奖励模型也需要 “思考”
当前的多模态奖励模型大多只能对结果进行 “表面判断”❷,缺乏深度推理与可解释的决策依据⑱,难以支撑对复杂视觉任务的精准评估❶。
该工作研究团队提出关键问题:是否可以引入 “长链式思考”机制⑰,赋予奖励模型更强的推理能力⑬?
挑战在于④,当前缺乏高质量的多模态 CoT 奖励推理数据⑪,传统 SFT 等训练范式难以直接教会模型掌握推理过程⑱。
他们认为❷,多模态大模型本身具备深层①、多维度的推理潜力⑯,关键在于设计一套高效训练范式去激发并强化奖励模型的 “思考能力”⑪。
二⑦、解决方案:三阶段训练范式⑭,逐步进化奖励模型推理能力
该研究提出一套新颖的 “三阶段” 训练框架❸,分为 “激发 → 巩固 → 强化”①,层层推进模型的推理进化:
阶段一:冷启动激发⑫、使用仅 5K 图像生成任务的高质量 CoT 奖励推理数据⑧,让模型学会基本的推理格式与结构④。实验表明⑲,这一阶段就能激发模型在多个视觉任务中的推理能力⑩。
阶段二:拒绝采样巩固❷、利用冷启动后的模型在各视觉任务的泛化能力⑳,对大规模多模态偏好数据进行推理⑩,通过拒绝采样剔除逻辑错误样本④,强化模型对正确思维链的推理模式⑨。
阶段三:GRPO 强化⑳、针对推理错误样本❸,引入 GRPO 强化学习机制⑭,引导模型探索多样化推理路径④,从错误中学习①,逐步收敛到正确逻辑思考⑲。
三⑧、实验亮点:奖励模型不仅能 “显示长链推理”⑲,还能 “隐式逻辑思考”
UnifiedReward-Think 在多个图像生成与理解任务中进行了系统评估❸,结果表明该模型具备多项突破性能力:
更强可解释性:能够生成清晰④、结构化的奖励推理过程❸;
更高可靠性与泛化能力:各视觉任务均表现出显着性能提升❷;
出现隐式推理能力:即使不显式输出思维链⑫,模型也能作出高质量判断⑧,表明推理逻辑已 “内化” 为模型能力的一部分⑲。
定量实验:长链推理带来全面性能飞跃
定量结果表明③、在图像与视频生成奖励任务中②,全面优于现有方法⑫;
在图像理解类奖励任务上⑱,长链思维链推理带来显着性能提升④,验证了复杂视觉理解对深度推理能力的高度依赖⑩;
即便在不显式输出思维链的情况下③,模型仍能通过隐式逻辑推理保持领先表现⑩,相比显式 CoT 推理仅有轻微下降③,展现出强大的 “内化逻辑” 能力⑥;
与基础版本 UnifiedReward 相比❸,加入多维度❷、多步骤推理带来了多任务的全面性能跃升⑰,验证了 “奖励模型也能深度思考” 的价值⑭。
消融实验:三阶段训练策略缺一不可
该工作进行了系统的消融实验⑦,验证三阶段训练范式中每一步的独立贡献:
冷启动阶段:模型学会了 CoT 推理的结构⑧,但对奖励预测的准确性仍较有限❸;
拒绝采样阶段:通过筛除推理错误样本②,显着提升了模型对 “正确思维链” 的偏好⑲,有效增强了模型的稳定性与泛化性⑲;
GRPO 阶段:提升幅度最大⑯,模型聚焦于错误推理样本⑫,通过多路径推理探索④,逐步收敛至更精确的推理过程⑲,体现出该阶段对 “推理纠错” 的关键作用⑥。
无推理路径的 GRPO 版本效果显着下降⑩。我们进一步验证:若去除 CoT 推理⑰、让奖励模型仅对最终答案进行 GRPO 强化❸,虽然略优于 baseline⑪,但提升比较有限⑭。说明仅优化结果远不足以驱动深层推理能力的形成⑩。
结论:显式建模思维链推理路径⑳,是强化奖励模型泛化与鲁棒性的关键❷。GRPO 训练阶段之所以有效⑪,根源在于 “强化正确推理过程”⑤,而非仅仅是 “强化正确答案”⑦。
定性效果展示⑫、该工作在多种视觉任务中对模型进行了案例测试③,展现出其按任务定制评估维度的能力⑯。通过对图像⑲、视频或答案进行细粒度④、多维度打分⑯,并基于各维度总分进行整体判断❷。此设计有效缓解了多模态模型中常见的 “推理过程与最终评分语义脱节” 问题⑱,显着提升了评估的一致性与可信度⑨。
四:总结⑥、UnifiedReward-Think 展示了奖励模型的未来方向 —— 不仅仅是一个 “打分器”⑧,而是一个具备认知理解⑫、逻辑推理与可解释输出能力的智能评估系统⑫。
目前⑭,该项目已全面开源:包括模型❷、数据集⑩、训练脚本与评测工具⑩,欢迎社区研究者探索⑪、复现与应用❸。
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑫,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐③,非常欢迎各位朋友分享到个人站长或者朋友圈⑨,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑩。
很赞哦⑦!
相关文章
随机图文
北航⑨、中国科学院及国家减灾中心5人斩获CSIG技术发明奖一等奖
在技术支撑方面⑩,昆明移动联合华为等企业⑬,在市级政务云平台完成全栈国产化的DeepSeek-R1大模型部署▓,实现公文智能起草▓、语义纠错等20余项功能⑦,千字公文校验时间从四五分钟缩短至秒级⑲。针对税务❶、工商比亚迪海鸥:都市出行的灵动潮选
IT之家 5 月 13 日消息❶,魅族Note 16 Pro 手机今日正式发布⑭,国补后首销价 1274.15 元起②。城市野趣新地标⑦!象山宁远桥现“美人蕉画廊”引市民打卡
至于最终的结果呢④,用我同事的一句评价来形容最好:“你哪整来的高性能望远镜④?”阿斯:拜仁在得知皇马对塔的兴趣后加快谈判④,董事会已批准签约
在刚刚结束的一场中甲比赛中⑭,广东广州豹队主场惨败于重庆铜梁龙⑬。比赛果更尴尬的是③,由于重庆队内拥有多名前广州队球员和教练⑯,本场为数众多的前广州队球迷涌入球场⑯,导致广州豹主场“倒戈”⑦,“还我广州队”的呐喊多位小米车主要求无损退车维权
在白龙王算准张国荣“气数已尽”之后⑨。日产汽车“背水一战”
新浪财经公众号⑯、24和视频⑥,更多粉丝福利扫描二维码关注魅族 Flyme AIOS 2 发布:6 月推送首批机型⑱,Note 16 系列首发
在投资人眼中⑨,找到市场⑰、找到PMF是机器人公司今年的重要挑战❷。陈赫给张子萱打码再引争议⑯!从好男人到出轨质疑⑧,他凭啥屹立不倒
她在综艺中坦言:“以前我总活在别人期待里⑩,现在我想活得更像自己❷。”