您现在的位置是:网站首页>科技科技

兵炮马车相士帅电玩城

赖笑蓝 2025-05-14 科技 5503 人已围观

该工作由通用人工智能研究院 × 北京大学联手打造⑮。第一作者郑欣悦为通用人工智能研究院研究员⑨,共同一作为北京大学人工智能研究院博士生林昊苇④,作者为北京大学助理教授梁一韬和通用人工智能研究院研究员郑子隆⑦。

开发能在开放世界中完成多样任务的通用智能体⑪,是AI领域的核心挑战⑧。开放世界强调环境的动态性及任务的非预设性⑬,智能体必须具备真正的泛化能力才能稳健应对⑳。然而⑳,现有评测体系多受限于任务多样化不足④、任务数量有限以及环境单一等因素⑰,难以准确衡量智能体是否真正「理解」任务⑰,或仅是「记住」了特定解法❶。

为此❷,我们构建了Minecraft Universe——一个面向通用智能体评测的生成式开放世界平台⑳。MCU 支持自动生成无限多样的任务配置⑪,覆盖丰富生态系统⑪、复杂任务目标①、天气变化等多种环境变量⑳,旨在全面评估智能体的真实能力与泛化水平⑱。该平台基于高效且功能全面的开发工具MineStudio构建⑯,支持灵活定制环境设定⑥,大规模数据集处理⑮,并内置 VPTs⑫、STEVE-1 等主流 Minecraft 智能体模型⑯,显着简化评测流程❸,助力智能体的快速迭代与发展②。

论文地址:https://arxiv.org/pdf/2310.08367

代码开源:https://github.com/CraftJarvis/MCU

项目主页:https://craftjarvis.github.io/MCU

开放世界AI⑳,亟需理想的评测基准⑲!

传统测试基准包含有标准答案的任务⑯,但开放世界任务 Minecraft 有着完全不同的挑战:

目标开放多样:任务没有唯一解⑯,策略可以千变万化⑦;

环境状态庞杂:状态空间近乎无限⑤,还原真实世界复杂度⑲;

长周期任务挑战:关键任务持续数小时⑱,智能体需长期规划④。

在这样的环境中⑮,我们需要的不只是一个评分系统⑧,而是一个维度丰富⑭、结构多元的综合评测框架⑧。

MCU:为开放世界 AI 打造的「全方位试炼场」

当前已有不少 Minecraft 的测试基准⑬,但它们普遍面临「三大瓶颈」:

任务单一:局限于如挖钻石⑦、制造材料等少数几个场景的循环往复①。

脱离现实:部分建模任务甚至超出了普通人类玩家的能力范畴⑨。

依赖人工评测:效率低下⑧,导致评测难以规模化推广⑳。

与之前 minecraft 测试基准对比示意图③。

针对以上痛点⑩,MCU 实现了以下三大核心突破:

一:3,452 个原子任务 × 无限组合生成❸,构筑海量任务空间

MCU 构建了一个覆盖真实玩家行为的超大任务库:

11 大类 × 41 子类任务类型:如挖矿⑩、合成⑳、战斗⑮、建造等⑬;

每个任务都是「原子级粒度」:可独立测试控制⑫、规划⑧、推理⑮、创造等能力⑤;

支持 LLM 动态扩展任务⑱,比如:用钻石剑击败僵尸⑥、雨天徒手采集木材❸、

在沙漠中建一座水上屋❶。

任意组合这些原子任务⑦,即可生成无限的新任务⑰,每一个都对 AI 是全新挑战▓!

模拟多样化真实世界挑战⑯。

二. 任务全自动生成 × 多模态智能评测⑮,革新评估效率

GPT-4o 赋能⑧,一句话生成复杂世界:

自动生成完整的任务场景⑯。

智能验证任务配置的可行性⑯,有效避免如「用木镐挖掘钻石」这类逻辑错误型任务❸。

VLM驱动⑨,彻底改变了传统人工打分的低效模式:

基于 VLM 实现对任务进度⑰、控制策略⑭、材料利用率❸、执行效率⑧、错误检测及创造性六大维度的智能评分⑩。

模型自动生成详尽的评估文本❶,评分准确率高达91.5%

评测效率相较人工提升8.1 倍④,成本仅为人工评估的1/5⑮!

任务生成 x 多模态评测流程图⑭。

三:高难度 × 高自由度的「试金石」任务设计⑲,深度检验泛化能力

MCU 支持每个任务的多种难度版本⑳,如:

「白天在草原击杀羊」VS「夜晚在雨林躲避怪物并击杀羊」▓;

「森林里造瀑布」VS「熔岩坑边缘建造瀑布」⑨。

这不仅考验 AI 是否能完成任务⑧,更深度检验其在复杂多变环境下的泛化与适应能力⑱。

打破「模型表现良好」的幻象:现有 SOTA 模型能否驾驭 MCU ⑨?

我们将当前领域顶尖的 Minecraft 智能体引入 MCU 进行实战检验:GROOT:视频模仿学习代表⑳;STEVE-I:指令执行型控制器①;VPT:基于 YouTube 行为克隆训练而成的先驱②。结果发现⑲,这些智能体在简单任务上表现尚可⑯,但在面对组合任务和陌生配置场景时⑫,完成率急剧下降⑱,且错误识别与创新尝试是其短板⑩。

SOTA 模型在 MCU 上的测试结果❷。

研究团队引入了更细粒度的任务进度评分指标⑱,区别于传统 0/1 式的「任务完成率」⑰,它能动态刻画智能体在执行过程中的阶段性表现④,哪怕任务失败⑧,也能反映其是否在朝正确方向推进▓。

实验发现⑲,当前主流模型如 GROOT⑩、STEVE-I⑮、VPT-RL①,在原子任务中尚有可圈可点的表现❶,但一旦面对更具组合性和变化性的任务❸,其成功率便会骤降⑭。甚至对环境的微小改动也会导致决策混乱⑯。比如「在房间内睡觉」这个看似简单的任务⑥,仅仅是将床从草地搬到屋内⑧,就让 GROOT 频繁误把箱子当床点击⑭,甚至转身离开现场——这揭示了现有模型在空间理解与泛化上的明显短板⑥。

更令人警醒的是❶,智能体在建造①、战斗类任务中的「创造性得分」与「错误识别能力」几乎全面落后❶。这说明它们尚未真正具备人类那种「发现问题⑫、调整策略」的自主意识⑫,而这正是通用智能迈向下一个阶段的关键⑦。

MCU 的评测结果首次系统性地揭示了当前开放世界智能体在「泛化⑯、适应与创造」这三大核心能力上存在的鸿沟❷,同时也为未来的研究指明了方向:如何让 AI 不仅能高效完成任务⑱,更能深刻理解任务的本质⑦,并创造性地解决复杂问题⑬。

很赞哦⑪!

随机图文