您现在的位置是:网站首页>国际国际

抖音开心电玩城

何寒安 2025-05-14 国际 8795 人已围观

新智元报道①、【新智元导读】OpenAI发布新基准HealthBench⑨,联手60个国家262名执业医生⑪,树立新的「AGI标志性用例」⑰。OpenAI o3碾压Grok 3和Gemini 2.5 Pro⑯,成功登顶⑮。而最强AI几乎达到了人类医生最佳水平⑨!

最强AI⑲,已击败了人类医生⑰。

就在刚刚②,全球60个国家⑪,262名执业医生共同上阵⑯,联手OpenAI打造出「最具AGI标志性」的AI健康系统评估标准——HealthBench①。

这个基准包含了5,000个基于现实场景的健康对话⑫,每个对话都有医生定制的评分标准❷,来评估模型的响应⑤。

论文地址:https://cdn.openai.com/pdf/bd7a39d5-9e9f-47b3-903c-8b847ca650c7/healthbench_paper.pdf

在参战的所有顶尖模型中⑩,o3拿下了最高分⑩,Grok 3位列第二⑯,Gemini 2.5 Pro位列第三⑭。

值得一提的是④,在AI辅助下❸,医生的诊断准确率提升了近4倍⑰。甚至⑯,o3❶、GPT-4.1回答质量超越了医生的水平❶。

人类免疫学家Derya Unutmaz高度评价道❸,「这个关键的评估基准⑳,将为AI医生铺平道路⑦。我们现在正处于一场改变医学未来④,拯救数百万人生命的革命开端」③。

AGI关键要素⑫,⑧、医疗AI「标尺」⑭、OpenAI的Health AI团队负责人Karan Singhal⑥,在X上介绍了HealthBench的特点⑩,并给予了极大的期待:

希望这项工作的发布⑪,能为AI朝着改善人类健康的方向发展提供有力引导⑱。

改善人类健康⑭,将是通用人工智能最具决定性的影响之一❸。

但要实现这一目标⑱,必须确保模型既有用又安全⑭。专业评估对理解模型在医疗场景中的表现至关重要❷。

尽管学术界和产业界已付出巨大努力⑲,但现有评估体系仍存在三大局限:

未能还原真实医疗场景❶、⑨、缺乏基于专家意见的严格验证⑮、

难以为前沿模型提供提升空间❷。

OpenAI团队秉持AI在医疗领域评估的三大核心信念⑲,由此设计出HealthBench:

有现实意义⑦、:评分应反映真实世界影响⑩。突破传统考试题的局限⑰,精准捕捉患者与临床工作者使用模型时的复杂现实场景和工作流程❷。

值得信赖⑨、:评分须真实体现医师判断⑨。评估标准必须符合医疗专业人员的核心诉求与行业规范⑥,为AI系统优化提供严谨依据❶。

未饱和⑦、:基准测试应推动进步⑧。现有模型必须展现显着改进空间❸,持续激励开发者提升系统性能❶。

在过去一年中④,OpenAI与来自26个医学专业⑭、在60个国家拥有执业经验的262名医师合作⑳,共同构建了HealthBench评估体系⑳。

HealthBench主要面向两个群体:

研究社区:旨在推动形成统一的评估标准②,激励开发出真正有益于人类的模型

2. 医疗领域:提供高质量的证据⑤,帮助更好地理解当前和未来AI在医疗中的应用场景与局限性

与以往那些评估维度较为单一的医疗基准不同⑧,HealthBench支持更具实际意义的开放式评估①。

新研究有很多有趣的发现⑱,包括医生评分基线研究等⑤。

o3冲榜⑨、媲美人类医生③、这项健康基准HealthBench提出的主要目的❷,便是为当前⑭,甚至未来顶尖LLM提供性能可参考依据⑤。

在研究中⑰,OpenAI团队评估了多个模型⑫,包括o3④、Grok 3❶、Claude 3.7 Sonnet等①,重点考察其在性能⑤、成本和可靠性方面的表现⑦。

性能③、根据现实世界健康场景的不同子集⑬,即「主题」①,以及体现模型行为的不同维度⑱,即「轴」⑪,所有模型进行PK❸。

整体来看④,o3表现最佳⑯,超越了Claude 3.7 Sonnet和Gemini 2.5 Pro❶。

此外⑯,在最近几个月里⑦,OpenAI前沿模型在HealthBench上的表现提高了28%⑯。

这一提升⑧,对模型的安全性和性能来说⑩,比GPT-4o和GPT-3.5 Turbo之间的提升更大▓。

成本❶、接下来⑧,研究团队还在模型大小和测试时计算scaling轴上⑭,研究了模型的成本与性能⑯。

可以看到②,4月份OpenAI发布的模型⑭,刷新了性能成本SOTA⑮。

研究还观察到⑧,小模型在最近几个月里⑯,得到了显着的改进①,

尽管成本仅为GPT-4o的1/25⑨,GPT-4.1 nano的表现仍优于后者⑲。

比较低⑲、中⑦、高推理水平下的o3⑳、o4-mini和o1模型③,结果显示测试时计算能力有所提高▓。

其中③,o3与GPT-4o之间的性能差距甚至超过了GPT-4o与GPT-3.5 Turbo之间的差距⑭。

可靠性⑪、在医疗领域⑭,可靠性至关重要——一次错误回应可能抵消许多正确回答⑪。

因此⑱,OpenAI在HealthBench上评估了各模型在k个样本下的最差表现①。

也就是说▓,在给定示例的n个响应中⑲,最差的得分是多少⑧?

结果发现⑫,o3模型在16个样本时的最差分数超过GPT-4o的两倍⑱,展现出更强的稳健性和下限表现⑱。

HealthBench系列

此外⑨,OpenAI还推出了HealthBench系列的两个新成员:HealthBench Hard和HealthBench Consensus⑥。

· HealthBench Hard专为更高难度场景设计⑨,问题更具挑战性⑲;

· HealthBench Consensus由多位医生共同验证❸,确保评估标准的专业性和一致性❷。

o3和GPT-4.1在HealthBench Consensus错误率⑲,比GPT-4o显着降低⑦。

在HealthBench Hard上❶,表现最好的模型得分仅为32%⑦,这表明它为下一代模型提供了一个有意义且具挑战性的目标❶。

AI与医生正面交锋⑩、那么⑧,这些大模型能够媲美⑦,甚至超越人类医生的专业判断⑧?

为此⑯,OpenAI在研究还展开了一场人机对决测试⑩。

262名专业医生被分为了两组:

· 一组医生可以在不使用AI工具的情况下查阅网络资源⑫,撰写最佳回答⑥。

· 另一组医生则可以参考OpenAI的模型生成回答⑪,自由选择直接修改或完全重写⑥,提供更高质量的回复④。

随后⑭,研究团队将这些医生撰写的回答与AI模型的回答进行评分对比▓,评估它们在准确性❶、专业性和实用性等方面的表现❷。

关键发现如下:⑤、2024年9月模型⑪、在测试o1-preview❶、4o时②,他们发现仅依靠AI生成回答⑦,优于没有参考任何AI医生的回答②。

更令人振奋的是④,当医生参考AI回答并加以优化后⑰,他们的回答质量显着超越了AI模型本身❸。

这表明▓,⑦、人类医生的专业判断❷,在⑪、辅助下能产生最佳效果

2025年4月模型⑬、这次实验中❸,研究人员让医生参考最新o3⑤、GPT-4.1模型的回答⑳,试图进一步提升回答质量⑮。

然而⑤,结果令人意外:⑯、医生的优化回答与⑩、原始回答相比❶,质量上没有显着提升⑦。

而当前⑧,AI模型已足够强大❷,其回答质量几乎达到了人类医生最佳水平⑱。

GPT-4.1参评⑤、远超人类平均水平⑥、为检验基于模型的评分器能否精准评判评分标准⑪,OpenAI邀请医生对HealthBench Consensus中的模型回答予以审阅⑯,以确定这些回答是否符合相应评分标准⑤。

基于这些医生的反馈⑲,研究团队构建了所谓的「元评估」⑪,即评估模型评分与医生判断之间的一致性⑭,重点衡量以下两点:

1.模型评分器与医生之间的一致性:模型在判断一个评分标准是否被满足时⑱,是否与医生达成一致▓;

2.医生之间的一致性:多位医生对同一模型回应的评分是否一致⑩。

评估结果表明⑤,模型评分器与医生之间的配对一致性程度⑥,和医生之间的配对一致性

程度相当⑮、这说明HealthBench使用的模型评分方法在很大程度上能够代替专家评分⑭,具有可信度和专业性⑦。

基线模型⑭、OpenAI将34条共识评分标准的数据按七大主题进行分组⑫,评估模型评分器与医生评分之间的一致性⑬,并通过三种方式建立对照基线:

典型医生①、为了估计人类专家之间的评分一致性⑰,需要对比每位医生的评分与其他医生的评分⑰,并计算MF1分数⑪。

也就是❶,用与模型相同的方式对医生进行评分⑲,仅统计该医生参与评估的对话示例④,且不使用该医生自己的评分作为参考⑬。

注释:在分类任务中①,宏平均F1分数是对每个类别的F1分数进行不加权平均的结果⑮。

MF1适用于类别不平衡的元评估任务⑧。

表5按主题报告了加权平均的医生MF1分数⑨,权重基于每位医生参与的元示例数量⑪。

个体④、医生⑨、OpenAI还在每个主题下报告了每位医生的MF1分数⑯。

图12展示了这些医生评分分数的分布情况⑦。

通过这些个体分数⑤,▓、模型评分器在每个主题下的MF1分数被

表示为医生分布中的⑲、百分位数⑪,以更直观地理解模型评分表现在「人类专家水平」中所处的位置⑱。

这些基线设定让我们能够客观评估模型评分系统的可靠性⑭,验证其是否达到了与医生相当的专业判断水平⑭。

结果:GPT-4.1远超普通医生

如表5所示▓,在所有主题上⑳,GPT-4.1作为评分模型的表现

均明显优于随机基线⑳、更具体地说:③、在7个主题中的5个中⑫,GPT-4.1的评分表现超过了医生平均水平⑭;

在6个主题中③,GPT-4.1的表现处于医生评分分布的上半区间⑤;

在所有主题中⑨,GPT-4.1的评分能力都高于医生群体的下三分之一⑩。

这些结果说明⑬,GPT-4.1作为基于模型的评分器⑭,其表现已能与医生专家的评估相媲美①。

从图12可以看到③,不同医生之间的评分表现差异显着①,说明医生间本身也存在一定主观性和评分风格的差异⑲。

总的来说⑩,只要满足以下条件❸,基于模型的评分系统可以与专家评分一样可靠:

基础数据真实⑮、多样且注释充分②;

元评估设计合理⑥;

评分提示和评分模型经过精心挑选⑰。

由于GPT-4.1在无需复杂推理模型带来的高成本和延迟的情况下④,就已达到了医生级别的一致性表现⑯,因此它被设置为HealthBench的默认评分模型⑨。

模拟真实场景②,多维度评估

结合模型合成生成与人工对抗测试方式⑩,OpenAI创建了HealthBench⑥,力求贴近真实场景⑥,模拟真实世界中人们使用大模型的情况⑮。

对话具有以下特点:②、多轮交互⑮,更符合自然对话流程⑲、多语言支持⑱,覆盖不同语言背景⑦、角色多样⑱,既包括普通用户⑭,也包括医生

涵盖多个医学专业领域与场景

精心挑选⑤,具有②、一定难度⑤,避免模型轻松「答对」④、这个基准的目标是推动更真实⑪、更全面的AI健康对话能力评估③,让模型在实用性与安全性之间达到更好的平衡❸。

HealthBench使用「评分标准式评估」方法:

每个模型回答都会根据该对话特定的⑤、由医生撰写的评分标准进行打分⑤。

这些评分标准详细说明了「完美回应」应包含哪些信息⑮,或应避免哪些内容⑲,比如:应提及某个医学事实⑫,或避免使用不必要的术语❸。

每一条评分标准都有对应的分值权重⑯,根据医生判断该标准在整体回答中的重要性而设定⑤。

整个HealthBench数据集中包含

48,562条独立评分标准⑤。

HealthBench中的对话被划分为七大主题⑥,例如急诊⑱、应对不确定性⑬、全球

健康等⑯。

每个主题下都包含多个相关示例⑮,每个示例都配有对应的评分标准⑯。

以下是一些数据集的示例⑪。

左右滑动查看❸、每一条评分标准都对应一个评估维度⑥,用于界定该标准评估的是模型行为的哪个方面⑦,例如:

准确性⑱、沟通质量⑬、信息查找与澄清能力⑰、这种结构化的设计⑭,让HealthBench能够细致⑤、多角度地评估AI模型在不同医疗场景中的表现❸,反映在实际应用中的可靠性与实用性⑦。

模型的回答由GPT-4.1担任评分者❸,根据每项评分标准判断是否达成⑮,并根据满足标准的总得分与满分比值⑫,给出整体评分⑳。

HealthBench涵盖了广泛的医学专科领域②,包括:

麻醉学⑭、皮肤病学⑬、放射诊断学③、急诊医学⑲、家庭医学③、普通外科⑬、内科⑨、介入与放射诊断学⑧、医学遗传与基因组学⑫、神经外科③、神经内科⑱、核医学⑪、妇产科学①、眼科学①、骨科⑱、耳鼻喉科⑪、病理学③、儿科学⑪、物理医学与康复⑬、整形外科⑫、精神病学⑪、公共卫生与预防医学⑲、放射肿瘤学⑭、胸外科⑩、泌尿外科▓、血管外科❸。

这些专科的覆盖确保了HealthBench在临床广度和专业深度上的严谨性❶。

整个HealthBench构建过程涵盖了重点领域筛选⑦、生成相关且具有挑战性的案例样本⑮、案例标注以及各个环节的验证工作⑲。

参考资料:

很赞哦④!

随机图文