您现在的位置是:网站首页>世界足球世界足球
唐朝电玩城tc6下载
江惜雪 2025-05-14 【世界足球】 0708 人已围观
新智元报道②、【新智元导读】OpenAI发布新基准HealthBench⑲,联手60个国家262名执业医生⑨,树立新的「AGI标志性用例」⑦。OpenAI o3碾压Grok 3和Gemini 2.5 Pro▓,成功登顶③。而最强AI几乎达到了人类医生最佳水平❷!
最强AI⑰,已击败了人类医生⑬。
就在刚刚❶,全球60个国家⑨,262名执业医生共同上阵⑤,联手OpenAI打造出「最具AGI标志性」的AI健康系统评估标准——HealthBench⑧。
这个基准包含了5,000个基于现实场景的健康对话⑳,每个对话都有医生定制的评分标准①,来评估模型的响应⑪。
论文地址:https://cdn.openai.com/pdf/bd7a39d5-9e9f-47b3-903c-8b847ca650c7/healthbench_paper.pdf
在参战的所有顶尖模型中⑨,o3拿下了最高分⑫,Grok 3位列第二⑧,Gemini 2.5 Pro位列第三⑬。
值得一提的是▓,在AI辅助下⑰,医生的诊断准确率提升了近4倍⑫。甚至❷,o3❷、GPT-4.1回答质量超越了医生的水平④。
人类免疫学家Derya Unutmaz高度评价道②,「这个关键的评估基准❶,将为AI医生铺平道路⑮。我们现在正处于一场改变医学未来⑥,拯救数百万人生命的革命开端」⑨。
AGI关键要素⑪,⑭、医疗AI「标尺」❶、OpenAI的Health AI团队负责人Karan Singhal⑪,在X上介绍了HealthBench的特点❶,并给予了极大的期待:
希望这项工作的发布⑭,能为AI朝着改善人类健康的方向发展提供有力引导⑱。
改善人类健康⑩,将是通用人工智能最具决定性的影响之一❷。
但要实现这一目标⑥,必须确保模型既有用又安全⑭。专业评估对理解模型在医疗场景中的表现至关重要⑬。
尽管学术界和产业界已付出巨大努力▓,但现有评估体系仍存在三大局限:
未能还原真实医疗场景⑯、⑦、缺乏基于专家意见的严格验证⑭、
难以为前沿模型提供提升空间③。
OpenAI团队秉持AI在医疗领域评估的三大核心信念④,由此设计出HealthBench:
有现实意义④、:评分应反映真实世界影响⑬。突破传统考试题的局限②,精准捕捉患者与临床工作者使用模型时的复杂现实场景和工作流程❶。
值得信赖⑤、:评分须真实体现医师判断③。评估标准必须符合医疗专业人员的核心诉求与行业规范⑧,为AI系统优化提供严谨依据⑨。
未饱和⑱、:基准测试应推动进步⑭。现有模型必须展现显着改进空间⑩,持续激励开发者提升系统性能⑲。
在过去一年中❷,OpenAI与来自26个医学专业⑳、在60个国家拥有执业经验的262名医师合作⑱,共同构建了HealthBench评估体系⑩。
HealthBench主要面向两个群体:
研究社区:旨在推动形成统一的评估标准⑰,激励开发出真正有益于人类的模型
2. 医疗领域:提供高质量的证据⑥,帮助更好地理解当前和未来AI在医疗中的应用场景与局限性
与以往那些评估维度较为单一的医疗基准不同⑧,HealthBench支持更具实际意义的开放式评估⑳。
新研究有很多有趣的发现⑭,包括医生评分基线研究等⑱。
o3冲榜④、媲美人类医生⑮、这项健康基准HealthBench提出的主要目的⑲,便是为当前❷,甚至未来顶尖LLM提供性能可参考依据⑨。
在研究中⑩,OpenAI团队评估了多个模型⑩,包括o3❷、Grok 3④、Claude 3.7 Sonnet等④,重点考察其在性能⑳、成本和可靠性方面的表现❷。
性能⑨、根据现实世界健康场景的不同子集❶,即「主题」⑥,以及体现模型行为的不同维度②,即「轴」⑭,所有模型进行PK⑮。
整体来看⑲,o3表现最佳⑬,超越了Claude 3.7 Sonnet和Gemini 2.5 Pro⑤。
此外⑨,在最近几个月里⑯,OpenAI前沿模型在HealthBench上的表现提高了28%⑫。
这一提升⑨,对模型的安全性和性能来说⑱,比GPT-4o和GPT-3.5 Turbo之间的提升更大⑩。
成本▓、接下来⑰,研究团队还在模型大小和测试时计算scaling轴上⑫,研究了模型的成本与性能❸。
可以看到⑱,4月份OpenAI发布的模型⑥,刷新了性能成本SOTA⑱。
研究还观察到⑳,小模型在最近几个月里②,得到了显着的改进⑳,
尽管成本仅为GPT-4o的1/25②,GPT-4.1 nano的表现仍优于后者⑲。
比较低④、中⑩、高推理水平下的o3⑭、o4-mini和o1模型⑥,结果显示测试时计算能力有所提高⑭。
其中②,o3与GPT-4o之间的性能差距甚至超过了GPT-4o与GPT-3.5 Turbo之间的差距⑦。
可靠性❷、在医疗领域⑫,可靠性至关重要——一次错误回应可能抵消许多正确回答①。
因此②,OpenAI在HealthBench上评估了各模型在k个样本下的最差表现⑱。
也就是说⑭,在给定示例的n个响应中⑤,最差的得分是多少❷?
结果发现②,o3模型在16个样本时的最差分数超过GPT-4o的两倍⑫,展现出更强的稳健性和下限表现⑮。
HealthBench系列
此外⑮,OpenAI还推出了HealthBench系列的两个新成员:HealthBench Hard和HealthBench Consensus⑫。
· HealthBench Hard专为更高难度场景设计⑪,问题更具挑战性❸;
· HealthBench Consensus由多位医生共同验证⑭,确保评估标准的专业性和一致性⑩。
o3和GPT-4.1在HealthBench Consensus错误率④,比GPT-4o显着降低⑱。
在HealthBench Hard上❷,表现最好的模型得分仅为32%❸,这表明它为下一代模型提供了一个有意义且具挑战性的目标⑱。
AI与医生正面交锋②、那么②,这些大模型能够媲美⑬,甚至超越人类医生的专业判断⑤?
为此⑱,OpenAI在研究还展开了一场人机对决测试⑤。
262名专业医生被分为了两组:
· 一组医生可以在不使用AI工具的情况下查阅网络资源①,撰写最佳回答①。
· 另一组医生则可以参考OpenAI的模型生成回答⑮,自由选择直接修改或完全重写▓,提供更高质量的回复⑬。
随后⑱,研究团队将这些医生撰写的回答与AI模型的回答进行评分对比①,评估它们在准确性⑤、专业性和实用性等方面的表现①。
关键发现如下:⑦、2024年9月模型③、在测试o1-preview⑳、4o时①,他们发现仅依靠AI生成回答②,优于没有参考任何AI医生的回答⑨。
更令人振奋的是⑨,当医生参考AI回答并加以优化后▓,他们的回答质量显着超越了AI模型本身⑲。
这表明⑯,⑬、人类医生的专业判断⑰,在⑱、辅助下能产生最佳效果
2025年4月模型❷、这次实验中⑰,研究人员让医生参考最新o3④、GPT-4.1模型的回答⑱,试图进一步提升回答质量⑰。
然而❸,结果令人意外:❸、医生的优化回答与④、原始回答相比⑮,质量上没有显着提升⑦。
而当前❷,AI模型已足够强大⑩,其回答质量几乎达到了人类医生最佳水平⑳。
GPT-4.1参评⑥、远超人类平均水平❸、为检验基于模型的评分器能否精准评判评分标准⑬,OpenAI邀请医生对HealthBench Consensus中的模型回答予以审阅⑱,以确定这些回答是否符合相应评分标准❷。
基于这些医生的反馈⑥,研究团队构建了所谓的「元评估」⑧,即评估模型评分与医生判断之间的一致性②,重点衡量以下两点:
1.模型评分器与医生之间的一致性:模型在判断一个评分标准是否被满足时⑰,是否与医生达成一致⑮;
2.医生之间的一致性:多位医生对同一模型回应的评分是否一致⑰。
评估结果表明⑨,模型评分器与医生之间的配对一致性程度⑨,和医生之间的配对一致性
程度相当❶、这说明HealthBench使用的模型评分方法在很大程度上能够代替专家评分⑦,具有可信度和专业性⑬。
基线模型①、OpenAI将34条共识评分标准的数据按七大主题进行分组⑱,评估模型评分器与医生评分之间的一致性⑥,并通过三种方式建立对照基线:
典型医生⑫、为了估计人类专家之间的评分一致性⑦,需要对比每位医生的评分与其他医生的评分⑫,并计算MF1分数⑲。
也就是⑥,用与模型相同的方式对医生进行评分⑦,仅统计该医生参与评估的对话示例⑫,且不使用该医生自己的评分作为参考⑭。
注释:在分类任务中▓,宏平均F1分数是对每个类别的F1分数进行不加权平均的结果⑥。
MF1适用于类别不平衡的元评估任务⑥。
表5按主题报告了加权平均的医生MF1分数②,权重基于每位医生参与的元示例数量⑦。
个体⑥、医生⑩、OpenAI还在每个主题下报告了每位医生的MF1分数⑱。
图12展示了这些医生评分分数的分布情况⑬。
通过这些个体分数❷,❶、模型评分器在每个主题下的MF1分数被
表示为医生分布中的①、百分位数④,以更直观地理解模型评分表现在「人类专家水平」中所处的位置①。
这些基线设定让我们能够客观评估模型评分系统的可靠性⑧,验证其是否达到了与医生相当的专业判断水平⑯。
结果:GPT-4.1远超普通医生
如表5所示③,在所有主题上⑪,GPT-4.1作为评分模型的表现
均明显优于随机基线▓、更具体地说:①、在7个主题中的5个中②,GPT-4.1的评分表现超过了医生平均水平③;
在6个主题中⑦,GPT-4.1的表现处于医生评分分布的上半区间⑨;
在所有主题中⑮,GPT-4.1的评分能力都高于医生群体的下三分之一⑱。
这些结果说明⑰,GPT-4.1作为基于模型的评分器▓,其表现已能与医生专家的评估相媲美⑩。
从图12可以看到⑬,不同医生之间的评分表现差异显着⑧,说明医生间本身也存在一定主观性和评分风格的差异⑥。
总的来说⑧,只要满足以下条件⑫,基于模型的评分系统可以与专家评分一样可靠:
基础数据真实⑬、多样且注释充分❷;
元评估设计合理③;
评分提示和评分模型经过精心挑选⑳。
由于GPT-4.1在无需复杂推理模型带来的高成本和延迟的情况下❸,就已达到了医生级别的一致性表现③,因此它被设置为HealthBench的默认评分模型④。
模拟真实场景⑧,多维度评估
结合模型合成生成与人工对抗测试方式①,OpenAI创建了HealthBench⑪,力求贴近真实场景❶,模拟真实世界中人们使用大模型的情况⑤。
对话具有以下特点:④、多轮交互⑰,更符合自然对话流程⑤、多语言支持⑤,覆盖不同语言背景⑧、角色多样③,既包括普通用户⑲,也包括医生
涵盖多个医学专业领域与场景
精心挑选⑨,具有③、一定难度①,避免模型轻松「答对」⑯、这个基准的目标是推动更真实③、更全面的AI健康对话能力评估⑤,让模型在实用性与安全性之间达到更好的平衡⑪。
HealthBench使用「评分标准式评估」方法:
每个模型回答都会根据该对话特定的⑱、由医生撰写的评分标准进行打分⑦。
这些评分标准详细说明了「完美回应」应包含哪些信息⑭,或应避免哪些内容②,比如:应提及某个医学事实⑭,或避免使用不必要的术语⑱。
每一条评分标准都有对应的分值权重⑨,根据医生判断该标准在整体回答中的重要性而设定②。
整个HealthBench数据集中包含
48,562条独立评分标准⑱。
HealthBench中的对话被划分为七大主题⑲,例如急诊⑨、应对不确定性❶、全球
健康等⑲。
每个主题下都包含多个相关示例②,每个示例都配有对应的评分标准⑮。
以下是一些数据集的示例⑱。
左右滑动查看⑥、每一条评分标准都对应一个评估维度❷,用于界定该标准评估的是模型行为的哪个方面⑪,例如:
准确性⑧、沟通质量⑱、信息查找与澄清能力⑯、这种结构化的设计⑯,让HealthBench能够细致①、多角度地评估AI模型在不同医疗场景中的表现⑬,反映在实际应用中的可靠性与实用性⑧。
模型的回答由GPT-4.1担任评分者⑳,根据每项评分标准判断是否达成⑬,并根据满足标准的总得分与满分比值⑯,给出整体评分⑤。
HealthBench涵盖了广泛的医学专科领域⑳,包括:
麻醉学❶、皮肤病学❸、放射诊断学⑪、急诊医学⑩、家庭医学⑥、普通外科⑭、内科⑩、介入与放射诊断学④、医学遗传与基因组学⑱、神经外科①、神经内科①、核医学②、妇产科学①、眼科学⑫、骨科⑧、耳鼻喉科❷、病理学⑳、儿科学⑤、物理医学与康复①、整形外科④、精神病学⑥、公共卫生与预防医学⑫、放射肿瘤学⑩、胸外科⑫、泌尿外科❷、血管外科❶。
这些专科的覆盖确保了HealthBench在临床广度和专业深度上的严谨性②。
整个HealthBench构建过程涵盖了重点领域筛选⑳、生成相关且具有挑战性的案例样本⑬、案例标注以及各个环节的验证工作❶。
参考资料:
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可❸,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑩,非常欢迎各位朋友分享到个人站长或者朋友圈▓,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”❷。
很赞哦⑲!
相关文章
随机图文
郑州银行2024业绩狂飙:逆势“四增长”②,存款增速全省第一
是一站式办理⑱,③、实在太⑯、方便②、了⑪!”瑞丽市食在云滇农庄负责人李女士感慨道⑱。ESPN:皇马接近签下阿诺德④,利物浦要求支付约100万欧解约费
5月2日⑮,也门胡塞武装发言人叶海亚·萨雷亚在首都萨那发表讲话 新华社发大连英博官方:刘祝润⑳、曹海清肌肉受伤⑨,保守治疗恢复周期2周
关键字 :⑤、库尼亚曼联⑦、来自于:北京⑪、权利保护声明页/Notice to Right Holders乡村“镇”兴丨一片茶叶带来的山村蝶变
但费内巴切传闻中对桑乔的兴趣⑩,或许只是为了骚扰死敌加拉塔萨雷⑩,予以「抬价」⑱。虽然「鸟叔」过去曾有为桑乔问题而批评滕哈格管理方式的言论⑥,但桑乔的纪律性和积极性⑰,明显不符合葡萄牙狂人的执教需求⑮,交易很难真印度退役中将:巴基斯坦人更擅长战斗③,宁愿和中国作战而非巴基斯坦
问得好⑩,说实话⑦,我想坐在教练席附近⑯。我当然知道格拉德斯街的气氛有多好⑭,但我还是想坐在教练席那儿⑰,因为我觉得在那里看比赛的效果是最棒的④。常规赛球队⑰?骑士收割一大堆数据&荣誉 次轮遭绅士横扫
12日晚❸,金龟子女儿发布视频含泪回应“蹭流量”⑤,其称⑬,看到热搜时直接绷不住哭了⑥,没想到网友在鼓励自己继续加油①,特别害怕大家骂她⑮,但网友都是很善良的人⑦,一直在安慰她⑨。泰林生物涨0.33%⑦,成交额4370.02万元⑩,后市是否有机会⑯?
让我们谈谈斯洛特担任主教练的情况⑳。他来到利物浦后⑩,球队有什么变化⑬?卖亏了⑤?尤文卖怀森仅收1520万欧
而这样的生活让她有更多的时间去学习自己喜欢的东西③。