您现在的位置是:网站首页>娱乐娱乐
奔驰宝马电玩城558855
邵新波 2025-05-14 【娱乐】 0930 人已围观
新智元报道⑤、【新智元导读】OpenAI发布新基准HealthBench⑰,联手60个国家262名执业医生⑥,树立新的「AGI标志性用例」⑮。OpenAI o3碾压Grok 3和Gemini 2.5 Pro⑫,成功登顶⑭。而最强AI几乎达到了人类医生最佳水平⑯!
最强AI⑯,已击败了人类医生⑤。
就在刚刚⑪,全球60个国家⑤,262名执业医生共同上阵❶,联手OpenAI打造出「最具AGI标志性」的AI健康系统评估标准——HealthBench⑱。
这个基准包含了5,000个基于现实场景的健康对话❶,每个对话都有医生定制的评分标准⑤,来评估模型的响应⑫。
论文地址:https://cdn.openai.com/pdf/bd7a39d5-9e9f-47b3-903c-8b847ca650c7/healthbench_paper.pdf
在参战的所有顶尖模型中④,o3拿下了最高分⑦,Grok 3位列第二⑭,Gemini 2.5 Pro位列第三❷。
值得一提的是⑩,在AI辅助下⑦,医生的诊断准确率提升了近4倍⑰。甚至⑩,o3①、GPT-4.1回答质量超越了医生的水平⑭。
人类免疫学家Derya Unutmaz高度评价道❶,「这个关键的评估基准⑨,将为AI医生铺平道路⑮。我们现在正处于一场改变医学未来⑯,拯救数百万人生命的革命开端」❷。
AGI关键要素④,⑮、医疗AI「标尺」⑳、OpenAI的Health AI团队负责人Karan Singhal⑮,在X上介绍了HealthBench的特点①,并给予了极大的期待:
希望这项工作的发布⑧,能为AI朝着改善人类健康的方向发展提供有力引导⑪。
改善人类健康⑧,将是通用人工智能最具决定性的影响之一❷。
但要实现这一目标②,必须确保模型既有用又安全⑯。专业评估对理解模型在医疗场景中的表现至关重要⑨。
尽管学术界和产业界已付出巨大努力⑨,但现有评估体系仍存在三大局限:
未能还原真实医疗场景⑬、⑪、缺乏基于专家意见的严格验证⑮、
难以为前沿模型提供提升空间⑦。
OpenAI团队秉持AI在医疗领域评估的三大核心信念⑲,由此设计出HealthBench:
有现实意义⑥、:评分应反映真实世界影响⑩。突破传统考试题的局限①,精准捕捉患者与临床工作者使用模型时的复杂现实场景和工作流程⑧。
值得信赖⑦、:评分须真实体现医师判断⑦。评估标准必须符合医疗专业人员的核心诉求与行业规范⑨,为AI系统优化提供严谨依据④。
未饱和⑰、:基准测试应推动进步❸。现有模型必须展现显着改进空间①,持续激励开发者提升系统性能④。
在过去一年中⑩,OpenAI与来自26个医学专业▓、在60个国家拥有执业经验的262名医师合作⑲,共同构建了HealthBench评估体系⑩。
HealthBench主要面向两个群体:
研究社区:旨在推动形成统一的评估标准⑥,激励开发出真正有益于人类的模型
2. 医疗领域:提供高质量的证据⑩,帮助更好地理解当前和未来AI在医疗中的应用场景与局限性
与以往那些评估维度较为单一的医疗基准不同⑫,HealthBench支持更具实际意义的开放式评估⑲。
新研究有很多有趣的发现⑬,包括医生评分基线研究等⑨。
o3冲榜③、媲美人类医生②、这项健康基准HealthBench提出的主要目的⑲,便是为当前⑥,甚至未来顶尖LLM提供性能可参考依据❷。
在研究中⑮,OpenAI团队评估了多个模型①,包括o3⑮、Grok 3⑮、Claude 3.7 Sonnet等①,重点考察其在性能⑨、成本和可靠性方面的表现⑳。
性能⑧、根据现实世界健康场景的不同子集⑪,即「主题」⑥,以及体现模型行为的不同维度③,即「轴」⑨,所有模型进行PK⑤。
整体来看③,o3表现最佳⑥,超越了Claude 3.7 Sonnet和Gemini 2.5 Pro⑮。
此外⑳,在最近几个月里⑫,OpenAI前沿模型在HealthBench上的表现提高了28%❸。
这一提升⑱,对模型的安全性和性能来说❶,比GPT-4o和GPT-3.5 Turbo之间的提升更大❶。
成本⑦、接下来❷,研究团队还在模型大小和测试时计算scaling轴上⑳,研究了模型的成本与性能④。
可以看到⑤,4月份OpenAI发布的模型❸,刷新了性能成本SOTA⑰。
研究还观察到❶,小模型在最近几个月里⑲,得到了显着的改进②,
尽管成本仅为GPT-4o的1/25⑱,GPT-4.1 nano的表现仍优于后者⑯。
比较低⑭、中⑲、高推理水平下的o3▓、o4-mini和o1模型③,结果显示测试时计算能力有所提高⑧。
其中⑯,o3与GPT-4o之间的性能差距甚至超过了GPT-4o与GPT-3.5 Turbo之间的差距▓。
可靠性⑪、在医疗领域①,可靠性至关重要——一次错误回应可能抵消许多正确回答④。
因此⑦,OpenAI在HealthBench上评估了各模型在k个样本下的最差表现⑦。
也就是说⑲,在给定示例的n个响应中⑳,最差的得分是多少⑦?
结果发现④,o3模型在16个样本时的最差分数超过GPT-4o的两倍③,展现出更强的稳健性和下限表现⑭。
HealthBench系列
此外⑤,OpenAI还推出了HealthBench系列的两个新成员:HealthBench Hard和HealthBench Consensus⑭。
· HealthBench Hard专为更高难度场景设计③,问题更具挑战性⑲;
· HealthBench Consensus由多位医生共同验证⑱,确保评估标准的专业性和一致性③。
o3和GPT-4.1在HealthBench Consensus错误率⑲,比GPT-4o显着降低⑲。
在HealthBench Hard上▓,表现最好的模型得分仅为32%▓,这表明它为下一代模型提供了一个有意义且具挑战性的目标⑥。
AI与医生正面交锋⑬、那么⑦,这些大模型能够媲美▓,甚至超越人类医生的专业判断❶?
为此③,OpenAI在研究还展开了一场人机对决测试❸。
262名专业医生被分为了两组:
· 一组医生可以在不使用AI工具的情况下查阅网络资源⑯,撰写最佳回答①。
· 另一组医生则可以参考OpenAI的模型生成回答⑳,自由选择直接修改或完全重写⑪,提供更高质量的回复⑩。
随后⑩,研究团队将这些医生撰写的回答与AI模型的回答进行评分对比❶,评估它们在准确性⑦、专业性和实用性等方面的表现⑰。
关键发现如下:③、2024年9月模型②、在测试o1-preview⑯、4o时⑤,他们发现仅依靠AI生成回答⑱,优于没有参考任何AI医生的回答⑰。
更令人振奋的是⑦,当医生参考AI回答并加以优化后②,他们的回答质量显着超越了AI模型本身⑧。
这表明⑭,⑲、人类医生的专业判断❸,在❸、辅助下能产生最佳效果
2025年4月模型③、这次实验中⑳,研究人员让医生参考最新o3⑭、GPT-4.1模型的回答③,试图进一步提升回答质量⑭。
然而⑩,结果令人意外:⑭、医生的优化回答与❸、原始回答相比⑲,质量上没有显着提升⑥。
而当前⑥,AI模型已足够强大②,其回答质量几乎达到了人类医生最佳水平③。
GPT-4.1参评⑯、远超人类平均水平⑤、为检验基于模型的评分器能否精准评判评分标准⑨,OpenAI邀请医生对HealthBench Consensus中的模型回答予以审阅❷,以确定这些回答是否符合相应评分标准⑰。
基于这些医生的反馈⑫,研究团队构建了所谓的「元评估」❷,即评估模型评分与医生判断之间的一致性⑱,重点衡量以下两点:
1.模型评分器与医生之间的一致性:模型在判断一个评分标准是否被满足时③,是否与医生达成一致⑯;
2.医生之间的一致性:多位医生对同一模型回应的评分是否一致⑱。
评估结果表明▓,模型评分器与医生之间的配对一致性程度⑦,和医生之间的配对一致性
程度相当⑤、这说明HealthBench使用的模型评分方法在很大程度上能够代替专家评分⑥,具有可信度和专业性④。
基线模型⑪、OpenAI将34条共识评分标准的数据按七大主题进行分组⑤,评估模型评分器与医生评分之间的一致性❷,并通过三种方式建立对照基线:
典型医生▓、为了估计人类专家之间的评分一致性③,需要对比每位医生的评分与其他医生的评分❶,并计算MF1分数⑥。
也就是⑯,用与模型相同的方式对医生进行评分②,仅统计该医生参与评估的对话示例⑫,且不使用该医生自己的评分作为参考⑯。
注释:在分类任务中⑳,宏平均F1分数是对每个类别的F1分数进行不加权平均的结果⑧。
MF1适用于类别不平衡的元评估任务❷。
表5按主题报告了加权平均的医生MF1分数⑥,权重基于每位医生参与的元示例数量②。
个体❶、医生⑰、OpenAI还在每个主题下报告了每位医生的MF1分数③。
图12展示了这些医生评分分数的分布情况⑤。
通过这些个体分数⑫,⑬、模型评分器在每个主题下的MF1分数被
表示为医生分布中的⑳、百分位数⑯,以更直观地理解模型评分表现在「人类专家水平」中所处的位置⑳。
这些基线设定让我们能够客观评估模型评分系统的可靠性②,验证其是否达到了与医生相当的专业判断水平⑩。
结果:GPT-4.1远超普通医生
如表5所示⑪,在所有主题上⑥,GPT-4.1作为评分模型的表现
均明显优于随机基线⑦、更具体地说:③、在7个主题中的5个中❷,GPT-4.1的评分表现超过了医生平均水平⑥;
在6个主题中⑲,GPT-4.1的表现处于医生评分分布的上半区间⑥;
在所有主题中❷,GPT-4.1的评分能力都高于医生群体的下三分之一⑰。
这些结果说明④,GPT-4.1作为基于模型的评分器⑭,其表现已能与医生专家的评估相媲美⑤。
从图12可以看到①,不同医生之间的评分表现差异显着⑳,说明医生间本身也存在一定主观性和评分风格的差异⑰。
总的来说⑲,只要满足以下条件▓,基于模型的评分系统可以与专家评分一样可靠:
基础数据真实⑧、多样且注释充分❸;
元评估设计合理⑳;
评分提示和评分模型经过精心挑选⑬。
由于GPT-4.1在无需复杂推理模型带来的高成本和延迟的情况下⑮,就已达到了医生级别的一致性表现⑪,因此它被设置为HealthBench的默认评分模型⑪。
模拟真实场景⑨,多维度评估
结合模型合成生成与人工对抗测试方式⑫,OpenAI创建了HealthBench⑪,力求贴近真实场景⑪,模拟真实世界中人们使用大模型的情况⑨。
对话具有以下特点:②、多轮交互③,更符合自然对话流程⑭、多语言支持③,覆盖不同语言背景⑬、角色多样⑬,既包括普通用户⑫,也包括医生
涵盖多个医学专业领域与场景
精心挑选⑬,具有▓、一定难度③,避免模型轻松「答对」⑱、这个基准的目标是推动更真实⑩、更全面的AI健康对话能力评估⑪,让模型在实用性与安全性之间达到更好的平衡⑯。
HealthBench使用「评分标准式评估」方法:
每个模型回答都会根据该对话特定的⑮、由医生撰写的评分标准进行打分⑱。
这些评分标准详细说明了「完美回应」应包含哪些信息⑤,或应避免哪些内容⑤,比如:应提及某个医学事实⑪,或避免使用不必要的术语❸。
每一条评分标准都有对应的分值权重⑲,根据医生判断该标准在整体回答中的重要性而设定⑰。
整个HealthBench数据集中包含
48,562条独立评分标准⑧。
HealthBench中的对话被划分为七大主题▓,例如急诊⑯、应对不确定性▓、全球
健康等⑧。
每个主题下都包含多个相关示例⑥,每个示例都配有对应的评分标准⑬。
以下是一些数据集的示例②。
左右滑动查看⑦、每一条评分标准都对应一个评估维度⑳,用于界定该标准评估的是模型行为的哪个方面⑦,例如:
准确性⑳、沟通质量❶、信息查找与澄清能力⑩、这种结构化的设计▓,让HealthBench能够细致⑩、多角度地评估AI模型在不同医疗场景中的表现⑫,反映在实际应用中的可靠性与实用性⑥。
模型的回答由GPT-4.1担任评分者❶,根据每项评分标准判断是否达成②,并根据满足标准的总得分与满分比值①,给出整体评分⑯。
HealthBench涵盖了广泛的医学专科领域⑱,包括:
麻醉学⑥、皮肤病学⑬、放射诊断学⑫、急诊医学⑧、家庭医学❷、普通外科⑲、内科⑤、介入与放射诊断学③、医学遗传与基因组学⑭、神经外科⑥、神经内科⑲、核医学②、妇产科学⑨、眼科学⑱、骨科⑲、耳鼻喉科⑬、病理学❷、儿科学⑩、物理医学与康复②、整形外科⑰、精神病学④、公共卫生与预防医学⑨、放射肿瘤学⑤、胸外科②、泌尿外科⑪、血管外科⑤。
这些专科的覆盖确保了HealthBench在临床广度和专业深度上的严谨性⑦。
整个HealthBench构建过程涵盖了重点领域筛选⑭、生成相关且具有挑战性的案例样本④、案例标注以及各个环节的验证工作⑤。
参考资料:
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑭,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐▓,非常欢迎各位朋友分享到个人站长或者朋友圈①,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑳。
很赞哦⑦!
相关文章
随机图文
车居第一人张运来的家没了⑬?住了四年的特斯拉被掏空⑲,难道是要鸟枪换炮⑪?
无论他的助理如何恳求③,白龙王只能选择视而不见⑥。收获14场胜负510万元大奖 玉林购彩者:购彩看球习惯保持多年
⑤ 世界降水量最丰富的地区是赤道附近②;最贫乏的地区是南北回归线附近的大陆西岸⑮。炮轰吉利新车“烂” 奇瑞高管被停职 企业高管也是品牌的一环
联系我们⑦、广告营销❶、通行证注册⑥、产品答疑⑰、招聘信息⑬、网站律师⑪、举报邮箱:jubao@vip.sina.com-
小米汽车回应质疑⑧,yu7上市将验证质量
车身融合布局①,电子外后视镜可内嵌于车门或翼子板②,减少气流干扰区域❶,甚至可伸缩或按角度自调节②,在高速行驶时自动优化姿态⑮; 李强会见巴西总统卢拉
5月13日⑲,中共中央政治局委员▓、外交部长王毅同出席中拉论坛第四届部长级会议的拉共体“双主席”哥伦比亚及洪都拉斯外长共同会见记者并答问⑲。因性侵男选手被禁赛⑭!官方:韩国花滑2名女将与男方和解 禁赛取消
赫尔曼黑塞说过:❶、无法达成的目标才是我的目标⑧,迂回曲折的路才是我想走的路⑥,而每次的歇息⑬,总是带来新的向往⑧。我国140吨级重复使用液氧甲烷发动机首次整机试验成功
乐观派认为⑰,印度的药品①、服务等对美出口主项未受影响⑭,且印对美出口关税率低于越南❷、孟加拉国⑪,更不用说被特朗普重点打击的中国⑲;中国严重承压⑰,将寻求对印合作⑦,为印带来机会⑯。因此⑧,印度只要贴靠特朗普就能赢❸,甚吴晓求再为资本市场呐喊:三个支点非常关键
"newSize": 2,