您现在的位置是:网站首页>娱乐娱乐
44330hy电玩城
马尔岚 2025-05-14 【娱乐】 1850 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑱,大模型推理训练可能就会撞墙❷。
以上结论来自Epoch AI⑰。
这是一个专注于人工智能研究和基准测试的非营利组织⑦,之前名动一时的FrontierMath基准测试就出自它家⑱。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑳,那么推理训练所需的算力可能会大幅收敛⑫。
就像DeepSeek-R1之于OpenAI o1-preview那样▓。
看了这个结果⑰,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑱,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑳?“效率”比“研究过剩”更重要⑰!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑱。
和o3③、DeepSeek-R1等一样①,它们从传统的大语言模型发展而来②,在预训练阶段使用了大量人类数据进行训练⑨,然后在强化学习阶段⑧,根据解题的反馈来改进自己的推理能力⑨。
虽然推理模型已经成为了很多AI使用者的实用帮手⑭,但关于推理训练所需算力的公开信息非常少⑤,大概只有以下这些:
OpenAI表示⑧,与o1相比⑪,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑥。
OpenAI没有公开o1▓、o3的具体细节⑦,但可以从DeepSeek-R1❶、微软Phi-4-reasoning④、英伟达Llama-Nemotron等其它推理模型❸。它们所需的推理训练阶段算力耕地▓,但可以根据它们进行推演⑤。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑫。
然后就没有然后了……⑬、根据现有的信息和资料⑬,Epoch AI进行了总结和分析⑫。
首先⑭,OpenAI公开过这样一张图表❸,上面展示了o3和o1在AIME基准测试中的表现④,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑭,终版o3花费的算力是o1的10倍⑮。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力▓。”
Epoch AI罗列了这一猜测的证据⑩。
第一⑮,初代o1耗费的算力比o3低四个数量级⑦,其在AIME上的得分约为25%⑪。
如果x轴表示总计算量⑯,“不太可能呈现这种情况”⑬。
第二③,如果x轴表示的是所需总算力⑤,这张图意义就不大了⑧。
因为这就意味着OpenAI训练了N个版本的o1③,且预训练阶段非常不完整⑲。
依照Epoch AI的猜测⑰,如果o3在推理结算花费的算力是o1的10倍①,这意味着什么❷?
由于很多推理模型背后团队都学精了❷,并不公开训练方法和过程⑩,所以只能从现有公开资料里去寻找答案②。
比如DeepSeek-R1⑨。
Epoch AI此前估算⑤,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP④,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑯。
虽然只是一种估算❸,但R1在各个榜单上的得分和o1非常接近⑮,“因此可以用它来为o1所需算力设定一个baseline”④。
比如英伟达的Llama-Nemotron Ultra⑳,它在各个基准上的分数与DeepSeek-R1和o1相当⑳。
它是在DeepSeek-R1生成的数据上训练的⑩。
公开信息显示⑪,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时④,约等于1e23 FLOP⑭。这甚至低于它的原始基础模型预训练成本的1%④。
再比如微软的Phi-4-reasoning❸。
它是在o3-mini生成的数据上训练的②。
Phi-4-reasoning在推理阶段规模更小⑨,成本低于1e20 FLOP⑨,可能是预训练所需算力成本的0.01%①。
值得注意的是⑧,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调④。
咱们再来看看今年1月DeepSeek-R1发布后④,Anthropic的CEODario Amodei写的一篇文章②,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑰,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑦,花费从10万美元提高到100万美元就能带来巨大收益⑫。如今⑨,各公司正迅速加快步伐⑯,将第二阶段的规模扩大到数亿乃至数十亿美元⑥。有一点必须重视⑯,那就是我们正处于一个独特的转折点上❸。
当然了⑪,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑨。
但可以清晰了解❷,截至今年1月⑩,他认为推理模型的训练成本远低于“数千万美元”⑳,大于1e26 FLOP⑭。
Epoch AI总结道——
上述的预估和线索指向一个事实⑧,那就是目前最前沿的推理模型⑨,比如o1⑪,甚至o3③,它们的推理训练规模都还没见顶⑬,还能继续scalable⑩。
但1年内可能就撞墙了❸、换句话说⑳,如果推理训练还没见顶⑫,那么推理模型还是有潜力在短期内快速实现能力拓展的⑱。
这就意味着⑰,推理模型还很能打⑯,潜力巨大④。
就像OpenAI展示出的下图⑨,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑩。
这表明①,至少在数学和编程任务上⑰,推理模型的性能随着推理训练的扩展而增强④,就像预训练的scaling law一样▓。
行文至此处❷,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶❸,那么其带来的增长率将收敛⑳,大概是每年增长4倍④。
绝不会像o1推出后4个月就有了o3那样⑪,保持几个月增长10倍的态势❸。
因此②,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑦,这种增长率可能在一⑫、两年内减缓⑬,甚至撞墙⑦。
然鹅③,想要扩展推理模型并不是那么简单的⑤。
单单是数据不够这一项⑪,就可能导致其停滞不前②。
大家也都还不清楚⑮,除了数学⑯、编程领域⑰,推理训练是否能泛化到其
它⑲、规律性没那么强的领域⑱。
但可以肯定的是⑲,随着推理模型的训练越来越成熟⑰,所有推理模型所需的成本可能都趋同❷。
虽然研究成本的高低并不影响算力和性能之间的关系⑨,但如果相关研究保持“花钱如流水”的状态❷,那么推理模型可能无法达到人们心中预期的最佳水平⑤。
另一方面⑯,即使所需算力的增长速度放缓⑬,推理模型也可能持续进化⑲,就像R1那样⑳。
换句话说⑫,不只有数据或算法创新能推动推理模型的进步⑦,算力大增也是推动推理模型进步的关键因素⑬。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑧,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑫,非常欢迎各位朋友分享到个人站长或者朋友圈②,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”②。
很赞哦⑲!
相关文章
随机图文
-
2025年中东沙特新能源电动车展JIMS 2025
H股类别股东会召开的日期时间:2025年6月11日 14点30分 G4勇士输森林狼②,赛后4坏消息①!巴特勒被克制⑳,配角+防守辣眼⑦!
立夏不久▓,绿意中已感暑气渐浓⑦。在安徽省六安市金寨县燕子河镇龙马村⑩,中国科学技术大学光电农业团队开垦的试验田里⑭,芽球菊苣正茁壮生长④。作为一种喜阴的高附加值蔬菜④,芽球菊苣被安排种植在两种不同光照强度的露天-
怎么回事⑫?摩西 穆迪首轮系列赛场均10分 但次轮至今合计6分
全球贸易研究倡议创始人斯里瓦斯塔瓦表示④,这种转变可能会令“中国+1”战略受阻⑧,该战略促使企业将制造业转移到印度❶、越南和墨西哥❶。他在报告中指出:“虽然低投资的装配业务目前可能在印度继续存在❸,但更深层次的 -
35岁掌舵5亿美元⑰,硅谷女投资人10年投出6家科技独角兽
门店销售额较为可观⑯、对于金店最近的销量⑳,多位店员告诉中国证券报记者④,黄金价格目前位于高位⑦,一件几克的饰品算上工本费①,动辄就要近万元⑥。 凌晨3点半皇马尊严之战:9人受伤1人停赛②,若不胜=巴萨夺冠
其实③,今年年初的小红书大对账已经证明了美国政客口中的“全球最大消费市场”的水分究竟有多大⑮,在赚美元花美元的情况下⑲,中美两国的真实物价远不是1:7的汇率所呈现的那样⑭。法媒:巴黎圣日耳曼没有与里昂就谢尔基的转会展开谈判的计划
游河北⑩,How好玩丨科技赋能文化 衡水湖沉浸式实景演出打造文旅新名片再见巴斯光年⑪!罗马诺:33岁巴斯克斯今夏离队⑲,结束18年皇马生涯
依次是:视角移动左上④、左下❸、右上⑧、右下武磊祝福哈维-洛佩斯退役快乐:永远不会忘记一起战斗的日子
占地面积约180亩❸、初中可提供住宿⑯、北京第四实验学校坐落于北京大兴国际机场临空经济区榆垡片区⑱,位于祥和街与榆垡东路交叉口⑰。占地面积约180亩❷,相当于17个标准足球场③。