您现在的位置是:网站首页>房产房产
森林舞会电玩城下载
薛曼柔 2025-05-14 【房产】 5598 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑬,大模型推理训练可能就会撞墙⑰。
以上结论来自Epoch AI❷。
这是一个专注于人工智能研究和基准测试的非营利组织⑩,之前名动一时的FrontierMath基准测试就出自它家⑨。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」④,那么推理训练所需的算力可能会大幅收敛⑬。
就像DeepSeek-R1之于OpenAI o1-preview那样⑮。
看了这个结果⑦,有围观网友都着急了:
既然在o3基础上再scaling非常困难④,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑱?“效率”比“研究过剩”更重要⑰!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑲。
和o3⑬、DeepSeek-R1等一样⑫,它们从传统的大语言模型发展而来④,在预训练阶段使用了大量人类数据进行训练②,然后在强化学习阶段①,根据解题的反馈来改进自己的推理能力⑯。
虽然推理模型已经成为了很多AI使用者的实用帮手②,但关于推理训练所需算力的公开信息非常少❶,大概只有以下这些:
OpenAI表示⑦,与o1相比⑨,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑧。
OpenAI没有公开o1⑮、o3的具体细节⑦,但可以从DeepSeek-R1⑤、微软Phi-4-reasoning⑬、英伟达Llama-Nemotron等其它推理模型⑳。它们所需的推理训练阶段算力耕地❶,但可以根据它们进行推演⑲。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑦。
然后就没有然后了……⑪、根据现有的信息和资料⑳,Epoch AI进行了总结和分析⑩。
首先⑫,OpenAI公开过这样一张图表⑤,上面展示了o3和o1在AIME基准测试中的表现⑦,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑳,终版o3花费的算力是o1的10倍⑧。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑩。”
Epoch AI罗列了这一猜测的证据②。
第一⑳,初代o1耗费的算力比o3低四个数量级❸,其在AIME上的得分约为25%⑱。
如果x轴表示总计算量⑧,“不太可能呈现这种情况”④。
第二⑬,如果x轴表示的是所需总算力⑪,这张图意义就不大了⑮。
因为这就意味着OpenAI训练了N个版本的o1⑫,且预训练阶段非常不完整⑫。
依照Epoch AI的猜测⑩,如果o3在推理结算花费的算力是o1的10倍⑰,这意味着什么①?
由于很多推理模型背后团队都学精了④,并不公开训练方法和过程⑬,所以只能从现有公开资料里去寻找答案⑨。
比如DeepSeek-R1⑤。
Epoch AI此前估算⑥,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑰,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑨。
虽然只是一种估算▓,但R1在各个榜单上的得分和o1非常接近④,“因此可以用它来为o1所需算力设定一个baseline”⑦。
比如英伟达的Llama-Nemotron Ultra④,它在各个基准上的分数与DeepSeek-R1和o1相当⑭。
它是在DeepSeek-R1生成的数据上训练的⑫。
公开信息显示⑱,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时④,约等于1e23 FLOP⑨。这甚至低于它的原始基础模型预训练成本的1%⑫。
再比如微软的Phi-4-reasoning⑳。
它是在o3-mini生成的数据上训练的⑫。
Phi-4-reasoning在推理阶段规模更小⑬,成本低于1e20 FLOP⑧,可能是预训练所需算力成本的0.01%⑧。
值得注意的是❸,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑲。
咱们再来看看今年1月DeepSeek-R1发布后⑩,Anthropic的CEODario Amodei写的一篇文章⑮,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式④,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑯,花费从10万美元提高到100万美元就能带来巨大收益③。如今▓,各公司正迅速加快步伐⑭,将第二阶段的规模扩大到数亿乃至数十亿美元⑨。有一点必须重视⑧,那就是我们正处于一个独特的转折点上⑫。
当然了⑰,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据③。
但可以清晰了解⑲,截至今年1月⑳,他认为推理模型的训练成本远低于“数千万美元”⑰,大于1e26 FLOP⑭。
Epoch AI总结道——
上述的预估和线索指向一个事实❷,那就是目前最前沿的推理模型⑯,比如o1❷,甚至o3❶,它们的推理训练规模都还没见顶❶,还能继续scalable⑬。
但1年内可能就撞墙了⑥、换句话说❸,如果推理训练还没见顶❸,那么推理模型还是有潜力在短期内快速实现能力拓展的▓。
这就意味着⑥,推理模型还很能打①,潜力巨大⑨。
就像OpenAI展示出的下图②,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑥。
这表明②,至少在数学和编程任务上▓,推理模型的性能随着推理训练的扩展而增强⑰,就像预训练的scaling law一样⑨。
行文至此处⑱,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑩,那么其带来的增长率将收敛▓,大概是每年增长4倍⑬。
绝不会像o1推出后4个月就有了o3那样❷,保持几个月增长10倍的态势❷。
因此⑥,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级▓,这种增长率可能在一❶、两年内减缓⑨,甚至撞墙⑮。
然鹅④,想要扩展推理模型并不是那么简单的⑤。
单单是数据不够这一项⑤,就可能导致其停滞不前❸。
大家也都还不清楚④,除了数学⑧、编程领域①,推理训练是否能泛化到其
它❷、规律性没那么强的领域⑤。
但可以肯定的是⑯,随着推理模型的训练越来越成熟⑨,所有推理模型所需的成本可能都趋同⑮。
虽然研究成本的高低并不影响算力和性能之间的关系▓,但如果相关研究保持“花钱如流水”的状态⑮,那么推理模型可能无法达到人们心中预期的最佳水平❸。
另一方面③,即使所需算力的增长速度放缓⑪,推理模型也可能持续进化❶,就像R1那样⑥。
换句话说⑥,不只有数据或算法创新能推动推理模型的进步❸,算力大增也是推动推理模型进步的关键因素①。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑪,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐④,非常欢迎各位朋友分享到个人站长或者朋友圈❶,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑫。
很赞哦⑦!
相关文章
随机图文
印度退役中将:巴基斯坦人更擅长战斗▓,宁愿和中国作战而非巴基斯坦
储能业务发展❷、公司已成立储能研究中心⑩,通过合作建立了储能相关技术储备和产品④。围绕分布式户用⑮、分布式商用以及集中式光伏电站⑭,推出了BlueStar户储储能系统⑲、BluePlanet工商业储能系统❷、Blu穆塞蒂2-0淘汰梅德韦杰夫⑨,晋级罗马大师赛八强
普通人需要谨慎跟风的好身材炫耀机——紧身吊带裙⑧,Jennie很爱穿④。新华社消息|新华社推出“新时代中国调研行之文化中华”第二阶段报道
二⑱、选秀权组合④、篮网与爵士合计拥有22个首轮签可用于字母哥的交易⑥。但问题在于⑪,若交易真的发生⑦,布鲁克林和犹他是否仍有足够的资产和球员来围绕这位超级球星建队⑭。中美联合声明生效倒计时⑭!为何让欧洲②、日韩澳紧张⑬?
5月12日19时58分▓,来自美国俄亥俄州的采购客户Ben❸,在《中美日内瓦经贸会谈联合声明》宣布后⑳,第一时间给苏州贝昂智能科技股份有限公司联合创始人章燕发来了信息⑤。配文我伤了但没死▓!霍福德妹妹:凯尔特人明天还有一场比赛要赢
养成良好的防震备灾习惯❸,了解所在地的地震灾害背景和特点⑮,根据当地防震要求⑧,做好防震应急准备⑩。主要包括:一是准备地震应急包⑧,储备食品⑪、饮用水③、急救药品用品⑮、手电筒⑦、声光报警发生器等必要的地震应急物品②,摆德天空:拜仁正在敲定免签若纳坦-塔的最终细节⑤,有信心完成交易
现在来看②,线下实体经济还是有很大机会的⑱。成都蓉城2025赛季比赛日Vlog12——成都蓉城4
北京时间5月13日❷,据《世界体育报》援引Globoesporte的报道❶,安切洛蒂在巴西的薪资将是他的前任多里瓦尔-儒尼奥尔和蒂特的两倍⑬。北京迎来冰雹⑧、雷电与大风天气
阅读下一篇④、返回网易首页⑧、下载网易新闻客户端