您现在的位置是:网站首页>NBANBA
送20元金币电玩城可提现
冯平安 2025-05-14 【NBA】 4912 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑨,大模型推理训练可能就会撞墙▓。
以上结论来自Epoch AI❷。
这是一个专注于人工智能研究和基准测试的非营利组织⑥,之前名动一时的FrontierMath基准测试就出自它家③。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑪,那么推理训练所需的算力可能会大幅收敛⑧。
就像DeepSeek-R1之于OpenAI o1-preview那样⑯。
看了这个结果❷,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑥,那为啥咱不探索模块化架构或针对特定任务的专用模型呢▓?“效率”比“研究过剩”更重要⑨!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑳。
和o3①、DeepSeek-R1等一样⑤,它们从传统的大语言模型发展而来③,在预训练阶段使用了大量人类数据进行训练▓,然后在强化学习阶段①,根据解题的反馈来改进自己的推理能力⑧。
虽然推理模型已经成为了很多AI使用者的实用帮手⑧,但关于推理训练所需算力的公开信息非常少⑱,大概只有以下这些:
OpenAI表示⑳,与o1相比⑭,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑩。
OpenAI没有公开o1⑳、o3的具体细节⑳,但可以从DeepSeek-R1⑤、微软Phi-4-reasoning⑩、英伟达Llama-Nemotron等其它推理模型⑫。它们所需的推理训练阶段算力耕地⑤,但可以根据它们进行推演⑤。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑯。
然后就没有然后了……⑱、根据现有的信息和资料③,Epoch AI进行了总结和分析⑤。
首先⑯,OpenAI公开过这样一张图表⑨,上面展示了o3和o1在AIME基准测试中的表现②,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑮,终版o3花费的算力是o1的10倍①。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑮。”
Epoch AI罗列了这一猜测的证据①。
第一⑥,初代o1耗费的算力比o3低四个数量级⑤,其在AIME上的得分约为25%③。
如果x轴表示总计算量⑭,“不太可能呈现这种情况”⑨。
第二④,如果x轴表示的是所需总算力⑧,这张图意义就不大了❶。
因为这就意味着OpenAI训练了N个版本的o1⑥,且预训练阶段非常不完整⑳。
依照Epoch AI的猜测⑪,如果o3在推理结算花费的算力是o1的10倍❷,这意味着什么⑫?
由于很多推理模型背后团队都学精了⑭,并不公开训练方法和过程❷,所以只能从现有公开资料里去寻找答案⑱。
比如DeepSeek-R1④。
Epoch AI此前估算⑫,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑭,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑮。
虽然只是一种估算⑧,但R1在各个榜单上的得分和o1非常接近⑲,“因此可以用它来为o1所需算力设定一个baseline”③。
比如英伟达的Llama-Nemotron Ultra⑨,它在各个基准上的分数与DeepSeek-R1和o1相当⑱。
它是在DeepSeek-R1生成的数据上训练的⑫。
公开信息显示⑯,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时③,约等于1e23 FLOP⑭。这甚至低于它的原始基础模型预训练成本的1%⑳。
再比如微软的Phi-4-reasoning⑬。
它是在o3-mini生成的数据上训练的⑦。
Phi-4-reasoning在推理阶段规模更小⑨,成本低于1e20 FLOP⑭,可能是预训练所需算力成本的0.01%⑱。
值得注意的是④,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑨。
咱们再来看看今年1月DeepSeek-R1发布后①,Anthropic的CEODario Amodei写的一篇文章⑪,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式▓,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑩,花费从10万美元提高到100万美元就能带来巨大收益⑧。如今⑨,各公司正迅速加快步伐①,将第二阶段的规模扩大到数亿乃至数十亿美元⑦。有一点必须重视⑳,那就是我们正处于一个独特的转折点上⑱。
当然了⑲,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑪。
但可以清晰了解⑪,截至今年1月⑤,他认为推理模型的训练成本远低于“数千万美元”❷,大于1e26 FLOP⑬。
Epoch AI总结道——
上述的预估和线索指向一个事实⑨,那就是目前最前沿的推理模型⑤,比如o1⑨,甚至o3⑫,它们的推理训练规模都还没见顶❸,还能继续scalable⑤。
但1年内可能就撞墙了❷、换句话说⑮,如果推理训练还没见顶⑫,那么推理模型还是有潜力在短期内快速实现能力拓展的③。
这就意味着③,推理模型还很能打⑩,潜力巨大⑭。
就像OpenAI展示出的下图⑨,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑥。
这表明⑬,至少在数学和编程任务上⑩,推理模型的性能随着推理训练的扩展而增强❷,就像预训练的scaling law一样②。
行文至此处④,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶❸,那么其带来的增长率将收敛⑭,大概是每年增长4倍⑭。
绝不会像o1推出后4个月就有了o3那样⑰,保持几个月增长10倍的态势⑫。
因此⑰,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑦,这种增长率可能在一②、两年内减缓⑲,甚至撞墙⑥。
然鹅⑦,想要扩展推理模型并不是那么简单的⑫。
单单是数据不够这一项⑤,就可能导致其停滞不前⑳。
大家也都还不清楚②,除了数学⑬、编程领域❶,推理训练是否能泛化到其
它⑱、规律性没那么强的领域⑧。
但可以肯定的是③,随着推理模型的训练越来越成熟⑪,所有推理模型所需的成本可能都趋同①。
虽然研究成本的高低并不影响算力和性能之间的关系④,但如果相关研究保持“花钱如流水”的状态❷,那么推理模型可能无法达到人们心中预期的最佳水平⑥。
另一方面❶,即使所需算力的增长速度放缓⑳,推理模型也可能持续进化④,就像R1那样⑲。
换句话说⑱,不只有数据或算法创新能推动推理模型的进步❶,算力大增也是推动推理模型进步的关键因素⑫。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑪,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐❸,非常欢迎各位朋友分享到个人站长或者朋友圈⑬,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”①。
很赞哦❸!
相关文章
随机图文
《华尔街日报》社论:特朗普败了⑫,这更像是投降
车内配备IMOS 4.0智慧座舱③,行业首次AI Agent上车⑯,语音智能化体验提升明显⑫。车内还配备有独有的雨夜模式2.0及DZT动态区域追踪⑭,夜间雨天也能有清晰视线⑥。天空:曼城就维尔茨转会达口头协议②,药厂不想将其出售给拜仁
正是因为这个专业的特性▓,和我个人的兴趣❶,我始终觉得只是做个原型系统⑥,总是差个劲儿⑧。⑯,我很想把它真正用起来⑱。要真正用起来④,光靠学校的力量是不够的⑳,必须要靠产业⑨,靠整个社会⑲。以安全为盾⑤,以价值为矛⑰,风云A9L冲击高端豪华市场
适合追求驾驶质感和续航真实性的年轻消费者③,他们对车辆的操控性能有一定要求▓,同时也注重安全配置⑮。比如刚参加工作不久⑭,有一定经济基础且热爱驾驶的上班族⑨。欧洲电动汽车销量出现复苏
这些指标针对聊天⑧、安全⑮、代码和数学这四个领域进行计算⑮,从而得出特定领域的指标①,如聊天普通准确率或安全困难准确率③。-
京东物流一季度净利润同比增13.4%
这是一个专注于人工智能研究和基准测试的非营利组织⑩,之前名动一时的FrontierMath基准测试就出自它家⑥。 民营经济发展一线观察·民企先锋|张大志:将初心扎根在黑土地上
外观可爱吸睛:采用了圆润可爱的设计风格①,整车造型萌趣十足⑫,深受女性消费者喜爱❸。同时⑯,车内的内饰设计也充满了温馨感⑳,营造出舒适的驾乘环境⑯。丰田净利润抵7大中国车企总和近三倍⑮,中国车企该紧张么⑧?
湖人的第22顺位签要交给老鹰⑦,他们的第55顺位签如果保留的话▓,选秀网站推荐阿马里-威廉姆斯⑥。连续三年销量下滑⑩,全球销冠丰田把打造爆款车的大权给了四位中国人
原视频选择:❸、马塞洛&卡洛斯:卡洛斯⑤、卡洛斯&卡卡:卡洛斯⑰、里瓦尔多&卡洛斯:里瓦尔多