您现在的位置是:网站首页>中国足球中国足球
575118k168电玩城
崔以寒 2025-05-14 【中国足球】 8956 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑥,大模型推理训练可能就会撞墙③。
以上结论来自Epoch AI⑳。
这是一个专注于人工智能研究和基准测试的非营利组织❷,之前名动一时的FrontierMath基准测试就出自它家❷。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑭,那么推理训练所需的算力可能会大幅收敛①。
就像DeepSeek-R1之于OpenAI o1-preview那样⑲。
看了这个结果⑭,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑰,那为啥咱不探索模块化架构或针对特定任务的专用模型呢▓?“效率”比“研究过剩”更重要⑦!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑮。
和o3❷、DeepSeek-R1等一样⑤,它们从传统的大语言模型发展而来⑲,在预训练阶段使用了大量人类数据进行训练⑱,然后在强化学习阶段⑬,根据解题的反馈来改进自己的推理能力⑥。
虽然推理模型已经成为了很多AI使用者的实用帮手⑭,但关于推理训练所需算力的公开信息非常少⑳,大概只有以下这些:
OpenAI表示④,与o1相比③,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑦。
OpenAI没有公开o1❶、o3的具体细节⑭,但可以从DeepSeek-R1❶、微软Phi-4-reasoning⑩、英伟达Llama-Nemotron等其它推理模型▓。它们所需的推理训练阶段算力耕地❷,但可以根据它们进行推演⑲。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑨。
然后就没有然后了……⑫、根据现有的信息和资料❷,Epoch AI进行了总结和分析⑰。
首先⑱,OpenAI公开过这样一张图表⑨,上面展示了o3和o1在AIME基准测试中的表现⑱,以及两者在推理训练阶段可能所需的算力的对比——
可以看到②,终版o3花费的算力是o1的10倍⑪。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑨。”
Epoch AI罗列了这一猜测的证据③。
第一⑧,初代o1耗费的算力比o3低四个数量级⑮,其在AIME上的得分约为25%❷。
如果x轴表示总计算量⑤,“不太可能呈现这种情况”❶。
第二③,如果x轴表示的是所需总算力▓,这张图意义就不大了①。
因为这就意味着OpenAI训练了N个版本的o1⑲,且预训练阶段非常不完整⑦。
依照Epoch AI的猜测⑩,如果o3在推理结算花费的算力是o1的10倍⑭,这意味着什么⑰?
由于很多推理模型背后团队都学精了②,并不公开训练方法和过程⑲,所以只能从现有公开资料里去寻找答案⑧。
比如DeepSeek-R1⑯。
Epoch AI此前估算⑨,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑱,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑮。
虽然只是一种估算⑯,但R1在各个榜单上的得分和o1非常接近④,“因此可以用它来为o1所需算力设定一个baseline”⑥。
比如英伟达的Llama-Nemotron Ultra⑤,它在各个基准上的分数与DeepSeek-R1和o1相当⑳。
它是在DeepSeek-R1生成的数据上训练的⑫。
公开信息显示⑤,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑰,约等于1e23 FLOP⑧。这甚至低于它的原始基础模型预训练成本的1%④。
再比如微软的Phi-4-reasoning⑯。
它是在o3-mini生成的数据上训练的⑬。
Phi-4-reasoning在推理阶段规模更小⑱,成本低于1e20 FLOP②,可能是预训练所需算力成本的0.01%⑳。
值得注意的是⑫,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑰。
咱们再来看看今年1月DeepSeek-R1发布后⑪,Anthropic的CEODario Amodei写的一篇文章⑮,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑥,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑲,花费从10万美元提高到100万美元就能带来巨大收益⑲。如今⑥,各公司正迅速加快步伐❷,将第二阶段的规模扩大到数亿乃至数十亿美元⑳。有一点必须重视⑪,那就是我们正处于一个独特的转折点上⑳。
当然了▓,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑦。
但可以清晰了解⑮,截至今年1月⑪,他认为推理模型的训练成本远低于“数千万美元”⑰,大于1e26 FLOP❶。
Epoch AI总结道——
上述的预估和线索指向一个事实④,那就是目前最前沿的推理模型⑨,比如o1⑪,甚至o3❸,它们的推理训练规模都还没见顶⑦,还能继续scalable⑪。
但1年内可能就撞墙了❸、换句话说❷,如果推理训练还没见顶⑰,那么推理模型还是有潜力在短期内快速实现能力拓展的⑱。
这就意味着❸,推理模型还很能打❷,潜力巨大⑭。
就像OpenAI展示出的下图⑥,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑳。
这表明①,至少在数学和编程任务上⑫,推理模型的性能随着推理训练的扩展而增强⑧,就像预训练的scaling law一样⑫。
行文至此处④,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑦,那么其带来的增长率将收敛⑪,大概是每年增长4倍⑪。
绝不会像o1推出后4个月就有了o3那样⑦,保持几个月增长10倍的态势⑳。
因此❷,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑦,这种增长率可能在一⑨、两年内减缓⑭,甚至撞墙⑳。
然鹅⑯,想要扩展推理模型并不是那么简单的②。
单单是数据不够这一项④,就可能导致其停滞不前⑯。
大家也都还不清楚❷,除了数学③、编程领域②,推理训练是否能泛化到其
它❶、规律性没那么强的领域⑭。
但可以肯定的是⑮,随着推理模型的训练越来越成熟▓,所有推理模型所需的成本可能都趋同④。
虽然研究成本的高低并不影响算力和性能之间的关系①,但如果相关研究保持“花钱如流水”的状态④,那么推理模型可能无法达到人们心中预期的最佳水平❸。
另一方面⑯,即使所需算力的增长速度放缓⑥,推理模型也可能持续进化⑩,就像R1那样❶。
换句话说③,不只有数据或算法创新能推动推理模型的进步②,算力大增也是推动推理模型进步的关键因素❸。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑩,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑰,非常欢迎各位朋友分享到个人站长或者朋友圈⑪,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑮。
很赞哦⑦!
相关文章
随机图文
这就是超巨⑬!爱德华兹第三节半节6中5&3记三分轰下14分
杜特尔特在狱中赢得市长选举希腊专家点破美国霸权逻辑:搅乱世界④,才能“乱中取胜”
当下“外卖三国杀”其实并不新鲜⑳。2009年⑤,国内最早的外卖平台饿了么上线⑦,2013年和2014年⑧,美团外卖与百度外卖登场⑤。互联网公司在团购后急于寻找新增量⑧,拉开外卖“烧钱大战”⑭。在大额红包与补贴的刺激特巴斯:皇萨竞100分夺冠说明西甲无竞争力 欧超本质是精英寡头化
技术的硬核升级之外⑭,更藏着对“人”的细腻洞察⑯。当许多社区跟风推广人脸识别门禁时⑩,金茂服务却选择保留传统门禁卡⑮。“小区里有千余名老年人⑥,他们习惯刷卡❸,有的甚至没有智能手机⑧。”为此⑫,物业团队逐户走访⑤,为老塔图姆受伤后①,詹姆斯社媒发声
全国最能吃的省市竟是它姆本扎:很高兴我们一起赢下了辽宁德比⑧,满意大家的表现
核心优势❶、:现代悦纳的外观造型时尚动感④,具有较高的辨识度⑪。车辆的配置较为丰富⑱,配备了诸如多功能方向盘⑱、倒车雷达等实用配置❷。此外⑦,它的售价相对较低⑳,在 10 万左右的预算内能够提供较多的选择④。适用人群:-
淘宝新功能⑯!屏蔽高退款人群
一是进展丝滑▓,二是男女主对人设的展开与铺垫都超越一般古偶的水平❷。 季后赛球员RAT榜:华子&布伦森&约基奇前三 掘金&绿军皆三人上榜
特别声明:以上文章内容仅代表作者本人观点④,不代表新浪网观点或立场⑧。如有关于作品内容⑭、版权或其它问题请于作品发表后的30日内与新浪网联系⑬。央视:巴西足协主席力挺安切洛蒂⑲,球迷表态谨慎乐观
2-王钰栋⑤、吧友投票得票率36%③,主播&编辑投票率25%⑬,综合得票率30.5%