您现在的位置是:网站首页>国内国内
大富豪电玩城官网
覃笑天 2025-05-14 【国内】 0946 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑨,大模型推理训练可能就会撞墙⑯。
以上结论来自Epoch AI⑬。
这是一个专注于人工智能研究和基准测试的非营利组织⑪,之前名动一时的FrontierMath基准测试就出自它家②。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」③,那么推理训练所需的算力可能会大幅收敛⑧。
就像DeepSeek-R1之于OpenAI o1-preview那样①。
看了这个结果⑩,有围观网友都着急了:
既然在o3基础上再scaling非常困难▓,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑨?“效率”比“研究过剩”更重要⑨!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑰。
和o3⑧、DeepSeek-R1等一样⑮,它们从传统的大语言模型发展而来⑳,在预训练阶段使用了大量人类数据进行训练⑧,然后在强化学习阶段⑱,根据解题的反馈来改进自己的推理能力⑲。
虽然推理模型已经成为了很多AI使用者的实用帮手⑧,但关于推理训练所需算力的公开信息非常少⑬,大概只有以下这些:
OpenAI表示⑭,与o1相比⑦,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑦。
OpenAI没有公开o1⑮、o3的具体细节⑥,但可以从DeepSeek-R1④、微软Phi-4-reasoning⑤、英伟达Llama-Nemotron等其它推理模型⑳。它们所需的推理训练阶段算力耕地⑩,但可以根据它们进行推演⑱。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章③。
然后就没有然后了……⑨、根据现有的信息和资料❸,Epoch AI进行了总结和分析❷。
首先⑳,OpenAI公开过这样一张图表⑳,上面展示了o3和o1在AIME基准测试中的表现⑧,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑫,终版o3花费的算力是o1的10倍⑲。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❶。”
Epoch AI罗列了这一猜测的证据⑩。
第一⑭,初代o1耗费的算力比o3低四个数量级❸,其在AIME上的得分约为25%⑭。
如果x轴表示总计算量⑰,“不太可能呈现这种情况”⑮。
第二⑳,如果x轴表示的是所需总算力⑬,这张图意义就不大了❸。
因为这就意味着OpenAI训练了N个版本的o1⑬,且预训练阶段非常不完整⑦。
依照Epoch AI的猜测⑩,如果o3在推理结算花费的算力是o1的10倍⑮,这意味着什么⑪?
由于很多推理模型背后团队都学精了⑦,并不公开训练方法和过程❸,所以只能从现有公开资料里去寻找答案⑤。
比如DeepSeek-R1⑮。
Epoch AI此前估算⑭,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP③,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑲。
虽然只是一种估算⑯,但R1在各个榜单上的得分和o1非常接近❸,“因此可以用它来为o1所需算力设定一个baseline”⑫。
比如英伟达的Llama-Nemotron Ultra⑫,它在各个基准上的分数与DeepSeek-R1和o1相当⑥。
它是在DeepSeek-R1生成的数据上训练的⑩。
公开信息显示⑨,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时①,约等于1e23 FLOP⑥。这甚至低于它的原始基础模型预训练成本的1%❸。
再比如微软的Phi-4-reasoning②。
它是在o3-mini生成的数据上训练的⑬。
Phi-4-reasoning在推理阶段规模更小⑩,成本低于1e20 FLOP③,可能是预训练所需算力成本的0.01%⑩。
值得注意的是❸,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调❶。
咱们再来看看今年1月DeepSeek-R1发布后❷,Anthropic的CEODario Amodei写的一篇文章⑫,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式❶,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑬,花费从10万美元提高到100万美元就能带来巨大收益⑳。如今▓,各公司正迅速加快步伐⑤,将第二阶段的规模扩大到数亿乃至数十亿美元⑲。有一点必须重视⑫,那就是我们正处于一个独特的转折点上▓。
当然了❸,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑰。
但可以清晰了解⑲,截至今年1月⑲,他认为推理模型的训练成本远低于“数千万美元”⑯,大于1e26 FLOP⑪。
Epoch AI总结道——
上述的预估和线索指向一个事实①,那就是目前最前沿的推理模型⑤,比如o1①,甚至o3⑯,它们的推理训练规模都还没见顶⑥,还能继续scalable④。
但1年内可能就撞墙了⑤、换句话说⑲,如果推理训练还没见顶⑧,那么推理模型还是有潜力在短期内快速实现能力拓展的⑱。
这就意味着⑬,推理模型还很能打⑧,潜力巨大❷。
就像OpenAI展示出的下图⑧,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长▓。
这表明⑮,至少在数学和编程任务上❷,推理模型的性能随着推理训练的扩展而增强①,就像预训练的scaling law一样❷。
行文至此处⑱,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑦,那么其带来的增长率将收敛⑰,大概是每年增长4倍③。
绝不会像o1推出后4个月就有了o3那样▓,保持几个月增长10倍的态势⑫。
因此⑥,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑯,这种增长率可能在一⑪、两年内减缓⑫,甚至撞墙⑪。
然鹅⑫,想要扩展推理模型并不是那么简单的⑰。
单单是数据不够这一项⑥,就可能导致其停滞不前⑪。
大家也都还不清楚⑲,除了数学⑪、编程领域⑳,推理训练是否能泛化到其
它⑫、规律性没那么强的领域⑱。
但可以肯定的是⑳,随着推理模型的训练越来越成熟④,所有推理模型所需的成本可能都趋同❷。
虽然研究成本的高低并不影响算力和性能之间的关系▓,但如果相关研究保持“花钱如流水”的状态①,那么推理模型可能无法达到人们心中预期的最佳水平⑳。
另一方面❸,即使所需算力的增长速度放缓⑲,推理模型也可能持续进化①,就像R1那样⑭。
换句话说②,不只有数据或算法创新能推动推理模型的进步⑧,算力大增也是推动推理模型进步的关键因素⑱。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑬,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐①,非常欢迎各位朋友分享到个人站长或者朋友圈⑪,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑮。
很赞哦❶!
相关文章
随机图文
-
“种下”一个项目❸,激活一片生态
您的脚法不错❸,总是敢于传一些激进的球“是的❷。我总是相信自己的能力⑬,充满信心走上赛场才能踢得更好▓。” 阿维塔:已起诉自媒体“苏黎世贝勒爷”④,索赔1000万元④!
直播吧05月13《队报》报道⑨,据透露⑦,正在寻找阿隆索接班人的勒沃库森对摩纳哥主帅许特尔颇感兴趣⑦。非法收受财物3501万余元 中石油原董事长王宜林一审被判13年
孟繁哲❷、人形机器人如何适应人类社会发展需求⑭、助力人类文明进步⑨,是一场更为壮观也更具挑战性的“人机共跑”马拉松28元 vs 9699元⑪!实测PDD望远神器:vivo气得报警⑲?
俄外交部发言人扎哈罗娃12日评论说③,西方坚持俄乌停火30天是为了给乌克兰提供喘息机会⑲,以便乌恢复军事能力继续与俄对抗⑪。-
因凡蒂诺:足球一年产生2700亿GDP⑬,沙特能让足球经济重心转移
《财经天下》发现②,目前“金牌奶爸”品牌已入驻天猫⑰、抖音两个平台⑭,店内在售“全价冻干夹心烘焙猫粮”“磷虾鸡肉味猫条”等商品▓。其中⑧,销量最好的一款1.6kg烘焙猫粮⑬,原价149元⑳,在上述两个平台销量均破千 华子:我们的防守进步了 想打进总决赛就不能允许低级失误的出现
目前⑦,关于塔图姆的伤情尚无官方定论⑯。不过⑩,据《体育报》记者杰伊・金报道⑬,乔・马祖拉确认塔图姆遭遇下肢伤病④,将在当地时间周二接受 MRI 检查⑯。球迷们都在焦急等待检查结果⑤,期待这位核心球员并无大碍②。-
“眼界低④,比贫穷更可怕⑤!”一支22元钢笔❷,把家长气到睡不着觉
量能跟昨天差不多③,还是不太够①,仍然属于缩量的范畴⑨,缩量涨在主升中是合理的⑮,但是在突破位置是需要放量的③,放量才能增加趋势突破的有效作用❷。不过这一波脱离底部后一直是缩量的⑲,还是因为消息的不确定导致资金的观 -
法媒:马赛已经接触萨内⑮,为踢欧冠马赛将在今夏大力提升阵容
这封发表于1891年的公开信强调:「必须尽快找到一个合适的办法④,以缓解大多数工人阶级所遭受的不公正的贫困与苦难⑭。」