您现在的位置是:网站首页>NBANBA
勐平168大富豪电玩城
孟新巧 2025-05-14 【NBA】 8190 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑮,大模型推理训练可能就会撞墙⑩。
以上结论来自Epoch AI⑤。
这是一个专注于人工智能研究和基准测试的非营利组织⑬,之前名动一时的FrontierMath基准测试就出自它家②。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」②,那么推理训练所需的算力可能会大幅收敛①。
就像DeepSeek-R1之于OpenAI o1-preview那样⑭。
看了这个结果❸,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑲,那为啥咱不探索模块化架构或针对特定任务的专用模型呢①?“效率”比“研究过剩”更重要③!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作❶。
和o3⑬、DeepSeek-R1等一样⑮,它们从传统的大语言模型发展而来⑯,在预训练阶段使用了大量人类数据进行训练⑫,然后在强化学习阶段⑪,根据解题的反馈来改进自己的推理能力⑬。
虽然推理模型已经成为了很多AI使用者的实用帮手⑭,但关于推理训练所需算力的公开信息非常少⑯,大概只有以下这些:
OpenAI表示③,与o1相比⑦,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段③。
OpenAI没有公开o1⑳、o3的具体细节⑬,但可以从DeepSeek-R1⑱、微软Phi-4-reasoning②、英伟达Llama-Nemotron等其它推理模型❷。它们所需的推理训练阶段算力耕地⑤,但可以根据它们进行推演⑱。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章❶。
然后就没有然后了……▓、根据现有的信息和资料③,Epoch AI进行了总结和分析⑩。
首先❶,OpenAI公开过这样一张图表⑤,上面展示了o3和o1在AIME基准测试中的表现❶,以及两者在推理训练阶段可能所需的算力的对比——
可以看到④,终版o3花费的算力是o1的10倍④。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❷。”
Epoch AI罗列了这一猜测的证据❶。
第一④,初代o1耗费的算力比o3低四个数量级⑦,其在AIME上的得分约为25%⑲。
如果x轴表示总计算量❷,“不太可能呈现这种情况”⑧。
第二⑪,如果x轴表示的是所需总算力⑯,这张图意义就不大了⑱。
因为这就意味着OpenAI训练了N个版本的o1⑨,且预训练阶段非常不完整⑮。
依照Epoch AI的猜测⑫,如果o3在推理结算花费的算力是o1的10倍⑥,这意味着什么②?
由于很多推理模型背后团队都学精了⑫,并不公开训练方法和过程⑲,所以只能从现有公开资料里去寻找答案⑩。
比如DeepSeek-R1⑪。
Epoch AI此前估算⑰,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP①,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%②。
虽然只是一种估算⑳,但R1在各个榜单上的得分和o1非常接近⑫,“因此可以用它来为o1所需算力设定一个baseline”⑬。
比如英伟达的Llama-Nemotron Ultra⑪,它在各个基准上的分数与DeepSeek-R1和o1相当⑳。
它是在DeepSeek-R1生成的数据上训练的⑳。
公开信息显示⑬,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑦,约等于1e23 FLOP⑩。这甚至低于它的原始基础模型预训练成本的1%⑳。
再比如微软的Phi-4-reasoning⑩。
它是在o3-mini生成的数据上训练的▓。
Phi-4-reasoning在推理阶段规模更小❷,成本低于1e20 FLOP⑭,可能是预训练所需算力成本的0.01%⑬。
值得注意的是❷,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑰。
咱们再来看看今年1月DeepSeek-R1发布后①,Anthropic的CEODario Amodei写的一篇文章⑨,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式❶,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑧,花费从10万美元提高到100万美元就能带来巨大收益②。如今⑦,各公司正迅速加快步伐④,将第二阶段的规模扩大到数亿乃至数十亿美元❸。有一点必须重视⑭,那就是我们正处于一个独特的转折点上⑪。
当然了⑬,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据②。
但可以清晰了解⑫,截至今年1月❶,他认为推理模型的训练成本远低于“数千万美元”③,大于1e26 FLOP⑩。
Epoch AI总结道——
上述的预估和线索指向一个事实⑨,那就是目前最前沿的推理模型⑪,比如o1⑲,甚至o3❸,它们的推理训练规模都还没见顶⑨,还能继续scalable⑭。
但1年内可能就撞墙了①、换句话说⑯,如果推理训练还没见顶❸,那么推理模型还是有潜力在短期内快速实现能力拓展的⑦。
这就意味着▓,推理模型还很能打⑭,潜力巨大⑰。
就像OpenAI展示出的下图⑫,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑤。
这表明⑯,至少在数学和编程任务上③,推理模型的性能随着推理训练的扩展而增强⑬,就像预训练的scaling law一样⑮。
行文至此处③,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶①,那么其带来的增长率将收敛⑰,大概是每年增长4倍⑫。
绝不会像o1推出后4个月就有了o3那样⑯,保持几个月增长10倍的态势⑬。
因此⑮,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑲,这种增长率可能在一⑩、两年内减缓❷,甚至撞墙⑮。
然鹅⑤,想要扩展推理模型并不是那么简单的③。
单单是数据不够这一项⑨,就可能导致其停滞不前③。
大家也都还不清楚⑩,除了数学⑩、编程领域⑳,推理训练是否能泛化到其
它⑭、规律性没那么强的领域⑥。
但可以肯定的是❷,随着推理模型的训练越来越成熟⑫,所有推理模型所需的成本可能都趋同①。
虽然研究成本的高低并不影响算力和性能之间的关系⑭,但如果相关研究保持“花钱如流水”的状态⑥,那么推理模型可能无法达到人们心中预期的最佳水平⑯。
另一方面⑧,即使所需算力的增长速度放缓⑦,推理模型也可能持续进化⑱,就像R1那样⑩。
换句话说③,不只有数据或算法创新能推动推理模型的进步①,算力大增也是推动推理模型进步的关键因素⑥。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑳,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑨,非常欢迎各位朋友分享到个人站长或者朋友圈⑦,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑳。
很赞哦❸!
相关文章
随机图文
法尔克:曼城求购维尔茨的报价可能接近药厂1.5亿欧元的要价
市委副书记❷、政法委书记杨进党内警告处分⑭,茹子楠:十八九岁就会加练远射❶;有时间会关注全运会
为了持续提升在新能源商用车市场的影响力④,比亚迪继推出T5厢式货车之后②,迅速完成了T5DM混动冷藏⑧、T5高栏以及T5DM混动高栏等一系列细分场景的车型布局①,通过DM混动系统以及刀片电池等核心技术的加持❶,-
G4勇士110 117森林狼 球员评价:库明加良好⑧,3人及格⑩,4人崩盘 乔纳森·库明加 明尼苏达森林狼队
传统基于规则和特征匹配的防御体系⑰,在面对AI驱动的动态化▓、智能化攻击时显得力不从心⑨。数据泄露⑥、模型滥用⑳、协议漏洞等问题层出不穷⑫,而攻击者的手段正因AI的加持变得更加隐蔽和高效⑳。 摩根大通:美元看跌理由依然完好
All Rights Reserved 新浪公司 版权所有饮品店取名警茶贴警察卡通引争议⑳!律师称警茶店名已触多条法律红线
1▓、甲方愿就乙方在【2025年2月1日至2027年2月1日】期间内与丙方交易所形成的债务提供连带责任保证担保①,担保的最高债权额为美金【壹仟玖佰伍拾万】❶。翻盘之王⑧!尼克斯3次逆转14+ 布伦森唐斯双核接近淘汰卫冕冠军
迪雅里克还说❷,古特雷斯已经很清楚地表达了其在贸易问题上的立场⑬,即反对所谓“经济脱钩”⑦,强调“没有人能在贸易战中获胜”⑦。研究生拿到互联网大厂Offer⑭,却因毕业论文盲审未通过⑬,无奈违约
责编:叶舒筠⑦、校对:王锦程这一刻⑤,塔给我的情绪价值达到了顶峰
新浪财经公众号⑳、24和视频⑧,更多粉丝福利扫描二维码关注