您现在的位置是:网站首页>足球足球
575118k168电玩城
许以寒 2025-05-14 【
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内▓,大模型推理训练可能就会撞墙⑩。
以上结论来自Epoch AI⑰。
这是一个专注于人工智能研究和基准测试的非营利组织①,之前名动一时的FrontierMath基准测试就出自它家①。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」②,那么推理训练所需的算力可能会大幅收敛②。
就像DeepSeek-R1之于OpenAI o1-preview那样②。
看了这个结果❸,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑥,那为啥咱不探索模块化架构或针对特定任务的专用模型呢①?“效率”比“研究过剩”更重要⑪!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑱。
和o3⑧、DeepSeek-R1等一样②,它们从传统的大语言模型发展而来⑲,在预训练阶段使用了大量人类数据进行训练⑯,然后在强化学习阶段⑰,根据解题的反馈来改进自己的推理能力⑪。
虽然推理模型已经成为了很多AI使用者的实用帮手⑭,但关于推理训练所需算力的公开信息非常少⑥,大概只有以下这些:
OpenAI表示⑭,与o1相比④,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段❸。
OpenAI没有公开o1⑩、o3的具体细节⑦,但可以从DeepSeek-R1❷、微软Phi-4-reasoning❶、英伟达Llama-Nemotron等其它推理模型⑪。它们所需的推理训练阶段算力耕地⑲,但可以根据它们进行推演③。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑱。
然后就没有然后了……⑳、根据现有的信息和资料❶,Epoch AI进行了总结和分析⑪。
首先①,OpenAI公开过这样一张图表⑭,上面展示了o3和o1在AIME基准测试中的表现⑦,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑪,终版o3花费的算力是o1的10倍⑩。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❸。”
Epoch AI罗列了这一猜测的证据▓。
第一⑲,初代o1耗费的算力比o3低四个数量级④,其在AIME上的得分约为25%⑲。
如果x轴表示总计算量⑭,“不太可能呈现这种情况”⑯。
第二⑫,如果x轴表示的是所需总算力❶,这张图意义就不大了⑨。
因为这就意味着OpenAI训练了N个版本的o1⑮,且预训练阶段非常不完整⑱。
依照Epoch AI的猜测❶,如果o3在推理结算花费的算力是o1的10倍⑳,这意味着什么⑨?
由于很多推理模型背后团队都学精了▓,并不公开训练方法和过程①,所以只能从现有公开资料里去寻找答案③。
比如DeepSeek-R1⑭。
Epoch AI此前估算⑲,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP❸,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑥。
虽然只是一种估算⑤,但R1在各个榜单上的得分和o1非常接近⑧,“因此可以用它来为o1所需算力设定一个baseline”❸。
比如英伟达的Llama-Nemotron Ultra⑪,它在各个基准上的分数与DeepSeek-R1和o1相当⑧。
它是在DeepSeek-R1生成的数据上训练的③。
公开信息显示⑮,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑳,约等于1e23 FLOP⑥。这甚至低于它的原始基础模型预训练成本的1%⑱。
再比如微软的Phi-4-reasoning⑲。
它是在o3-mini生成的数据上训练的⑩。
Phi-4-reasoning在推理阶段规模更小⑱,成本低于1e20 FLOP⑧,可能是预训练所需算力成本的0.01%❶。
值得注意的是⑳,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑤。
咱们再来看看今年1月DeepSeek-R1发布后⑱,Anthropic的CEODario Amodei写的一篇文章⑳,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式③,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑤,花费从10万美元提高到100万美元就能带来巨大收益⑦。如今⑮,各公司正迅速加快步伐⑨,将第二阶段的规模扩大到数亿乃至数十亿美元❷。有一点必须重视⑥,那就是我们正处于一个独特的转折点上⑯。
当然了⑮,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑧。
但可以清晰了解⑯,截至今年1月⑭,他认为推理模型的训练成本远低于“数千万美元”⑭,大于1e26 FLOP❶。
Epoch AI总结道——
上述的预估和线索指向一个事实⑫,那就是目前最前沿的推理模型⑪,比如o1④,甚至o3⑫,它们的推理训练规模都还没见顶⑯,还能继续scalable⑨。
但1年内可能就撞墙了⑧、换句话说⑩,如果推理训练还没见顶⑪,那么推理模型还是有潜力在短期内快速实现能力拓展的①。
这就意味着⑨,推理模型还很能打⑥,潜力巨大❶。
就像OpenAI展示出的下图⑭,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑮。
这表明⑧,至少在数学和编程任务上❶,推理模型的性能随着推理训练的扩展而增强⑧,就像预训练的scaling law一样❶。
行文至此处⑨,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑤,那么其带来的增长率将收敛⑬,大概是每年增长4倍⑧。
绝不会像o1推出后4个月就有了o3那样❶,保持几个月增长10倍的态势⑰。
因此⑮,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑤,这种增长率可能在一①、两年内减缓⑬,甚至撞墙⑧。
然鹅①,想要扩展推理模型并不是那么简单的⑪。
单单是数据不够这一项⑮,就可能导致其停滞不前❶。
大家也都还不清楚❷,除了数学⑤、编程领域②,推理训练是否能泛化到其
它②、规律性没那么强的领域⑮。
但可以肯定的是⑨,随着推理模型的训练越来越成熟⑧,所有推理模型所需的成本可能都趋同⑳。
虽然研究成本的高低并不影响算力和性能之间的关系⑩,但如果相关研究保持“花钱如流水”的状态⑤,那么推理模型可能无法达到人们心中预期的最佳水平④。
另一方面⑬,即使所需算力的增长速度放缓⑱,推理模型也可能持续进化⑤,就像R1那样②。
换句话说⑱,不只有数据或算法创新能推动推理模型的进步▓,算力大增也是推动推理模型进步的关键因素⑪。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑫,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑫,非常欢迎各位朋友分享到个人站长或者朋友圈⑨,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑳。
很赞哦⑤!
相关文章
随机图文
每体:勒沃库森⑯、贝蒂斯都在关注保 维克托⑧,球员更倾向前往国外
又以简约❷、留白的东方美学②,带出诸多情感伦理⑩,人性复杂❶,并留下诸多命运况味⑥。直接竞争丰田埃尔法⑰!30.98万起的魏牌全新高山底气何在⑦?
可即便梁朝伟身为白龙王的干儿子⑨,得到他的再三点播❸。英法借用嫦娥月壤⑤,英国实验室借到60毫克⑥!研究者感谢:自己是这个星球幸运儿
投资者密切关注京东外卖的发展情况⑬。据周二晚上召开的业绩电话会介绍❷,京东外卖业务发展迅猛❶,日单量接近2000万⑳。京东首席执行官许冉在电话会上强调④,中国外卖市场规模庞大⑩,“完全容得下多个平台”⑱,而市场上仍让土耳其紧张了40年的武装组织为何“突然”解散了
当特朗普政府强行搞成脱钩后⑮,一个在生产和消费上根本没有准备好的美国③,自然会承受比中国更高的代价⑪。推理大模型1年内就会撞墙①!FrontierMath团队最新研究
在科技领域⑧,卢拉表示④,希望巴中两国加强空间合作⑧,进一步完善已启动的中巴地球资源卫星05星⑪、06星项目⑥;在人工智能问题上⑫,确保人工智能服务于全人类▓,而不仅仅是少数几个国家⑧;在医药科技方面加强疫苗合作⑩,避-
北京发布“身心健康二十条”助力青少年全面发展
中式美学具象化⑬!晨光照在漓江江面 水波宛若展翅“金凤凰” 记者:国米计划今夏650万欧买断扎莱夫斯基④,让其随队参加世俱杯
沙特联射手榜③,C罗23球领跑⑯,本泽马和哈姆达拉均打入21球⑫,伊万-托尼打入20球⑤。美经济界欢迎美中经贸会谈取得实质性进展
人类为何要关注小行星❸?业界普遍认为⑫,小行星是太阳系形成过程中没有形成行星的残余物质⑥,它们由于各种原因不能被更大质量的天体吸附并吞噬▓,从而散落在太空中❶。“这些小行星保存着太阳系早期历史的大量原初信息⑬,是