您现在的位置是:网站首页>篮球篮球
抖音超级电玩城无限金币版
洪白易 2025-05-14 【篮球】 9245 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑳,大模型推理训练可能就会撞墙⑬。
以上结论来自Epoch AI⑯。
这是一个专注于人工智能研究和基准测试的非营利组织③,之前名动一时的FrontierMath基准测试就出自它家⑰。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑧,那么推理训练所需的算力可能会大幅收敛▓。
就像DeepSeek-R1之于OpenAI o1-preview那样❷。
看了这个结果⑥,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑥,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑫?“效率”比“研究过剩”更重要②!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作④。
和o3⑳、DeepSeek-R1等一样⑯,它们从传统的大语言模型发展而来①,在预训练阶段使用了大量人类数据进行训练⑱,然后在强化学习阶段⑰,根据解题的反馈来改进自己的推理能力⑤。
虽然推理模型已经成为了很多AI使用者的实用帮手⑬,但关于推理训练所需算力的公开信息非常少⑪,大概只有以下这些:
OpenAI表示⑧,与o1相比②,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑰。
OpenAI没有公开o1⑤、o3的具体细节⑰,但可以从DeepSeek-R1②、微软Phi-4-reasoning②、英伟达Llama-Nemotron等其它推理模型⑪。它们所需的推理训练阶段算力耕地❸,但可以根据它们进行推演⑬。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑧。
然后就没有然后了……⑤、根据现有的信息和资料⑰,Epoch AI进行了总结和分析⑲。
首先⑬,OpenAI公开过这样一张图表⑰,上面展示了o3和o1在AIME基准测试中的表现⑭,以及两者在推理训练阶段可能所需的算力的对比——
可以看到①,终版o3花费的算力是o1的10倍⑳。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑪。”
Epoch AI罗列了这一猜测的证据⑩。
第一⑰,初代o1耗费的算力比o3低四个数量级⑳,其在AIME上的得分约为25%❶。
如果x轴表示总计算量⑨,“不太可能呈现这种情况”⑲。
第二④,如果x轴表示的是所需总算力③,这张图意义就不大了①。
因为这就意味着OpenAI训练了N个版本的o1⑳,且预训练阶段非常不完整⑮。
依照Epoch AI的猜测❶,如果o3在推理结算花费的算力是o1的10倍❸,这意味着什么⑱?
由于很多推理模型背后团队都学精了⑦,并不公开训练方法和过程②,所以只能从现有公开资料里去寻找答案❷。
比如DeepSeek-R1②。
Epoch AI此前估算⑥,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑫,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%❸。
虽然只是一种估算⑯,但R1在各个榜单上的得分和o1非常接近⑮,“因此可以用它来为o1所需算力设定一个baseline”❷。
比如英伟达的Llama-Nemotron Ultra⑤,它在各个基准上的分数与DeepSeek-R1和o1相当⑮。
它是在DeepSeek-R1生成的数据上训练的⑪。
公开信息显示⑤,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时▓,约等于1e23 FLOP⑯。这甚至低于它的原始基础模型预训练成本的1%⑫。
再比如微软的Phi-4-reasoning⑩。
它是在o3-mini生成的数据上训练的④。
Phi-4-reasoning在推理阶段规模更小⑯,成本低于1e20 FLOP⑨,可能是预训练所需算力成本的0.01%❸。
值得注意的是❸,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑯。
咱们再来看看今年1月DeepSeek-R1发布后⑤,Anthropic的CEODario Amodei写的一篇文章⑰,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑱,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少③,花费从10万美元提高到100万美元就能带来巨大收益③。如今⑰,各公司正迅速加快步伐⑱,将第二阶段的规模扩大到数亿乃至数十亿美元⑯。有一点必须重视⑮,那就是我们正处于一个独特的转折点上⑨。
当然了③,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑱。
但可以清晰了解④,截至今年1月⑪,他认为推理模型的训练成本远低于“数千万美元”⑥,大于1e26 FLOP⑪。
Epoch AI总结道——
上述的预估和线索指向一个事实⑥,那就是目前最前沿的推理模型⑨,比如o1⑬,甚至o3⑬,它们的推理训练规模都还没见顶⑦,还能继续scalable③。
但1年内可能就撞墙了❷、换句话说⑪,如果推理训练还没见顶④,那么推理模型还是有潜力在短期内快速实现能力拓展的⑲。
这就意味着⑥,推理模型还很能打⑳,潜力巨大⑯。
就像OpenAI展示出的下图④,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长❶。
这表明⑭,至少在数学和编程任务上⑩,推理模型的性能随着推理训练的扩展而增强❷,就像预训练的scaling law一样❶。
行文至此处⑭,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑲,那么其带来的增长率将收敛❶,大概是每年增长4倍⑥。
绝不会像o1推出后4个月就有了o3那样⑳,保持几个月增长10倍的态势▓。
因此⑤,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑬,这种增长率可能在一❷、两年内减缓⑪,甚至撞墙⑭。
然鹅②,想要扩展推理模型并不是那么简单的⑳。
单单是数据不够这一项⑪,就可能导致其停滞不前①。
大家也都还不清楚⑭,除了数学⑳、编程领域❸,推理训练是否能泛化到其
它⑯、规律性没那么强的领域⑤。
但可以肯定的是⑲,随着推理模型的训练越来越成熟⑱,所有推理模型所需的成本可能都趋同⑫。
虽然研究成本的高低并不影响算力和性能之间的关系⑥,但如果相关研究保持“花钱如流水”的状态⑨,那么推理模型可能无法达到人们心中预期的最佳水平⑭。
另一方面⑧,即使所需算力的增长速度放缓⑨,推理模型也可能持续进化⑯,就像R1那样①。
换句话说⑲,不只有数据或算法创新能推动推理模型的进步②,算力大增也是推动推理模型进步的关键因素⑧。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可❶,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐❶,非常欢迎各位朋友分享到个人站长或者朋友圈①,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑱。
很赞哦⑪!
相关文章
随机图文
世预赛抽签效果拉满⑤!与日本⑦、韩国⑩、中华台北一组⑩,二阶段有压力
凭借出众的产品力⑪,ID.3在国内纯电市场也收获了叫好又叫座的佳绩①。近一年❷,ID.3在各大“国字号”机构及媒体评级中频频斩获重磅荣誉⑮,“纯电三好生”的口碑已经进入了“好品质⑩、好满意④、好保值”的新阶段⑲。今中国石油天然气集团有限公司原党组书记⑨、董事长王宜林受贿案一审宣判
中信证券⑮、股份有限公司担任泰坦科技本次向特定对象并在科创板上市持续督导的保荐人①,负责对泰坦科技的持续督导工作❶,持续督导期至2024年12月31日止④。2024年12月31日⑯,持续督导期已届满⑳,中信证券根百姓看联播|“山水印章”向大地借温度
作为亚洲最大的碰撞安全试验室❶,奇瑞龙山试验中心是奇瑞安全标准的诞生地②,奇瑞每一款车都要在这里经过超67种场景碰撞⑦,超7500次模拟仿真碰撞⑰,超100次实车碰撞⑳。安全第一⑱,是奇瑞不变的初心❶,也是始终是奇莫雷托:那不勒斯和尤文抢本菲卡后腰弗洛伦蒂诺
虽然目前官方尚未证实ID.3 GTI的完整计划❷,但随着高尔夫Mk9延后⑥、电动车市场逐步成熟⑯,我们几乎可以确定属于GTI车迷的电动时代⑲,即将来临⑰。焦炭基差结构变化分析
分享至⑨、用微信扫码二维码⑦、分享至好友和朋友圈节水周⑨,探访北京城市运行怎样惜水如金
170多人报案:高价买的宠物⑤,7天就死身价3000万⑱!土媒:穆里尼奥认可费内巴切买桑乔⑤,球员将先回曼联
巴西的球员们在皇家马德里❷、巴塞罗那或者英格兰的球队效力⑲。有很多有天赋的球员⑨,而且他们在世界顶级联赛中总是能起到关键作用③。随着安切洛蒂的到来⑧,他们所具备的实力会再次展现出来⑪。解密我国汽车产销首次前四月双破千万背后的深层“密码”|封面车评
法新社记者提问⑩,发言人能否提供下阶段中美经贸会谈的详细信息⑰?是否计划讨论美方以芬太尼为由对中国出口产品征收的20%特别关税⑦?