您现在的位置是:网站首页>世界足球世界足球
魔幻奇缘电玩城下载地址
傅访卉 2025-05-14 【世界足球】 7030 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑱,大模型推理训练可能就会撞墙⑧。
以上结论来自Epoch AI⑭。
这是一个专注于人工智能研究和基准测试的非营利组织⑭,之前名动一时的FrontierMath基准测试就出自它家②。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑭,那么推理训练所需的算力可能会大幅收敛⑫。
就像DeepSeek-R1之于OpenAI o1-preview那样❷。
看了这个结果⑧,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑤,那为啥咱不探索模块化架构或针对特定任务的专用模型呢❸?“效率”比“研究过剩”更重要❸!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作❶。
和o3⑫、DeepSeek-R1等一样❷,它们从传统的大语言模型发展而来⑱,在预训练阶段使用了大量人类数据进行训练⑱,然后在强化学习阶段▓,根据解题的反馈来改进自己的推理能力▓。
虽然推理模型已经成为了很多AI使用者的实用帮手⑧,但关于推理训练所需算力的公开信息非常少⑦,大概只有以下这些:
OpenAI表示⑤,与o1相比⑩,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑥。
OpenAI没有公开o1⑧、o3的具体细节⑩,但可以从DeepSeek-R1②、微软Phi-4-reasoning❶、英伟达Llama-Nemotron等其它推理模型⑰。它们所需的推理训练阶段算力耕地⑭,但可以根据它们进行推演⑲。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑫。
然后就没有然后了……⑨、根据现有的信息和资料①,Epoch AI进行了总结和分析④。
首先⑭,OpenAI公开过这样一张图表③,上面展示了o3和o1在AIME基准测试中的表现⑪,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑨,终版o3花费的算力是o1的10倍⑤。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力③。”
Epoch AI罗列了这一猜测的证据▓。
第一❸,初代o1耗费的算力比o3低四个数量级④,其在AIME上的得分约为25%⑰。
如果x轴表示总计算量⑬,“不太可能呈现这种情况”⑪。
第二❶,如果x轴表示的是所需总算力❸,这张图意义就不大了❷。
因为这就意味着OpenAI训练了N个版本的o1⑨,且预训练阶段非常不完整⑩。
依照Epoch AI的猜测⑱,如果o3在推理结算花费的算力是o1的10倍⑩,这意味着什么❷?
由于很多推理模型背后团队都学精了⑰,并不公开训练方法和过程⑮,所以只能从现有公开资料里去寻找答案⑤。
比如DeepSeek-R1❷。
Epoch AI此前估算③,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑪,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑪。
虽然只是一种估算⑮,但R1在各个榜单上的得分和o1非常接近▓,“因此可以用它来为o1所需算力设定一个baseline”⑯。
比如英伟达的Llama-Nemotron Ultra⑬,它在各个基准上的分数与DeepSeek-R1和o1相当❷。
它是在DeepSeek-R1生成的数据上训练的③。
公开信息显示⑯,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时❸,约等于1e23 FLOP⑭。这甚至低于它的原始基础模型预训练成本的1%③。
再比如微软的Phi-4-reasoning▓。
它是在o3-mini生成的数据上训练的⑥。
Phi-4-reasoning在推理阶段规模更小⑳,成本低于1e20 FLOP⑨,可能是预训练所需算力成本的0.01%①。
值得注意的是⑨,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑳。
咱们再来看看今年1月DeepSeek-R1发布后▓,Anthropic的CEODario Amodei写的一篇文章⑬,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑥,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少❸,花费从10万美元提高到100万美元就能带来巨大收益⑩。如今⑮,各公司正迅速加快步伐⑭,将第二阶段的规模扩大到数亿乃至数十亿美元⑭。有一点必须重视⑩,那就是我们正处于一个独特的转折点上④。
当然了⑭,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑨。
但可以清晰了解⑮,截至今年1月②,他认为推理模型的训练成本远低于“数千万美元”⑲,大于1e26 FLOP⑰。
Epoch AI总结道——
上述的预估和线索指向一个事实①,那就是目前最前沿的推理模型⑦,比如o1③,甚至o3⑮,它们的推理训练规模都还没见顶④,还能继续scalable⑬。
但1年内可能就撞墙了❶、换句话说⑬,如果推理训练还没见顶⑳,那么推理模型还是有潜力在短期内快速实现能力拓展的▓。
这就意味着⑪,推理模型还很能打④,潜力巨大⑯。
就像OpenAI展示出的下图②,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑮。
这表明⑦,至少在数学和编程任务上⑨,推理模型的性能随着推理训练的扩展而增强⑤,就像预训练的scaling law一样⑭。
行文至此处⑰,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑩,那么其带来的增长率将收敛⑦,大概是每年增长4倍⑮。
绝不会像o1推出后4个月就有了o3那样⑫,保持几个月增长10倍的态势❷。
因此②,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑪,这种增长率可能在一⑧、两年内减缓⑯,甚至撞墙⑩。
然鹅⑩,想要扩展推理模型并不是那么简单的⑯。
单单是数据不够这一项⑲,就可能导致其停滞不前⑨。
大家也都还不清楚⑤,除了数学⑭、编程领域⑩,推理训练是否能泛化到其
它⑦、规律性没那么强的领域❷。
但可以肯定的是⑩,随着推理模型的训练越来越成熟⑱,所有推理模型所需的成本可能都趋同⑰。
虽然研究成本的高低并不影响算力和性能之间的关系③,但如果相关研究保持“花钱如流水”的状态①,那么推理模型可能无法达到人们心中预期的最佳水平⑧。
另一方面⑪,即使所需算力的增长速度放缓④,推理模型也可能持续进化⑰,就像R1那样▓。
换句话说⑭,不只有数据或算法创新能推动推理模型的进步⑮,算力大增也是推动推理模型进步的关键因素▓。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑦,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑱,非常欢迎各位朋友分享到个人站长或者朋友圈❸,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”③。
很赞哦⑱!
相关文章
随机图文
足协官方:9月拟组织国际足球邀请赛①,参赛队包括国足和三支外队
特别声明:以上内容为自媒体平台“网易号”用户上传并发布⑩,本平台仅提供信息存储服务⑤。曾经的顶流宝马X5⑳,为什么卖不动了③?
在进口药方面⑱,美团自营大药房坚定“不涨价”策略⑱,确保供给稳定❸、价格稳定⑭,全力保障高需进口药平价供应⑮。据了解⑬,美团自营大药房目前已覆盖市面上常见的进口原研药产品⑫,共计1224个⑳。本次618活动启动以来⑱,解约金5800万⑩!德天空:阿森纳利物浦领跑怀森争夺战③,皇马仍有意
"我离开了国际足联④,莱昂纳多离任后马尔蒂尼联系了我⑯。我在国际足联的工作已基本完成⑭,只需用三年时间清理该组织后进行管理⑭。马尔蒂尼当时想离开⑳,我对他说:'你比今天的米兰更代表米兰⑦,你不能走⑳。'于是我去了米名记:独行侠不会考虑交易状元签 并计划用其选择弗拉格②!
裁剪用量非常多⑱,自然蓬起的弧度不会软趴趴的①,层层叠叠的下摆蓬松有型又足够浪漫⑯。孙悦回忆总决赛:遗憾没能在主场夺冠⑰,北京篮球永不熄
报道称⑨,在整个过程中⑧,胡塞武装仍在向美军舰船和无人机射击⑳、加固掩体⑤,并将武器库转移到地下⑦。而白宫开始向美军中央司令部施压⑲,要求其衡量此次行动的成功程度⑭。费迪南德:赖斯去阿森纳不为了钱或名①,他需要和球队一起夺冠
——我们勇立潮头⑮、合作共赢⑱。中拉双方顺应经济全球化大势②,推动贸易⑳、投资⑤、金融⑳、科技⑧、基础设施建设等领域务实合作不断深化❶。双方在高质量共建“一带一路”框架内实施200多个基础设施建设项目❶,创造了上百万个3&獭兔伤退⑭!ESPN预测G5胜率:绿军57.4% 尼克斯42.6%
和平总比战争好⑰,战端一开③,那真是生灵涂炭②。印巴❶,都还不富裕⑬,发展的任务很重⑥。小赖特:美职联签梅西只是短期战略⑳,他们要吸引当打之年球员来投 莱昂内尔·梅西
以此观之⑨,京东目前仍处于行业前三的位置⑩,基本盘依然稳固①。在电商行业走出无序内卷后⑫,京东凭借高品质⑨、高性价比的商品优势⑲,正在逐步夺回更多的市场份额⑳。