您现在的位置是:网站首页>NBANBA
电玩城孕妇能去吗
林晓巧 2025-05-14 【 NBA】 0169 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑤,大模型推理训练可能就会撞墙①。
以上结论来自Epoch AI⑤。
这是一个专注于人工智能研究和基准测试的非营利组织②,之前名动一时的FrontierMath基准测试就出自它家❶。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑤,那么推理训练所需的算力可能会大幅收敛⑥。
就像DeepSeek-R1之于OpenAI o1-preview那样⑲。
看了这个结果⑦,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑳,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑯?“效率”比“研究过剩”更重要⑦!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作▓。
和o3❸、DeepSeek-R1等一样⑰,它们从传统的大语言模型发展而来②,在预训练阶段使用了大量人类数据进行训练❶,然后在强化学习阶段⑬,根据解题的反馈来改进自己的推理能力❶。
虽然推理模型已经成为了很多AI使用者的实用帮手❸,但关于推理训练所需算力的公开信息非常少⑭,大概只有以下这些:
OpenAI表示③,与o1相比⑧,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段④。
OpenAI没有公开o1⑨、o3的具体细节⑨,但可以从DeepSeek-R1⑮、微软Phi-4-reasoning⑯、英伟达Llama-Nemotron等其它推理模型⑰。它们所需的推理训练阶段算力耕地⑪,但可以根据它们进行推演⑦。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑱。
然后就没有然后了……⑪、根据现有的信息和资料⑭,Epoch AI进行了总结和分析⑩。
首先❶,OpenAI公开过这样一张图表⑲,上面展示了o3和o1在AIME基准测试中的表现⑭,以及两者在推理训练阶段可能所需的算力的对比——
可以看到❸,终版o3花费的算力是o1的10倍⑳。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❷。”
Epoch AI罗列了这一猜测的证据❶。
第一⑩,初代o1耗费的算力比o3低四个数量级⑪,其在AIME上的得分约为25%❷。
如果x轴表示总计算量⑩,“不太可能呈现这种情况”❸。
第二⑱,如果x轴表示的是所需总算力⑪,这张图意义就不大了⑰。
因为这就意味着OpenAI训练了N个版本的o1❶,且预训练阶段非常不完整▓。
依照Epoch AI的猜测❸,如果o3在推理结算花费的算力是o1的10倍②,这意味着什么❷?
由于很多推理模型背后团队都学精了⑳,并不公开训练方法和过程⑭,所以只能从现有公开资料里去寻找答案❷。
比如DeepSeek-R1▓。
Epoch AI此前估算⑲,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑰,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%❸。
虽然只是一种估算③,但R1在各个榜单上的得分和o1非常接近①,“因此可以用它来为o1所需算力设定一个baseline”④。
比如英伟达的Llama-Nemotron Ultra⑰,它在各个基准上的分数与DeepSeek-R1和o1相当③。
它是在DeepSeek-R1生成的数据上训练的⑪。
公开信息显示⑨,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑩,约等于1e23 FLOP❸。这甚至低于它的原始基础模型预训练成本的1%⑳。
再比如微软的Phi-4-reasoning⑳。
它是在o3-mini生成的数据上训练的⑮。
Phi-4-reasoning在推理阶段规模更小⑬,成本低于1e20 FLOP⑪,可能是预训练所需算力成本的0.01%⑪。
值得注意的是❶,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑫。
咱们再来看看今年1月DeepSeek-R1发布后⑫,Anthropic的CEODario Amodei写的一篇文章⑰,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑥,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑨,花费从10万美元提高到100万美元就能带来巨大收益⑬。如今❶,各公司正迅速加快步伐⑱,将第二阶段的规模扩大到数亿乃至数十亿美元⑮。有一点必须重视❷,那就是我们正处于一个独特的转折点上⑲。
当然了⑨,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑲。
但可以清晰了解⑱,截至今年1月⑦,他认为推理模型的训练成本远低于“数千万美元”❸,大于1e26 FLOP⑳。
Epoch AI总结道——
上述的预估和线索指向一个事实⑫,那就是目前最前沿的推理模型⑩,比如o1⑪,甚至o3⑮,它们的推理训练规模都还没见顶⑥,还能继续scalable⑯。
但1年内可能就撞墙了❷、换句话说▓,如果推理训练还没见顶⑤,那么推理模型还是有潜力在短期内快速实现能力拓展的⑧。
这就意味着⑪,推理模型还很能打⑪,潜力巨大⑲。
就像OpenAI展示出的下图②,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长②。
这表明⑫,至少在数学和编程任务上⑫,推理模型的性能随着推理训练的扩展而增强⑪,就像预训练的scaling law一样⑮。
行文至此处⑩,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑪,那么其带来的增长率将收敛❶,大概是每年增长4倍⑪。
绝不会像o1推出后4个月就有了o3那样❸,保持几个月增长10倍的态势⑤。
因此▓,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑳,这种增长率可能在一⑭、两年内减缓⑧,甚至撞墙⑪。
然鹅⑦,想要扩展推理模型并不是那么简单的⑱。
单单是数据不够这一项⑦,就可能导致其停滞不前⑰。
大家也都还不清楚⑨,除了数学⑱、编程领域②,推理训练是否能泛化到其
它⑫、规律性没那么强的领域❷。
但可以肯定的是⑩,随着推理模型的训练越来越成熟②,所有推理模型所需的成本可能都趋同❶。
虽然研究成本的高低并不影响算力和性能之间的关系❶,但如果相关研究保持“花钱如流水”的状态⑳,那么推理模型可能无法达到人们心中预期的最佳水平⑰。
另一方面⑱,即使所需算力的增长速度放缓⑲,推理模型也可能持续进化⑭,就像R1那样⑱。
换句话说⑪,不只有数据或算法创新能推动推理模型的进步⑱,算力大增也是推动推理模型进步的关键因素⑬。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑩,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐①,非常欢迎各位朋友分享到个人站长或者朋友圈⑩,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”❷。
很赞哦▓!
相关文章
随机图文
2025年中东沙特新能源电动车展JIMS 2025
陈俊儿:50/100/200蝶零跑汽车连续两个月获新势力销量冠军 已经反超理想汽车⑱?
在深入探讨此次泄露事件的细节之前❸,有必要首先厘清“系统提示词”这一核心概念④。系统提示词▓,可以理解为大语言模型在开始与用户交互或执行特定任务前❸,由开发者预设的一系列初始指令❸、背景信息与行为框架③。-
以语言为桥 以传媒为窗 Hello Guangxi频道越南语版正式上线
近日⑩,市场监管总局会同中央社会工作部⑯、中央网信办❷、人力资源社会保障部⑱、商务部⑪,针对当前外卖行业竞争中存在的突出问题⑬,约谈京东⑫、美团⑱、饿了么等平台企业⑥。要求相关平台企业严格遵守《中华人民共和国电子商务法 美军欲借助AI提高弹药供应效率
本赛季结束这位尼日利亚球员将回归那不勒斯①,但是关于他的转会传闻甚嚣尘上⑤,有多家欧洲顶级俱乐部和一些沙特俱乐部都向他抛来橄榄枝⑪。阿维塔起诉自媒体博主索赔1000万
真正的美⑱,❷、思路往往不在于繁复的堆砌❸,赖特:枪手可担不起霍伊伦努涅斯这样的转会失误④,钱要花在刀刃上
• 比赛开始前1小时开放入场新华社消息|新华社推出“新时代中国调研行之文化中华”第二阶段报道
公司将业绩骤降归因于主要市场的销量疲软⑨,以及对北美⑰、拉丁美洲⑬、欧洲和日本的资产进行评估后的减值影响①。日产在最新年报中②,一口气计提了4670亿日元的资产减值损失⑥。-
抖音电商率先开启“618”大促⑫,平台投入百亿消费券补贴爆款好物
场地超大⑳!免门票入场⑤!2025金秀圣堂山杜鹃花文化旅游节开幕式等您来①!