您现在的位置是:网站首页>国际国际
特特er爱可爱电玩城
陈寻雁 2025-05-14 【国际】 0684 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑯,大模型推理训练可能就会撞墙❸。
以上结论来自Epoch AI❸。
这是一个专注于人工智能研究和基准测试的非营利组织❷,之前名动一时的FrontierMath基准测试就出自它家⑧。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」❶,那么推理训练所需的算力可能会大幅收敛❷。
就像DeepSeek-R1之于OpenAI o1-preview那样③。
看了这个结果⑪,有围观网友都着急了:
既然在o3基础上再scaling非常困难②,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑭?“效率”比“研究过剩”更重要⑤!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑱。
和o3▓、DeepSeek-R1等一样▓,它们从传统的大语言模型发展而来⑲,在预训练阶段使用了大量人类数据进行训练⑮,然后在强化学习阶段③,根据解题的反馈来改进自己的推理能力⑪。
虽然推理模型已经成为了很多AI使用者的实用帮手⑫,但关于推理训练所需算力的公开信息非常少⑲,大概只有以下这些:
OpenAI表示⑩,与o1相比⑧,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段④。
OpenAI没有公开o1⑰、o3的具体细节⑤,但可以从DeepSeek-R1⑥、微软Phi-4-reasoning⑦、英伟达Llama-Nemotron等其它推理模型⑮。它们所需的推理训练阶段算力耕地①,但可以根据它们进行推演③。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑱。
然后就没有然后了……⑧、根据现有的信息和资料⑥,Epoch AI进行了总结和分析⑮。
首先⑧,OpenAI公开过这样一张图表①,上面展示了o3和o1在AIME基准测试中的表现①,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑪,终版o3花费的算力是o1的10倍⑧。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑬。”
Epoch AI罗列了这一猜测的证据⑧。
第一②,初代o1耗费的算力比o3低四个数量级⑩,其在AIME上的得分约为25%⑳。
如果x轴表示总计算量⑩,“不太可能呈现这种情况”⑭。
第二⑨,如果x轴表示的是所需总算力⑰,这张图意义就不大了⑬。
因为这就意味着OpenAI训练了N个版本的o1▓,且预训练阶段非常不完整⑱。
依照Epoch AI的猜测⑪,如果o3在推理结算花费的算力是o1的10倍②,这意味着什么②?
由于很多推理模型背后团队都学精了⑱,并不公开训练方法和过程⑰,所以只能从现有公开资料里去寻找答案❷。
比如DeepSeek-R1⑱。
Epoch AI此前估算▓,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑮,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%④。
虽然只是一种估算②,但R1在各个榜单上的得分和o1非常接近⑥,“因此可以用它来为o1所需算力设定一个baseline”⑯。
比如英伟达的Llama-Nemotron Ultra①,它在各个基准上的分数与DeepSeek-R1和o1相当⑥。
它是在DeepSeek-R1生成的数据上训练的⑰。
公开信息显示⑪,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑩,约等于1e23 FLOP⑥。这甚至低于它的原始基础模型预训练成本的1%②。
再比如微软的Phi-4-reasoning❶。
它是在o3-mini生成的数据上训练的⑨。
Phi-4-reasoning在推理阶段规模更小②,成本低于1e20 FLOP⑯,可能是预训练所需算力成本的0.01%④。
值得注意的是⑯,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑭。
咱们再来看看今年1月DeepSeek-R1发布后⑰,Anthropic的CEODario Amodei写的一篇文章⑧,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式❸,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑳,花费从10万美元提高到100万美元就能带来巨大收益④。如今⑨,各公司正迅速加快步伐④,将第二阶段的规模扩大到数亿乃至数十亿美元⑭。有一点必须重视⑯,那就是我们正处于一个独特的转折点上②。
当然了④,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据❸。
但可以清晰了解⑮,截至今年1月⑳,他认为推理模型的训练成本远低于“数千万美元”⑰,大于1e26 FLOP⑳。
Epoch AI总结道——
上述的预估和线索指向一个事实①,那就是目前最前沿的推理模型①,比如o1⑩,甚至o3⑭,它们的推理训练规模都还没见顶⑤,还能继续scalable②。
但1年内可能就撞墙了⑱、换句话说⑫,如果推理训练还没见顶⑭,那么推理模型还是有潜力在短期内快速实现能力拓展的①。
这就意味着▓,推理模型还很能打⑦,潜力巨大④。
就像OpenAI展示出的下图⑲,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑲。
这表明②,至少在数学和编程任务上⑳,推理模型的性能随着推理训练的扩展而增强①,就像预训练的scaling law一样③。
行文至此处❸,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑩,那么其带来的增长率将收敛④,大概是每年增长4倍❶。
绝不会像o1推出后4个月就有了o3那样⑦,保持几个月增长10倍的态势❸。
因此⑭,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级③,这种增长率可能在一⑲、两年内减缓⑯,甚至撞墙⑨。
然鹅❷,想要扩展推理模型并不是那么简单的⑰。
单单是数据不够这一项▓,就可能导致其停滞不前⑱。
大家也都还不清楚⑨,除了数学⑪、编程领域⑰,推理训练是否能泛化到其
它⑯、规律性没那么强的领域⑧。
但可以肯定的是⑦,随着推理模型的训练越来越成熟⑫,所有推理模型所需的成本可能都趋同⑥。
虽然研究成本的高低并不影响算力和性能之间的关系▓,但如果相关研究保持“花钱如流水”的状态⑬,那么推理模型可能无法达到人们心中预期的最佳水平⑱。
另一方面❷,即使所需算力的增长速度放缓❶,推理模型也可能持续进化⑯,就像R1那样⑪。
换句话说⑱,不只有数据或算法创新能推动推理模型的进步⑦,算力大增也是推动推理模型进步的关键因素④。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑮,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑥,非常欢迎各位朋友分享到个人站长或者朋友圈⑦,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”③。
很赞哦❶!
相关文章
随机图文
微软刚赚258亿美元就裁员6000人 CEO:必须抓住AI新战场
2024财年③,即2024年4月~2025年3月❷,丰田汽车共计生产967万辆新车②,销售1027万辆新车⑭,营业额48.0367万亿日元⑪,约合人民币2.4万亿元❶;净利润4.7650万亿日元⑩,约合人民币236美国和沙特签了③!涉及价值近1420亿美元的军售
在广袤边疆和偏远山乡②,小包裹刷新着包邮区的定义❷,续写着物流业服务西部的“西邮记”④。乌拉圭前总统何塞·穆希卡去世
煤价与效益举措:预计煤价后续以弱平衡运行④,大幅下跌可能性不大⑨。公司将深化长协合作⑮,强化市场研判❸,加强煤电联动⑤。山东泰山队内射手王易主 外援三叉戟还有提升空间
按照意大利天空体育的说法⑨,马库斯-图拉姆将会在与拉齐奥的比赛中复出②,不过劳塔罗不会冒险出战⑲。其他三位伤员帕瓦尔▓、弗拉泰西以及姆希塔良能否至少出现在替补席上还需要视情况而定⑥。苹果发布 tvOS 18.5 更新⑳,为Apple TV 4K添加杜比全景声同步支持 apple tv
// message加载失败降级备份cdn域名,产品可以在load事件重新初始化周二竞彩篮球焦点赛事:掘金拼字当头 雷霆抢占先机
2⑮、中小投资者单独计票情况:议案5⑫、议案6⑫、议案8⑳、议案10⑤、议案12⑮、议案13为单独统计中小投资者投票结果的议案⑯;4月复苏迹象明显 合资品牌二季度找回“存在感”
一②、哈尔滨工业大学——008专业组——全省物理类前1170名传奇之路⑲,爱德华兹砍24岁前第13次季后赛30+⑦,仅次于詹杜科东
据媒体报道⑩,近日⑭,华为与优必选科技在深圳达成全面合作协议②。双方将聚焦具身智能和人形机器人领域⑱,在技术研发⑱、场景应用及产业体系等方面展开合作②。通过华为昇腾⑫、鲲鹏⑳、华为云等技术能力⑰,结合优必选全栈式人形机