您现在的位置是:网站首页>电竞电竞
uu电玩城官方网站入口
郭书雪 2025-05-14 【电竞】 6879 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑯,大模型推理训练可能就会撞墙⑲。
以上结论来自Epoch AI③。
这是一个专注于人工智能研究和基准测试的非营利组织⑰,之前名动一时的FrontierMath基准测试就出自它家②。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑧,那么推理训练所需的算力可能会大幅收敛①。
就像DeepSeek-R1之于OpenAI o1-preview那样❶。
看了这个结果⑬,有围观网友都着急了:
既然在o3基础上再scaling非常困难②,那为啥咱不探索模块化架构或针对特定任务的专用模型呢❶?“效率”比“研究过剩”更重要❸!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑥。
和o3②、DeepSeek-R1等一样⑳,它们从传统的大语言模型发展而来③,在预训练阶段使用了大量人类数据进行训练❸,然后在强化学习阶段①,根据解题的反馈来改进自己的推理能力⑪。
虽然推理模型已经成为了很多AI使用者的实用帮手②,但关于推理训练所需算力的公开信息非常少⑧,大概只有以下这些:
OpenAI表示⑮,与o1相比⑨,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段④。
OpenAI没有公开o1⑤、o3的具体细节⑯,但可以从DeepSeek-R1①、微软Phi-4-reasoning⑤、英伟达Llama-Nemotron等其它推理模型②。它们所需的推理训练阶段算力耕地⑭,但可以根据它们进行推演④。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章④。
然后就没有然后了……⑪、根据现有的信息和资料⑧,Epoch AI进行了总结和分析⑮。
首先①,OpenAI公开过这样一张图表⑯,上面展示了o3和o1在AIME基准测试中的表现▓,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑩,终版o3花费的算力是o1的10倍⑨。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❶。”
Epoch AI罗列了这一猜测的证据❷。
第一⑫,初代o1耗费的算力比o3低四个数量级❷,其在AIME上的得分约为25%⑯。
如果x轴表示总计算量▓,“不太可能呈现这种情况”❸。
第二⑲,如果x轴表示的是所需总算力③,这张图意义就不大了⑯。
因为这就意味着OpenAI训练了N个版本的o1①,且预训练阶段非常不完整⑱。
依照Epoch AI的猜测⑤,如果o3在推理结算花费的算力是o1的10倍⑬,这意味着什么⑥?
由于很多推理模型背后团队都学精了▓,并不公开训练方法和过程①,所以只能从现有公开资料里去寻找答案⑩。
比如DeepSeek-R1⑩。
Epoch AI此前估算⑩,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑭,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%④。
虽然只是一种估算⑬,但R1在各个榜单上的得分和o1非常接近❸,“因此可以用它来为o1所需算力设定一个baseline”⑪。
比如英伟达的Llama-Nemotron Ultra⑯,它在各个基准上的分数与DeepSeek-R1和o1相当⑦。
它是在DeepSeek-R1生成的数据上训练的⑳。
公开信息显示⑱,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时②,约等于1e23 FLOP⑳。这甚至低于它的原始基础模型预训练成本的1%⑥。
再比如微软的Phi-4-reasoning⑲。
它是在o3-mini生成的数据上训练的⑪。
Phi-4-reasoning在推理阶段规模更小⑰,成本低于1e20 FLOP③,可能是预训练所需算力成本的0.01%⑳。
值得注意的是⑭,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑯。
咱们再来看看今年1月DeepSeek-R1发布后⑰,Anthropic的CEODario Amodei写的一篇文章④,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式❸,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑪,花费从10万美元提高到100万美元就能带来巨大收益❸。如今⑮,各公司正迅速加快步伐⑲,将第二阶段的规模扩大到数亿乃至数十亿美元⑥。有一点必须重视⑫,那就是我们正处于一个独特的转折点上⑰。
当然了⑦,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑱。
但可以清晰了解⑤,截至今年1月❸,他认为推理模型的训练成本远低于“数千万美元”④,大于1e26 FLOP⑦。
Epoch AI总结道——
上述的预估和线索指向一个事实⑫,那就是目前最前沿的推理模型④,比如o1⑳,甚至o3⑦,它们的推理训练规模都还没见顶①,还能继续scalable⑥。
但1年内可能就撞墙了⑨、换句话说⑬,如果推理训练还没见顶②,那么推理模型还是有潜力在短期内快速实现能力拓展的⑥。
这就意味着③,推理模型还很能打④,潜力巨大⑲。
就像OpenAI展示出的下图⑥,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长❶。
这表明②,至少在数学和编程任务上⑱,推理模型的性能随着推理训练的扩展而增强⑧,就像预训练的scaling law一样⑳。
行文至此处②,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶❶,那么其带来的增长率将收敛⑰,大概是每年增长4倍⑰。
绝不会像o1推出后4个月就有了o3那样⑦,保持几个月增长10倍的态势⑮。
因此⑨,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑪,这种增长率可能在一⑯、两年内减缓⑭,甚至撞墙⑭。
然鹅⑩,想要扩展推理模型并不是那么简单的⑤。
单单是数据不够这一项⑬,就可能导致其停滞不前⑭。
大家也都还不清楚⑨,除了数学⑨、编程领域⑧,推理训练是否能泛化到其
它❷、规律性没那么强的领域❸。
但可以肯定的是③,随着推理模型的训练越来越成熟⑨,所有推理模型所需的成本可能都趋同⑱。
虽然研究成本的高低并不影响算力和性能之间的关系⑰,但如果相关研究保持“花钱如流水”的状态②,那么推理模型可能无法达到人们心中预期的最佳水平③。
另一方面④,即使所需算力的增长速度放缓⑳,推理模型也可能持续进化⑪,就像R1那样▓。
换句话说⑩,不只有数据或算法创新能推动推理模型的进步①,算力大增也是推动推理模型进步的关键因素⑧。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑲,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑧,非常欢迎各位朋友分享到个人站长或者朋友圈⑦,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”▓。
很赞哦①!
相关文章
随机图文
张极观看张杰演唱会后发合照⑭,称希望有更多机会看演出
在战略协同和组织创新的推动下⑤,京东的各项业务开始持续加速增长⑧,特别是围绕用户体验在显着提升⑭。巴媒:足协接触安帅因皇马成绩变差⑤;沙特球队曾出3000万薪水
有报道显示⑩,云迹科技“润”系列机器人的单价在2022年为2.32万元⑦,在2024年则为1.31万元❶,其降价幅度高达43.8%⑲。除“润”系列产品外❷,其于2023年推出的“UP”系列机器人更是在一年内降价奇耻大辱④,桑普多利亚队史首次降入丙级联赛
Father Judge高中的高年级学生艾登·霍兰德获得了一份年薪7.5万美元的焊接职位 费城Father Judge高中的焊接教师乔·威廉姆斯表示⑨,该校焊接项目的24名应届毕业生均收到了年薪5万美北京白天高温夜间冰雹⑳?气象部门解答成因
//初始化反作弊③、// 只需初始化一次⑦、"isShowComments": isShowComments,中华骨髓库非血缘造血干细胞累计捐献突破2万例
上图显示⑭,AI和内存相关的公司在排名中普遍上升⑰,三星②、SK海力士和美光等内存芯片制造商在2024年均成功跻身全球芯片市场前七大公司之列❶。不满意结果❶?准状元弗拉格在独行侠赢得状元签时表情凝重
勇士队主教练科尔谈到巴特勒时说:“他今晚的进攻侵略性不如以往❷。但我也没看到太多他的出手机会⑲。理想情况下④,我们应该在他身边安排更多的投手来拉开空间⑩。但斯蒂芬不在②,我们没办法做到这一点⑤。我们会回看比赛录像小米法务部:收到法院终审判决 聚好看商业诋毁案维持原判 小米获赔55万元
这位粉丝说⑮,她相信大S跟具俊晔在一起的这三年▓,肯定是她这一生中最轻松快乐的日子⑲。声声“还我广州队”④,该喊给谁听⑧?
根据协议②,十余家美国防务企业将向沙特提供先进武器和服务⑦,涵盖五个领域:空军升级与太空能力建设⑤、防空及导弹防御系统②、海上与海岸安全体系⑲、边境安全及陆军现代化改造❶、信息与通信系统升级⑳。此外⑬,美方还将为沙特