您现在的位置是:网站首页>国内国内
超级电玩城的兑换码
覃问兰 2025-05-14 【国内】 4622 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑱,大模型推理训练可能就会撞墙⑩。
以上结论来自Epoch AI⑧。
这是一个专注于人工智能研究和基准测试的非营利组织③,之前名动一时的FrontierMath基准测试就出自它家▓。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑪,那么推理训练所需的算力可能会大幅收敛⑮。
就像DeepSeek-R1之于OpenAI o1-preview那样②。
看了这个结果▓,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑫,那为啥咱不探索模块化架构或针对特定任务的专用模型呢①?“效率”比“研究过剩”更重要⑮!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑯。
和o3⑨、DeepSeek-R1等一样⑲,它们从传统的大语言模型发展而来⑬,在预训练阶段使用了大量人类数据进行训练❶,然后在强化学习阶段⑪,根据解题的反馈来改进自己的推理能力③。
虽然推理模型已经成为了很多AI使用者的实用帮手❷,但关于推理训练所需算力的公开信息非常少⑤,大概只有以下这些:
OpenAI表示⑲,与o1相比⑩,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段②。
OpenAI没有公开o1⑪、o3的具体细节▓,但可以从DeepSeek-R1⑥、微软Phi-4-reasoning③、英伟达Llama-Nemotron等其它推理模型⑥。它们所需的推理训练阶段算力耕地❸,但可以根据它们进行推演❷。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑪。
然后就没有然后了……②、根据现有的信息和资料⑤,Epoch AI进行了总结和分析⑯。
首先⑰,OpenAI公开过这样一张图表❶,上面展示了o3和o1在AIME基准测试中的表现❷,以及两者在推理训练阶段可能所需的算力的对比——
可以看到②,终版o3花费的算力是o1的10倍⑯。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❶。”
Epoch AI罗列了这一猜测的证据①。
第一⑥,初代o1耗费的算力比o3低四个数量级⑳,其在AIME上的得分约为25%⑨。
如果x轴表示总计算量⑧,“不太可能呈现这种情况”⑳。
第二⑦,如果x轴表示的是所需总算力⑰,这张图意义就不大了❸。
因为这就意味着OpenAI训练了N个版本的o1⑩,且预训练阶段非常不完整②。
依照Epoch AI的猜测⑬,如果o3在推理结算花费的算力是o1的10倍⑧,这意味着什么③?
由于很多推理模型背后团队都学精了②,并不公开训练方法和过程⑤,所以只能从现有公开资料里去寻找答案⑮。
比如DeepSeek-R1⑪。
Epoch AI此前估算⑨,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP④,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%▓。
虽然只是一种估算⑭,但R1在各个榜单上的得分和o1非常接近⑯,“因此可以用它来为o1所需算力设定一个baseline”▓。
比如英伟达的Llama-Nemotron Ultra⑨,它在各个基准上的分数与DeepSeek-R1和o1相当❶。
它是在DeepSeek-R1生成的数据上训练的⑰。
公开信息显示⑳,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时❸,约等于1e23 FLOP⑰。这甚至低于它的原始基础模型预训练成本的1%⑫。
再比如微软的Phi-4-reasoning⑨。
它是在o3-mini生成的数据上训练的⑩。
Phi-4-reasoning在推理阶段规模更小⑦,成本低于1e20 FLOP③,可能是预训练所需算力成本的0.01%⑩。
值得注意的是⑮,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑪。
咱们再来看看今年1月DeepSeek-R1发布后⑧,Anthropic的CEODario Amodei写的一篇文章⑳,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑱,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少❸,花费从10万美元提高到100万美元就能带来巨大收益❷。如今❸,各公司正迅速加快步伐⑰,将第二阶段的规模扩大到数亿乃至数十亿美元▓。有一点必须重视▓,那就是我们正处于一个独特的转折点上⑪。
当然了①,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据❷。
但可以清晰了解⑲,截至今年1月⑯,他认为推理模型的训练成本远低于“数千万美元”②,大于1e26 FLOP⑲。
Epoch AI总结道——
上述的预估和线索指向一个事实⑤,那就是目前最前沿的推理模型▓,比如o1④,甚至o3❷,它们的推理训练规模都还没见顶⑮,还能继续scalable❷。
但1年内可能就撞墙了⑪、换句话说⑧,如果推理训练还没见顶⑪,那么推理模型还是有潜力在短期内快速实现能力拓展的⑨。
这就意味着②,推理模型还很能打⑪,潜力巨大⑪。
就像OpenAI展示出的下图⑮,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑭。
这表明⑩,至少在数学和编程任务上⑫,推理模型的性能随着推理训练的扩展而增强②,就像预训练的scaling law一样⑫。
行文至此处❸,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑬,那么其带来的增长率将收敛⑭,大概是每年增长4倍⑪。
绝不会像o1推出后4个月就有了o3那样⑦,保持几个月增长10倍的态势⑮。
因此⑰,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级②,这种增长率可能在一❶、两年内减缓⑪,甚至撞墙⑳。
然鹅①,想要扩展推理模型并不是那么简单的⑨。
单单是数据不够这一项⑤,就可能导致其停滞不前❷。
大家也都还不清楚⑲,除了数学⑧、编程领域⑰,推理训练是否能泛化到其
它⑩、规律性没那么强的领域❶。
但可以肯定的是❷,随着推理模型的训练越来越成熟④,所有推理模型所需的成本可能都趋同⑥。
虽然研究成本的高低并不影响算力和性能之间的关系①,但如果相关研究保持“花钱如流水”的状态❷,那么推理模型可能无法达到人们心中预期的最佳水平❸。
另一方面⑰,即使所需算力的增长速度放缓⑦,推理模型也可能持续进化⑧,就像R1那样②。
换句话说⑬,不只有数据或算法创新能推动推理模型的进步⑲,算力大增也是推动推理模型进步的关键因素⑰。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑪,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑧,非常欢迎各位朋友分享到个人站长或者朋友圈⑥,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑩。
很赞哦⑫!
相关文章
随机图文
欣锐科技:预计2025年新能源汽车销量将达1600万辆⑤,同比增长24.4%
直播吧5月13据德国天空体育记者普莱滕伯格报道⑰,科隆正在努力签下凯泽斯劳滕前锋拉格纳-阿切⑧。专访丨研究中国带回的月球样品是“至高荣誉”——访英国行星科学家马赫什·阿南德
只是❸,30天过去▓,胡塞武装仍然能继续发动攻击⑬,用导弹和无人机袭击美军舰船以及以色列目标⑮,同时加固地下设施⑲,隐藏武器弹药⑧。阿维塔正式起诉博主“苏黎世贝勒爷”侵权⑨,索赔1000万元
处于更年期阶段的女性⑰,除了补充激素之外⑳,身体基础代谢率会有所下降⑫,代谢性疾病的风险将会增加⑧。负面情绪带来的心理压力则会进一步放大对心血管造成的影响❸。这时可以结合她的身体症状持续补钙延缓骨质疏松⑭,并制定陈刚会见中国战略与管理研究会人工智能企业代表团
中央层面深入贯彻中央八项规定精神学习教育工作专班❸、中央纪委办公厅公开通报李献林⑬、叶金广等人违规吃喝严重违反中央八项规定精神问题-新华网G4森林狼117 110勇士⑬,赛后4好消息⑳!双核蜕变⑥,麦克丹顶级防守⑭! 明尼苏达森林狼队
此次风洞测试私用的是阿维塔12量产纯电版车型⑳,带电子外后视镜上海中考出题人是哪个区的小道消息
//初始化反作弊⑬、// 只需初始化一次⑳、"isShowComments": isShowComments,海协会四届三次理事会会议在京召开
德邦物流VS万合鑫⑱、首节双方以试探性攻防开局⑳,万合鑫主打“外线传导+突破分球”④,通过团队配合制造机会⑨,但进攻效率因德邦物流严密盯防而受限⑫;德邦物流则以“内线强攻+中距离跳投”回应⑰,利用身高优势连续冲击非洲留学生在中国找到丰收密码
更讽刺的是⑬,共同遭遇美国关税和安全威胁的加拿大和欧洲国家⑥,为讨好美国⑥,反复打出“中国牌”⑲。欧盟外长卡拉斯多次声称⑩,美欧间贸易战“会让中国受益”⑰。在3月末的七国集团峰会上❸,G7外长在声明中对南海③、台海等