您现在的位置是:网站首页>足球足球
uu电玩城官网最新版
姚恨玉 2025-05-14 【足球】 7431 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑤,大模型推理训练可能就会撞墙❸。
以上结论来自Epoch AI③。
这是一个专注于人工智能研究和基准测试的非营利组织❸,之前名动一时的FrontierMath基准测试就出自它家④。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑫,那么推理训练所需的算力可能会大幅收敛⑳。
就像DeepSeek-R1之于OpenAI o1-preview那样⑪。
看了这个结果⑯,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑧,那为啥咱不探索模块化架构或针对特定任务的专用模型呢❷?“效率”比“研究过剩”更重要⑪!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作②。
和o3▓、DeepSeek-R1等一样①,它们从传统的大语言模型发展而来❶,在预训练阶段使用了大量人类数据进行训练⑨,然后在强化学习阶段①,根据解题的反馈来改进自己的推理能力④。
虽然推理模型已经成为了很多AI使用者的实用帮手❸,但关于推理训练所需算力的公开信息非常少❷,大概只有以下这些:
OpenAI表示④,与o1相比❷,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑪。
OpenAI没有公开o1③、o3的具体细节⑰,但可以从DeepSeek-R1⑥、微软Phi-4-reasoning⑱、英伟达Llama-Nemotron等其它推理模型④。它们所需的推理训练阶段算力耕地⑰,但可以根据它们进行推演⑳。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑪。
然后就没有然后了……④、根据现有的信息和资料⑥,Epoch AI进行了总结和分析⑮。
首先⑱,OpenAI公开过这样一张图表③,上面展示了o3和o1在AIME基准测试中的表现②,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑯,终版o3花费的算力是o1的10倍⑬。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑬。”
Epoch AI罗列了这一猜测的证据⑱。
第一⑭,初代o1耗费的算力比o3低四个数量级⑱,其在AIME上的得分约为25%❷。
如果x轴表示总计算量⑲,“不太可能呈现这种情况”⑱。
第二⑲,如果x轴表示的是所需总算力①,这张图意义就不大了⑳。
因为这就意味着OpenAI训练了N个版本的o1⑭,且预训练阶段非常不完整⑭。
依照Epoch AI的猜测⑨,如果o3在推理结算花费的算力是o1的10倍⑫,这意味着什么⑫?
由于很多推理模型背后团队都学精了⑨,并不公开训练方法和过程⑪,所以只能从现有公开资料里去寻找答案⑬。
比如DeepSeek-R1⑳。
Epoch AI此前估算⑧,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑮,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%④。
虽然只是一种估算⑲,但R1在各个榜单上的得分和o1非常接近⑨,“因此可以用它来为o1所需算力设定一个baseline”②。
比如英伟达的Llama-Nemotron Ultra⑧,它在各个基准上的分数与DeepSeek-R1和o1相当⑰。
它是在DeepSeek-R1生成的数据上训练的②。
公开信息显示⑪,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时②,约等于1e23 FLOP⑪。这甚至低于它的原始基础模型预训练成本的1%❷。
再比如微软的Phi-4-reasoning⑥。
它是在o3-mini生成的数据上训练的⑧。
Phi-4-reasoning在推理阶段规模更小⑮,成本低于1e20 FLOP⑭,可能是预训练所需算力成本的0.01%⑭。
值得注意的是▓,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑰。
咱们再来看看今年1月DeepSeek-R1发布后⑫,Anthropic的CEODario Amodei写的一篇文章❷,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑳,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑯,花费从10万美元提高到100万美元就能带来巨大收益❷。如今⑫,各公司正迅速加快步伐②,将第二阶段的规模扩大到数亿乃至数十亿美元⑲。有一点必须重视⑱,那就是我们正处于一个独特的转折点上⑱。
当然了⑱,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据③。
但可以清晰了解⑫,截至今年1月⑳,他认为推理模型的训练成本远低于“数千万美元”③,大于1e26 FLOP⑩。
Epoch AI总结道——
上述的预估和线索指向一个事实④,那就是目前最前沿的推理模型❶,比如o1⑧,甚至o3⑥,它们的推理训练规模都还没见顶①,还能继续scalable⑭。
但1年内可能就撞墙了❷、换句话说⑳,如果推理训练还没见顶⑥,那么推理模型还是有潜力在短期内快速实现能力拓展的⑲。
这就意味着⑲,推理模型还很能打⑬,潜力巨大⑨。
就像OpenAI展示出的下图⑭,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长▓。
这表明⑥,至少在数学和编程任务上②,推理模型的性能随着推理训练的扩展而增强⑱,就像预训练的scaling law一样❶。
行文至此处⑰,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑧,那么其带来的增长率将收敛⑤,大概是每年增长4倍⑳。
绝不会像o1推出后4个月就有了o3那样▓,保持几个月增长10倍的态势⑤。
因此⑧,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级❷,这种增长率可能在一⑯、两年内减缓⑪,甚至撞墙⑬。
然鹅⑯,想要扩展推理模型并不是那么简单的⑧。
单单是数据不够这一项⑪,就可能导致其停滞不前⑭。
大家也都还不清楚⑱,除了数学⑱、编程领域❷,推理训练是否能泛化到其
它⑨、规律性没那么强的领域⑮。
但可以肯定的是③,随着推理模型的训练越来越成熟③,所有推理模型所需的成本可能都趋同⑯。
虽然研究成本的高低并不影响算力和性能之间的关系⑦,但如果相关研究保持“花钱如流水”的状态⑨,那么推理模型可能无法达到人们心中预期的最佳水平⑩。
另一方面▓,即使所需算力的增长速度放缓⑰,推理模型也可能持续进化⑱,就像R1那样⑤。
换句话说❸,不只有数据或算法创新能推动推理模型的进步④,算力大增也是推动推理模型进步的关键因素⑮。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑫,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑳,非常欢迎各位朋友分享到个人站长或者朋友圈①,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑮。
很赞哦⑦!
相关文章
随机图文
-
来谈转会⑭?网传维尔茨父子现身慕尼黑塞贝纳大街
对于胡仲华的说法⑬,河南泽槿律师事务所律师付建表示了疑问:“依据《政府采购货物和服务招标投标管理办法》▓,采购人或采购代理机构需依法对投标人的资格进行审查⑧,包括审核供应商营业执照⑥、资质证书⑭、授权委托书等法 鲁媒:战浙江队赛前泰山队管理层与崔康熙交流⑧,最终选择信任后者
连日来⑬,大杜鹃❶、中杜鹃❸、四声杜鹃⑬、八声杜鹃⑤、紫颊直嘴太阳鸟⑫、蓝枕花蜜鸟等珍稀野生鸟翔集中国科学院西双版纳热带植物园⑮,人鸟齐欢⑱,为“有一种叫云南的生活”增添了无尽的乐趣⑯。特朗普突然提到“统一”⑱,台当局急了
斯卡洛尼没有进一步详细说明自己的选择⑬,随着欧洲五大联赛接近尾声❷,其中一些球员仍在争夺冠军头衔⑭。迪马:赫伊森将在未来数小时内作出决定①,皇马目前领跑争夺战
值得一提的是⑱,今年2月25日④,特斯拉曾宣布向中国购买FSD软件的车主推送“城市道路Autopilot自动辅助驾驶”功能⑭,并于3月17日推出为期一个月的FSD智能辅助驾驶限时免费活动⑳。有理⑯、有利▓、有节❷!世贸组织欢迎中美经贸高层会谈取得积极成果
实施山水林田湖草沙一体化保护和修复工程②,建立以国家公园为主体的自然保护地体系等一系列举措③,保护生物多样性⑨。寂寞①。”国家林草局东北虎豹监测与研究中心主任❶、北京师范大学教授冯利民线下仅200名额⑱!CVPR 2025北京论文分享会报名开启
撰文②、/黎炫岐①、编辑/陈邓新⑰、排版/Annalee❶、当你走进酒店❶,看见站在电梯C位的机器人⑳,或许早已不再惊讶⑥;在房间点好外卖⑪,坐等机器人送上门❷,也不过稀疏平常之事……在这个人人都期待机器人走进百姓家的德容生日获国家德比胜利与家庭新成员
配备“够真镜头”⑰、长焦升级❸,可拍远处场景⑤、支持前置变焦自拍⑮、支持前置暗拍o3完爆人类医生⑫,OpenAI基准直击AGI⑩!
客观环境条件⑰,加上不恰当的生活习惯⑳,便很容易引发食物中毒问题▓。