您现在的位置是:网站首页>娱乐娱乐
hy电玩城官网下载苹果
赖半芹 2025-05-14 【
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑳,大模型推理训练可能就会撞墙⑮。
以上结论来自Epoch AI⑳。
这是一个专注于人工智能研究和基准测试的非营利组织⑪,之前名动一时的FrontierMath基准测试就出自它家⑮。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑬,那么推理训练所需的算力可能会大幅收敛⑭。
就像DeepSeek-R1之于OpenAI o1-preview那样⑥。
看了这个结果⑤,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑫,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑳?“效率”比“研究过剩”更重要❸!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑰。
和o3⑮、DeepSeek-R1等一样❸,它们从传统的大语言模型发展而来⑩,在预训练阶段使用了大量人类数据进行训练④,然后在强化学习阶段⑬,根据解题的反馈来改进自己的推理能力⑪。
虽然推理模型已经成为了很多AI使用者的实用帮手⑲,但关于推理训练所需算力的公开信息非常少⑧,大概只有以下这些:
OpenAI表示①,与o1相比⑭,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑤。
OpenAI没有公开o1❷、o3的具体细节❷,但可以从DeepSeek-R1⑥、微软Phi-4-reasoning⑱、英伟达Llama-Nemotron等其它推理模型⑫。它们所需的推理训练阶段算力耕地⑤,但可以根据它们进行推演⑫。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑦。
然后就没有然后了……⑭、根据现有的信息和资料④,Epoch AI进行了总结和分析⑫。
首先③,OpenAI公开过这样一张图表⑤,上面展示了o3和o1在AIME基准测试中的表现⑭,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑧,终版o3花费的算力是o1的10倍⑪。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑭。”
Epoch AI罗列了这一猜测的证据⑬。
第一⑱,初代o1耗费的算力比o3低四个数量级⑭,其在AIME上的得分约为25%❸。
如果x轴表示总计算量❶,“不太可能呈现这种情况”⑰。
第二⑰,如果x轴表示的是所需总算力▓,这张图意义就不大了①。
因为这就意味着OpenAI训练了N个版本的o1⑱,且预训练阶段非常不完整⑨。
依照Epoch AI的猜测①,如果o3在推理结算花费的算力是o1的10倍①,这意味着什么⑯?
由于很多推理模型背后团队都学精了⑰,并不公开训练方法和过程①,所以只能从现有公开资料里去寻找答案⑧。
比如DeepSeek-R1⑰。
Epoch AI此前估算❷,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP①,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑩。
虽然只是一种估算⑧,但R1在各个榜单上的得分和o1非常接近⑰,“因此可以用它来为o1所需算力设定一个baseline”❶。
比如英伟达的Llama-Nemotron Ultra❶,它在各个基准上的分数与DeepSeek-R1和o1相当①。
它是在DeepSeek-R1生成的数据上训练的⑳。
公开信息显示⑰,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时②,约等于1e23 FLOP⑧。这甚至低于它的原始基础模型预训练成本的1%⑩。
再比如微软的Phi-4-reasoning⑬。
它是在o3-mini生成的数据上训练的❷。
Phi-4-reasoning在推理阶段规模更小⑬,成本低于1e20 FLOP③,可能是预训练所需算力成本的0.01%⑨。
值得注意的是❷,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调❸。
咱们再来看看今年1月DeepSeek-R1发布后▓,Anthropic的CEODario Amodei写的一篇文章⑮,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑬,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少③,花费从10万美元提高到100万美元就能带来巨大收益⑫。如今⑤,各公司正迅速加快步伐④,将第二阶段的规模扩大到数亿乃至数十亿美元⑳。有一点必须重视⑥,那就是我们正处于一个独特的转折点上⑤。
当然了⑪,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑨。
但可以清晰了解⑧,截至今年1月④,他认为推理模型的训练成本远低于“数千万美元”①,大于1e26 FLOP⑱。
Epoch AI总结道——
上述的预估和线索指向一个事实⑦,那就是目前最前沿的推理模型⑦,比如o1⑫,甚至o3⑧,它们的推理训练规模都还没见顶⑧,还能继续scalable❶。
但1年内可能就撞墙了❶、换句话说③,如果推理训练还没见顶⑱,那么推理模型还是有潜力在短期内快速实现能力拓展的⑱。
这就意味着⑬,推理模型还很能打⑧,潜力巨大⑧。
就像OpenAI展示出的下图⑲,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长❶。
这表明⑩,至少在数学和编程任务上⑱,推理模型的性能随着推理训练的扩展而增强⑤,就像预训练的scaling law一样⑦。
行文至此处❸,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶❸,那么其带来的增长率将收敛⑮,大概是每年增长4倍⑩。
绝不会像o1推出后4个月就有了o3那样⑤,保持几个月增长10倍的态势③。
因此⑥,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑰,这种增长率可能在一⑥、两年内减缓③,甚至撞墙❷。
然鹅③,想要扩展推理模型并不是那么简单的⑱。
单单是数据不够这一项❶,就可能导致其停滞不前③。
大家也都还不清楚⑨,除了数学⑩、编程领域⑱,推理训练是否能泛化到其
它⑩、规律性没那么强的领域⑨。
但可以肯定的是⑯,随着推理模型的训练越来越成熟⑭,所有推理模型所需的成本可能都趋同⑱。
虽然研究成本的高低并不影响算力和性能之间的关系③,但如果相关研究保持“花钱如流水”的状态⑮,那么推理模型可能无法达到人们心中预期的最佳水平⑩。
另一方面⑧,即使所需算力的增长速度放缓①,推理模型也可能持续进化③,就像R1那样⑲。
换句话说⑨,不只有数据或算法创新能推动推理模型的进步❷,算力大增也是推动推理模型进步的关键因素③。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑨,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑧,非常欢迎各位朋友分享到个人站长或者朋友圈▓,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”▓。
很赞哦⑤!
相关文章
随机图文
【受权发布】北京市5月13日发布雷电黄色预警
区间⑭、今日⑳、近3日⑱、近5日⑥、近10日⑧、近20日②、主力净流入④、187.99万⑨、450.35万⑭、327.98万⑰、-778.79万⑪、主力持仓⑱、主力没有控盘⑭,筹码分布非常分散③,主力成交额928.69万❷,占总成-
佩杜拉:曼联与亚特兰大重新接触谈埃德松转会
真切回应学生需求与期待⑮,“成都市大中小学思政行且知实践课堂”也将在前期“思政语文课”的打板基础上❶,拓展针对中学生群体的“思政历史课”“思政科学课”系列“思政行且知”融合课堂实例⑳,为不同学段的学生提供丰 2024智慧家长家教好故事展播(二)
5月9日⑪,据新财富杂志报道⑯,西北大学副校长④、2024年“何梁何利基金科学与技术创新奖”获得者范代娣❸,持股市值达443亿元⑮,晋升为新一任陕西首富⑧,并称“这或许是教育体制内身家最高的了④。”另据新财富杂志披想要截胡拜仁⑧!法尔克:曼城已正式报价维尔茨⑳,转会费1
王欣预测⑬,在未来一年内⑭,AI智能体在安全领域的任务中⑮,有一部分从“辅助驾驶”向“自动驾驶”发展❷。中央层面深入贯彻中央八项规定精神学习教育工作专班⑦、中央纪委办公厅公开通报李献林⑦、叶金广等人违规吃喝严重违反中央八项规定精神问题
股权结构分散与治理隐患⑮、公司无实际控制人的股权结构引发监管关注⑩。控股股东富友集团持股61%⑭,但穿透后实际由多名自然人通过复杂持股平台控制⑱,管理层频繁变动亦暴露治理稳定性风险❶。分散的股权可能导致战略决策单节16分奠定胜局⑯,爱德华兹21中11砍30分4板5助2断③,三分11中6 明尼苏达森林狼队 特雷莎·爱德华兹
来自于:北京⑧、权利保护声明页/Notice to Right Holders费迪南德:阿莫林会想重建球队⑲,一半的球员将被清洗
北京时间5月13日③,曼城官方发布新赛季主场球衣⑩,球衣采用天蓝色主体加白色斜杠设计⑫,这是俱乐部历史上首次在主场球衣上采用了斜杠设计⑩,曼城俱乐部官方还发布了视频❷,其中名宿萨莫比⑳、现一线队球员哈兰德⑭、阿坎吉GPT-4o在图像修复领域的初探:技术突破与现实应用的平衡之道
赛事由秦皇岛市人民政府主办④,河北省体育局指导⑮,中共秦皇岛市委宣传部①、秦皇岛市体育局⑫、秦皇岛市卫生健康委员会⑮、海港区人民政府⑬、北戴河区人民政府承办⑪,秦皇岛市田径协会协办⑮,河北野人体育文化发展有限公司运营