您现在的位置是:网站首页>娱乐娱乐
电玩城忠义堂下载
王初丹❷。听兰 2025-05-14 【娱乐】 4456 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑳,大模型推理训练可能就会撞墙④。
以上结论来自Epoch AI⑱。
这是一个专注于人工智能研究和基准测试的非营利组织⑮,之前名动一时的FrontierMath基准测试就出自它家⑦。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」❶,那么推理训练所需的算力可能会大幅收敛⑨。
就像DeepSeek-R1之于OpenAI o1-preview那样⑧。
看了这个结果⑱,有围观网友都着急了:
既然在o3基础上再scaling非常困难❸,那为啥咱不探索模块化架构或针对特定任务的专用模型呢▓?“效率”比“研究过剩”更重要①!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作③。
和o3⑰、DeepSeek-R1等一样❸,它们从传统的大语言模型发展而来⑭,在预训练阶段使用了大量人类数据进行训练⑬,然后在强化学习阶段⑫,根据解题的反馈来改进自己的推理能力②。
虽然推理模型已经成为了很多AI使用者的实用帮手④,但关于推理训练所需算力的公开信息非常少⑲,大概只有以下这些:
OpenAI表示②,与o1相比⑫,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段②。
OpenAI没有公开o1❷、o3的具体细节①,但可以从DeepSeek-R1⑮、微软Phi-4-reasoning④、英伟达Llama-Nemotron等其它推理模型⑲。它们所需的推理训练阶段算力耕地⑮,但可以根据它们进行推演⑧。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章④。
然后就没有然后了……⑲、根据现有的信息和资料⑱,Epoch AI进行了总结和分析⑱。
首先▓,OpenAI公开过这样一张图表⑦,上面展示了o3和o1在AIME基准测试中的表现⑱,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑪,终版o3花费的算力是o1的10倍⑭。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力③。”
Epoch AI罗列了这一猜测的证据⑯。
第一❶,初代o1耗费的算力比o3低四个数量级①,其在AIME上的得分约为25%⑲。
如果x轴表示总计算量④,“不太可能呈现这种情况”⑦。
第二⑲,如果x轴表示的是所需总算力⑲,这张图意义就不大了③。
因为这就意味着OpenAI训练了N个版本的o1⑰,且预训练阶段非常不完整③。
依照Epoch AI的猜测⑦,如果o3在推理结算花费的算力是o1的10倍⑳,这意味着什么❸?
由于很多推理模型背后团队都学精了⑨,并不公开训练方法和过程⑭,所以只能从现有公开资料里去寻找答案⑩。
比如DeepSeek-R1⑧。
Epoch AI此前估算⑥,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑥,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑬。
虽然只是一种估算⑪,但R1在各个榜单上的得分和o1非常接近⑬,“因此可以用它来为o1所需算力设定一个baseline”②。
比如英伟达的Llama-Nemotron Ultra⑧,它在各个基准上的分数与DeepSeek-R1和o1相当❸。
它是在DeepSeek-R1生成的数据上训练的④。
公开信息显示⑮,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑰,约等于1e23 FLOP▓。这甚至低于它的原始基础模型预训练成本的1%⑪。
再比如微软的Phi-4-reasoning⑱。
它是在o3-mini生成的数据上训练的⑦。
Phi-4-reasoning在推理阶段规模更小⑲,成本低于1e20 FLOP⑫,可能是预训练所需算力成本的0.01%⑳。
值得注意的是⑧,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调▓。
咱们再来看看今年1月DeepSeek-R1发布后⑤,Anthropic的CEODario Amodei写的一篇文章❷,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑬,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑩,花费从10万美元提高到100万美元就能带来巨大收益⑯。如今⑮,各公司正迅速加快步伐❸,将第二阶段的规模扩大到数亿乃至数十亿美元⑨。有一点必须重视⑧,那就是我们正处于一个独特的转折点上⑬。
当然了❶,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑩。
但可以清晰了解①,截至今年1月⑬,他认为推理模型的训练成本远低于“数千万美元”⑲,大于1e26 FLOP①。
Epoch AI总结道——
上述的预估和线索指向一个事实⑨,那就是目前最前沿的推理模型⑭,比如o1④,甚至o3⑥,它们的推理训练规模都还没见顶⑥,还能继续scalable⑯。
但1年内可能就撞墙了⑰、换句话说⑦,如果推理训练还没见顶⑪,那么推理模型还是有潜力在短期内快速实现能力拓展的④。
这就意味着⑦,推理模型还很能打⑫,潜力巨大❸。
就像OpenAI展示出的下图⑬,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长❸。
这表明❸,至少在数学和编程任务上❷,推理模型的性能随着推理训练的扩展而增强▓,就像预训练的scaling law一样❷。
行文至此处⑯,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑯,那么其带来的增长率将收敛▓,大概是每年增长4倍⑩。
绝不会像o1推出后4个月就有了o3那样②,保持几个月增长10倍的态势③。
因此▓,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑮,这种增长率可能在一②、两年内减缓④,甚至撞墙⑭。
然鹅②,想要扩展推理模型并不是那么简单的③。
单单是数据不够这一项⑤,就可能导致其停滞不前⑥。
大家也都还不清楚④,除了数学④、编程领域❶,推理训练是否能泛化到其
它⑯、规律性没那么强的领域①。
但可以肯定的是⑳,随着推理模型的训练越来越成熟▓,所有推理模型所需的成本可能都趋同⑨。
虽然研究成本的高低并不影响算力和性能之间的关系⑭,但如果相关研究保持“花钱如流水”的状态⑤,那么推理模型可能无法达到人们心中预期的最佳水平❸。
另一方面⑯,即使所需算力的增长速度放缓⑧,推理模型也可能持续进化⑬,就像R1那样⑰。
换句话说②,不只有数据或算法创新能推动推理模型的进步①,算力大增也是推动推理模型进步的关键因素⑮。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑪,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐▓,非常欢迎各位朋友分享到个人站长或者朋友圈⑭,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑪。
很赞哦❶!
相关文章
随机图文
经济出行好选择 四款12万元级纯电SUV推荐
据意媒报道称❷,尤文将不会对禁赛处罚提出上诉⑨,同时也不会对卡卢卢进行处罚③。618大促今晚开启:淘宝四重优惠叠加 京东每日补贴超千元
5月13日❸,备受瞩目的“瞬感天幕智能轿车”全新智己L6" class="a_tag J-auto-price-button" data-reffer="880" subid="5807">正式上市④,限塞维利亚vs拉斯帕尔马斯:苏索⑳、洛孔加首发⑯,贾努扎伊❶、桑德罗 阿德南·贾努扎伊
首回合❸,桑德兰在客场2-1击败了考文垂⑲。当时③,双方在前88分钟战成1-1平⑳。第88分钟❸,考文垂的后卫出现巨大的回传失误⑨,送给桑德兰单刀球▓。最终⑫,桑德兰2-1绝杀❶。-
特朗普败了⑬,更像是投降
济南市监局通报“工作人员处理消费者投诉情况时用语不文明”:两人停职 云南瞄准绿色化智能化高端化方向 向新向绿推进铅锌产业转型升级
而这些公司有不少在汽车零部件方面与三花合作多年❶,像比亚迪⑰、特斯拉❷,因此三花想在机器人上与它们建立合作相对容易一些⑬。记者观察丨从埃拉特港看以色列为战争付出的经济代价
这种很容易写成乱世中的可怜百姓是男女主play的一环的故事⑥,从一开篇②,在女主和逃婚姐姐的三言两语就点破⑮,“州牧之女去联姻①,是因为受百姓的供奉⑤,怎么可以在黎民大难临头的时候自己跑掉呢❶?”官方:王楚钦正式成为高级珠宝品牌Qeelin代言人
而当前的现状是局面仍在急剧恶化中⑧,因为物流的影响⑪。中国援乍得恩贾梅纳体育场正式移交乍方
原因之一是“政治正确”仍在扭曲印度的经济理性⑯。目前⑨,印度甚至没有解决最基本的前提问题:到底要不要对华合作⑦?从戈亚尔等要员的表态不难看出④,“赌中国输”“唱中国衰”才符合印度版“政治正确”④。在莫迪2月访美
本栏推荐
