您现在的位置是:网站首页>国内国内
电玩城下载大全免费
曾忆寒 2025-05-14 【国内】 4049 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内❸,大模型推理训练可能就会撞墙⑲。
以上结论来自Epoch AI⑩。
这是一个专注于人工智能研究和基准测试的非营利组织❶,之前名动一时的FrontierMath基准测试就出自它家⑮。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑲,那么推理训练所需的算力可能会大幅收敛⑦。
就像DeepSeek-R1之于OpenAI o1-preview那样❶。
看了这个结果❶,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑲,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑨?“效率”比“研究过剩”更重要❸!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑯。
和o3⑱、DeepSeek-R1等一样⑱,它们从传统的大语言模型发展而来④,在预训练阶段使用了大量人类数据进行训练❷,然后在强化学习阶段❶,根据解题的反馈来改进自己的推理能力⑧。
虽然推理模型已经成为了很多AI使用者的实用帮手⑰,但关于推理训练所需算力的公开信息非常少②,大概只有以下这些:
OpenAI表示⑩,与o1相比⑱,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段②。
OpenAI没有公开o1⑱、o3的具体细节⑪,但可以从DeepSeek-R1⑥、微软Phi-4-reasoning⑱、英伟达Llama-Nemotron等其它推理模型①。它们所需的推理训练阶段算力耕地⑨,但可以根据它们进行推演❸。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章③。
然后就没有然后了……③、根据现有的信息和资料▓,Epoch AI进行了总结和分析⑬。
首先⑩,OpenAI公开过这样一张图表❸,上面展示了o3和o1在AIME基准测试中的表现⑨,以及两者在推理训练阶段可能所需的算力的对比——
可以看到②,终版o3花费的算力是o1的10倍⑨。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑪。”
Epoch AI罗列了这一猜测的证据②。
第一⑳,初代o1耗费的算力比o3低四个数量级⑳,其在AIME上的得分约为25%⑬。
如果x轴表示总计算量⑮,“不太可能呈现这种情况”⑲。
第二④,如果x轴表示的是所需总算力⑲,这张图意义就不大了❶。
因为这就意味着OpenAI训练了N个版本的o1❷,且预训练阶段非常不完整⑬。
依照Epoch AI的猜测⑬,如果o3在推理结算花费的算力是o1的10倍⑨,这意味着什么①?
由于很多推理模型背后团队都学精了❸,并不公开训练方法和过程⑬,所以只能从现有公开资料里去寻找答案⑮。
比如DeepSeek-R1⑫。
Epoch AI此前估算⑤,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑨,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%②。
虽然只是一种估算⑨,但R1在各个榜单上的得分和o1非常接近⑬,“因此可以用它来为o1所需算力设定一个baseline”❸。
比如英伟达的Llama-Nemotron Ultra⑫,它在各个基准上的分数与DeepSeek-R1和o1相当④。
它是在DeepSeek-R1生成的数据上训练的⑲。
公开信息显示❷,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑰,约等于1e23 FLOP⑯。这甚至低于它的原始基础模型预训练成本的1%⑳。
再比如微软的Phi-4-reasoning⑪。
它是在o3-mini生成的数据上训练的▓。
Phi-4-reasoning在推理阶段规模更小⑦,成本低于1e20 FLOP❸,可能是预训练所需算力成本的0.01%❷。
值得注意的是▓,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑱。
咱们再来看看今年1月DeepSeek-R1发布后⑪,Anthropic的CEODario Amodei写的一篇文章⑲,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑰,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑧,花费从10万美元提高到100万美元就能带来巨大收益①。如今⑳,各公司正迅速加快步伐⑳,将第二阶段的规模扩大到数亿乃至数十亿美元▓。有一点必须重视⑮,那就是我们正处于一个独特的转折点上⑥。
当然了④,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑮。
但可以清晰了解❶,截至今年1月▓,他认为推理模型的训练成本远低于“数千万美元”④,大于1e26 FLOP⑪。
Epoch AI总结道——
上述的预估和线索指向一个事实⑨,那就是目前最前沿的推理模型❷,比如o1⑧,甚至o3▓,它们的推理训练规模都还没见顶③,还能继续scalable②。
但1年内可能就撞墙了⑫、换句话说④,如果推理训练还没见顶⑰,那么推理模型还是有潜力在短期内快速实现能力拓展的❷。
这就意味着⑰,推理模型还很能打⑪,潜力巨大⑤。
就像OpenAI展示出的下图⑯,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑳。
这表明⑥,至少在数学和编程任务上⑮,推理模型的性能随着推理训练的扩展而增强⑬,就像预训练的scaling law一样⑧。
行文至此处③,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶③,那么其带来的增长率将收敛④,大概是每年增长4倍⑧。
绝不会像o1推出后4个月就有了o3那样①,保持几个月增长10倍的态势⑯。
因此❶,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级③,这种增长率可能在一⑬、两年内减缓⑬,甚至撞墙⑨。
然鹅⑫,想要扩展推理模型并不是那么简单的⑪。
单单是数据不够这一项⑮,就可能导致其停滞不前❸。
大家也都还不清楚⑬,除了数学⑫、编程领域⑧,推理训练是否能泛化到其
它⑨、规律性没那么强的领域⑧。
但可以肯定的是❸,随着推理模型的训练越来越成熟⑯,所有推理模型所需的成本可能都趋同⑦。
虽然研究成本的高低并不影响算力和性能之间的关系▓,但如果相关研究保持“花钱如流水”的状态⑨,那么推理模型可能无法达到人们心中预期的最佳水平⑱。
另一方面❷,即使所需算力的增长速度放缓❶,推理模型也可能持续进化❶,就像R1那样⑦。
换句话说①,不只有数据或算法创新能推动推理模型的进步⑯,算力大增也是推动推理模型进步的关键因素⑲。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑫,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑫,非常欢迎各位朋友分享到个人站长或者朋友圈⑯,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑪。
很赞哦⑦!
相关文章
随机图文
库克:18年勇士2 3落后火箭&我以为要输了 但我们赢了并横扫老詹
就像让一个裁判去评判比赛⑲,可这个裁判却分不清选手们在一些关键细节上的差异❶,还容易被选手的外在表现影响⑱,这样的评判结果肯定不靠谱④。以侨为桥❸,中俄民众越走越亲(侨界关注)
在此之前①,穆尼奥斯在皇马 B 队效力了整整一个赛季⑭,彼时皇马 B 队由劳尔・冈萨雷斯挂帅执教⑪。在皇马 B 队①,穆尼奥斯展现出了出众的实力❷,既能司职前锋攻城拔寨▓,又能出任边锋突破传中⑲。凭借着令人惊叹的速德甲形势:多特蒙德末轮净胜3球即可确保晋级欧冠
据天空体育的消息⑫,里斯-詹姆斯和恩昆库缺席切尔西今日训练⑩。-
线下仅200名额③!CVPR 2025北京论文分享会报名开启
当被问及是否会给自家宠物买三只松鼠的猫粮狗粮时⑥,多位宠物家长的第一反应是①,“三只松鼠还卖猫粮狗粮⑪?”紧接着⑦,大家纷纷对《财经天下》表示②,后续还会观察一段时间⑩,“但凡跨界的⑰,都会好好掂量掂量”❸。 印度14人因饮用假酒死亡③,此前已有假酒事件致百人死亡
此后恰逢全球供应链的震荡⑮、AI大模型的浪潮扑面而来⑲,市场供需的天平前所未有地向本土芯片设计玩家倾斜▓。这似乎是他们最好的时代❷。大疆的野心藏不住了⑱!要用Power系列干翻安克正浩⑪?
北京时间5月13日⑳,NBA季后赛西部半决赛❷,森林狼117-110战胜勇士⑧,系列赛3-1迎来赛点⑭。赛后⑥,森林狼当家球星爱德华兹接受了记者采访⑦。罗马诺:赫伊森渴望加盟皇马⑲;皇马喜欢萨利巴但价格太贵
Interlune 计划分三个阶段实施氦-3 开采计划❷。第一阶段“新月计划”将于 2025 年底启动⑦,计划将一台高光谱相机送往月球南极❶,以远程识别氦-3 储量潜力最高的区域⑪。第二阶段“探月计划”将派遣-
巴基斯坦空军基地遭轰炸现场:大量飞机被炸毁仅剩残骸
来自于:北京④、权利保护声明页/Notice to Right Holders