您现在的位置是:网站首页>娱乐娱乐
水浒传电玩城官方正版下载
马紫蓝 2025-05-14 【 娱乐】 3645 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内②,大模型推理训练可能就会撞墙⑯。
以上结论来自Epoch AI②。
这是一个专注于人工智能研究和基准测试的非营利组织④,之前名动一时的FrontierMath基准测试就出自它家③。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」❶,那么推理训练所需的算力可能会大幅收敛❸。
就像DeepSeek-R1之于OpenAI o1-preview那样⑳。
看了这个结果⑬,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑥,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑯?“效率”比“研究过剩”更重要▓!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作❷。
和o3⑭、DeepSeek-R1等一样❸,它们从传统的大语言模型发展而来⑰,在预训练阶段使用了大量人类数据进行训练⑦,然后在强化学习阶段②,根据解题的反馈来改进自己的推理能力⑲。
虽然推理模型已经成为了很多AI使用者的实用帮手②,但关于推理训练所需算力的公开信息非常少⑧,大概只有以下这些:
OpenAI表示⑦,与o1相比❷,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段❶。
OpenAI没有公开o1⑭、o3的具体细节⑧,但可以从DeepSeek-R1⑫、微软Phi-4-reasoning⑤、英伟达Llama-Nemotron等其它推理模型⑧。它们所需的推理训练阶段算力耕地⑳,但可以根据它们进行推演⑧。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章④。
然后就没有然后了……⑨、根据现有的信息和资料⑪,Epoch AI进行了总结和分析⑤。
首先⑨,OpenAI公开过这样一张图表⑪,上面展示了o3和o1在AIME基准测试中的表现⑱,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑪,终版o3花费的算力是o1的10倍❷。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑭。”
Epoch AI罗列了这一猜测的证据⑨。
第一⑩,初代o1耗费的算力比o3低四个数量级⑮,其在AIME上的得分约为25%⑰。
如果x轴表示总计算量❷,“不太可能呈现这种情况”❷。
第二⑰,如果x轴表示的是所需总算力▓,这张图意义就不大了⑧。
因为这就意味着OpenAI训练了N个版本的o1❷,且预训练阶段非常不完整①。
依照Epoch AI的猜测⑤,如果o3在推理结算花费的算力是o1的10倍⑫,这意味着什么⑩?
由于很多推理模型背后团队都学精了②,并不公开训练方法和过程⑯,所以只能从现有公开资料里去寻找答案④。
比如DeepSeek-R1⑮。
Epoch AI此前估算⑲,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑱,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑪。
虽然只是一种估算⑮,但R1在各个榜单上的得分和o1非常接近⑬,“因此可以用它来为o1所需算力设定一个baseline”⑨。
比如英伟达的Llama-Nemotron Ultra⑩,它在各个基准上的分数与DeepSeek-R1和o1相当⑪。
它是在DeepSeek-R1生成的数据上训练的⑤。
公开信息显示④,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑪,约等于1e23 FLOP⑦。这甚至低于它的原始基础模型预训练成本的1%❸。
再比如微软的Phi-4-reasoning⑳。
它是在o3-mini生成的数据上训练的⑳。
Phi-4-reasoning在推理阶段规模更小❶,成本低于1e20 FLOP❷,可能是预训练所需算力成本的0.01%⑱。
值得注意的是⑱,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑦。
咱们再来看看今年1月DeepSeek-R1发布后⑬,Anthropic的CEODario Amodei写的一篇文章⑲,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式❷,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑧,花费从10万美元提高到100万美元就能带来巨大收益⑬。如今②,各公司正迅速加快步伐❷,将第二阶段的规模扩大到数亿乃至数十亿美元❶。有一点必须重视⑲,那就是我们正处于一个独特的转折点上⑪。
当然了⑦,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑲。
但可以清晰了解❶,截至今年1月⑭,他认为推理模型的训练成本远低于“数千万美元”③,大于1e26 FLOP⑫。
Epoch AI总结道——
上述的预估和线索指向一个事实③,那就是目前最前沿的推理模型⑩,比如o1⑪,甚至o3⑲,它们的推理训练规模都还没见顶▓,还能继续scalable⑮。
但1年内可能就撞墙了⑯、换句话说▓,如果推理训练还没见顶⑦,那么推理模型还是有潜力在短期内快速实现能力拓展的④。
这就意味着⑪,推理模型还很能打⑤,潜力巨大❷。
就像OpenAI展示出的下图⑥,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长③。
这表明⑬,至少在数学和编程任务上⑪,推理模型的性能随着推理训练的扩展而增强⑱,就像预训练的scaling law一样❸。
行文至此处②,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑥,那么其带来的增长率将收敛⑬,大概是每年增长4倍⑰。
绝不会像o1推出后4个月就有了o3那样⑪,保持几个月增长10倍的态势①。
因此⑰,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑱,这种增长率可能在一❶、两年内减缓⑤,甚至撞墙②。
然鹅⑨,想要扩展推理模型并不是那么简单的⑰。
单单是数据不够这一项②,就可能导致其停滞不前⑰。
大家也都还不清楚⑩,除了数学❷、编程领域②,推理训练是否能泛化到其
它⑮、规律性没那么强的领域⑯。
但可以肯定的是⑯,随着推理模型的训练越来越成熟⑦,所有推理模型所需的成本可能都趋同②。
虽然研究成本的高低并不影响算力和性能之间的关系❷,但如果相关研究保持“花钱如流水”的状态⑦,那么推理模型可能无法达到人们心中预期的最佳水平⑦。
另一方面⑦,即使所需算力的增长速度放缓⑳,推理模型也可能持续进化⑳,就像R1那样⑧。
换句话说⑪,不只有数据或算法创新能推动推理模型的进步⑲,算力大增也是推动推理模型进步的关键因素❶。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可▓,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑲,非常欢迎各位朋友分享到个人站长或者朋友圈⑬,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”③。
很赞哦②!
上一篇:中美谈判❷,三大看点
相关文章
随机图文
主动询问新帅是谁某皇马球员:看看阿隆索敢不敢进这个疯人院
新浪财经公众号⑮、24和视频⑩,更多粉丝福利扫描二维码关注人民币兑美元中间价涨破7.2⑧!机构:称短时有升破7.1的可能
特别声明:以上文章内容仅代表作者本人观点⑯,不代表新浪网观点或立场⑪。如有关于作品内容⑦、版权或其它问题请于作品发表后的30日内与新浪网联系▓。福建鸿进达智能科技申请减震机构及新能源汽车电池检测设备专利⑱,有着更好的缓冲作用
关键字 :⑮、布朗浙江广厦总决赛巴里⑲、来自于:北京❶、权利保护声明页/Notice to Right Holders服饰音乐皆“入药” 书法绘画共“治心”(温暖医院面面观)
斜杠设计首次出现在20世纪70年代的球衣上⑪,由迈克-萨莫比⑯、科林-贝尔④、弗朗西斯-李和托尼-布克等俱乐部传奇人物穿着⑨,斜杠在曼城俱乐部有着悠久而丰富的历史❸。安克割草机器人入驻速卖通 销售额同比增153%
本文转自:人民网❸、据“工信微报”消息▓,今年前4个月▓,我国汽车产销量历史上首次双双突破1000万辆⑪,同比增长均超过10%⑮。此外①,新能源汽车新车销量达到汽车新车总销量的42.7%③。阿维塔:已起诉博主“苏黎世贝勒爷” 索赔1000万
个人住房公积金贷款利率调整执行根据住房公积金管理规定①,本次个人住房公积金贷款按照以下方式执行调整:2025年5月8日后受理的个人住房公积金贷款按照相应利率档次执行新的个人住房公积金贷款利率⑨。以AI为驱动引擎⑩,蘑菇车联MOGOBUS塑造自动驾驶“新坐标”
特别声明:以上文章内容仅代表作者本人观点⑱,不代表新浪网观点或立场⑬。如有关于作品内容▓、版权或其它问题请于作品发表后的30日内与新浪网联系⑨。-
记者:德布劳内已同意加盟那不勒斯⑩,希望能在度假前完成转会
定位高端的魏牌新能源②,4月销售新车4,811辆⑫,同比增长7.92%⑫。其中⑭,全新高山" class="a_tag J-auto-price-button" data-reffer="880" subid