您现在的位置是:网站首页> 中国足球中国足球
魔幻奇缘电玩城下载地址
萧灵槐 2025-05-14 【中国足球】 2608 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内③,大模型推理训练可能就会撞墙⑨。
以上结论来自Epoch AI⑬。
这是一个专注于人工智能研究和基准测试的非营利组织⑨,之前名动一时的FrontierMath基准测试就出自它家⑬。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」④,那么推理训练所需的算力可能会大幅收敛▓。
就像DeepSeek-R1之于OpenAI o1-preview那样④。
看了这个结果⑬,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑲,那为啥咱不探索模块化架构或针对特定任务的专用模型呢④?“效率”比“研究过剩”更重要❸!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作▓。
和o3⑯、DeepSeek-R1等一样❶,它们从传统的大语言模型发展而来▓,在预训练阶段使用了大量人类数据进行训练❸,然后在强化学习阶段⑰,根据解题的反馈来改进自己的推理能力④。
虽然推理模型已经成为了很多AI使用者的实用帮手⑭,但关于推理训练所需算力的公开信息非常少④,大概只有以下这些:
OpenAI表示⑤,与o1相比⑥,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑤。
OpenAI没有公开o1❸、o3的具体细节⑲,但可以从DeepSeek-R1❷、微软Phi-4-reasoning②、英伟达Llama-Nemotron等其它推理模型③。它们所需的推理训练阶段算力耕地⑫,但可以根据它们进行推演⑰。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章❸。
然后就没有然后了……⑧、根据现有的信息和资料⑮,Epoch AI进行了总结和分析⑥。
首先①,OpenAI公开过这样一张图表⑥,上面展示了o3和o1在AIME基准测试中的表现⑫,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑩,终版o3花费的算力是o1的10倍⑤。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑪。”
Epoch AI罗列了这一猜测的证据③。
第一③,初代o1耗费的算力比o3低四个数量级③,其在AIME上的得分约为25%❷。
如果x轴表示总计算量⑲,“不太可能呈现这种情况”⑲。
第二③,如果x轴表示的是所需总算力⑧,这张图意义就不大了⑬。
因为这就意味着OpenAI训练了N个版本的o1⑳,且预训练阶段非常不完整⑲。
依照Epoch AI的猜测❶,如果o3在推理结算花费的算力是o1的10倍⑧,这意味着什么①?
由于很多推理模型背后团队都学精了⑱,并不公开训练方法和过程⑯,所以只能从现有公开资料里去寻找答案⑪。
比如DeepSeek-R1⑬。
Epoch AI此前估算①,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP①,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%③。
虽然只是一种估算⑰,但R1在各个榜单上的得分和o1非常接近❶,“因此可以用它来为o1所需算力设定一个baseline”⑧。
比如英伟达的Llama-Nemotron Ultra⑱,它在各个基准上的分数与DeepSeek-R1和o1相当⑲。
它是在DeepSeek-R1生成的数据上训练的⑱。
公开信息显示⑱,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时②,约等于1e23 FLOP⑭。这甚至低于它的原始基础模型预训练成本的1%❷。
再比如微软的Phi-4-reasoning❶。
它是在o3-mini生成的数据上训练的⑦。
Phi-4-reasoning在推理阶段规模更小⑲,成本低于1e20 FLOP①,可能是预训练所需算力成本的0.01%②。
值得注意的是①,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑤。
咱们再来看看今年1月DeepSeek-R1发布后❷,Anthropic的CEODario Amodei写的一篇文章⑦,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑯,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少②,花费从10万美元提高到100万美元就能带来巨大收益④。如今⑰,各公司正迅速加快步伐⑱,将第二阶段的规模扩大到数亿乃至数十亿美元❷。有一点必须重视⑬,那就是我们正处于一个独特的转折点上④。
当然了①,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据③。
但可以清晰了解❶,截至今年1月❸,他认为推理模型的训练成本远低于“数千万美元”❶,大于1e26 FLOP❷。
Epoch AI总结道——
上述的预估和线索指向一个事实⑳,那就是目前最前沿的推理模型❶,比如o1③,甚至o3⑭,它们的推理训练规模都还没见顶⑮,还能继续scalable⑩。
但1年内可能就撞墙了⑲、换句话说⑧,如果推理训练还没见顶⑨,那么推理模型还是有潜力在短期内快速实现能力拓展的⑩。
这就意味着⑤,推理模型还很能打⑮,潜力巨大❶。
就像OpenAI展示出的下图⑧,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑤。
这表明⑫,至少在数学和编程任务上⑤,推理模型的性能随着推理训练的扩展而增强⑪,就像预训练的scaling law一样⑫。
行文至此处①,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶③,那么其带来的增长率将收敛⑫,大概是每年增长4倍①。
绝不会像o1推出后4个月就有了o3那样⑮,保持几个月增长10倍的态势⑱。
因此②,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级⑯,这种增长率可能在一④、两年内减缓⑫,甚至撞墙⑱。
然鹅⑳,想要扩展推理模型并不是那么简单的⑯。
单单是数据不够这一项①,就可能导致其停滞不前⑤。
大家也都还不清楚❸,除了数学⑫、编程领域⑤,推理训练是否能泛化到其
它⑮、规律性没那么强的领域⑲。
但可以肯定的是▓,随着推理模型的训练越来越成熟⑯,所有推理模型所需的成本可能都趋同⑪。
虽然研究成本的高低并不影响算力和性能之间的关系⑳,但如果相关研究保持“花钱如流水”的状态⑫,那么推理模型可能无法达到人们心中预期的最佳水平⑬。
另一方面⑬,即使所需算力的增长速度放缓⑯,推理模型也可能持续进化⑨,就像R1那样⑥。
换句话说▓,不只有数据或算法创新能推动推理模型的进步⑮,算力大增也是推动推理模型进步的关键因素❶。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑩,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐③,非常欢迎各位朋友分享到个人站长或者朋友圈④,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑩。
很赞哦⑳!
相关文章
随机图文
-
【中国梦·劳动美】全国先进工作者代建荣:用心浇灌迟开的花朵
官图来看②,猛龙燃油版颜值确实不赖⑰,“方盒子”造型配合绿色涂鸦⑭,开在马路上回头率肯定不低⑨。对比现款PHEV车型⑨,燃油版车型将车头调整为直瀑式中网⑤,并缩小了“HAVAL”字母标识▓。此外⑤,头灯组由原来的圆形 -
赖特:我希望B费能来阿森纳②,想看到枪手阵容中有这样的球员
政府的最新行政命令放宽了环境限制④,鼓励更多的化石燃料开发⑪,这对油田矿工来说是一个福音⑦,尽管批评者警告说⑬,这可能会带来巨大的气候成本⑥。 违规收集使用个人信息被通报⑦,爱奇艺:将更新合规版本
鄂尔多斯市中级人民法院认为⑤,被告人王宜林的行为构成受贿罪❶,受贿数额特别巨大②,应依法惩处②。解约金5800万⑱!德天空:阿森纳利物浦领跑怀森争夺战⑱,皇马仍有意
吴桥县税务局相关负责人表示⑧,接下来⑮,他们将持续完善资源回收企业备案机制⑬,精准锚定符合条件的纳税人▓,继续做好“反向开票”政策宣传引导③,帮助纳税人归好类⑩、开好票⑯、报好税⑭,促进资源回收企业健康发展⑩。亚洲举重锦标赛❷,杨秋霞刷新女子71公斤级抓举世界纪录
中美最终加征多少关税⑰?降了多少⑤?我们做了道数学题传奇之路⑳,爱德华兹砍24岁前第13次季后赛30+⑯,仅次于詹杜科东
阿维塔官方立刻坐不住了④,下场“悬赏500万元打击黑公关”③,并在5月9日紧急开启阿维塔12风洞测试的全网直播③,测得风阻系数约为0.217▓,“与官宣风阻系数相当”⑤。但这场直播并未说服“苏黎世贝勒爷”⑫,他表-
美凯龙:董事兼总经理车建兴被立案调查并实施留置
特别声明:以上文章内容仅代表作者本人观点⑧,不代表新浪网观点或立场❸。如有关于作品内容⑩、版权或其它问题请于作品发表后的30日内与新浪网联系⑯。 现场观战国家德比⑩,美国演员泰瑞-克鲁斯与多名巴萨球员合照
根据相关法律⑦,在参议院获得三分之二参议员支持⑲,弹劾案方可通过⑲。若被定罪⑯,莎拉不仅将被弹劾⑤,还将无缘2028年总统选举⑰。值得一提的是④,马科斯不得连任④,莎拉目前被视为下一届总统选举热门人选⑲。“目前来看④,这