您现在的位置是:网站首页>军事军事
皇家电玩城手机版下载
江水桃 2025-05-14 【 军事】 9769 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内①,大模型推理训练可能就会撞墙③。
以上结论来自Epoch AI❶。
这是一个专注于人工智能研究和基准测试的非营利组织⑱,之前名动一时的FrontierMath基准测试就出自它家⑱。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑤,那么推理训练所需的算力可能会大幅收敛②。
就像DeepSeek-R1之于OpenAI o1-preview那样⑱。
看了这个结果⑤,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑯,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑳?“效率”比“研究过剩”更重要▓!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑪。
和o3⑬、DeepSeek-R1等一样⑰,它们从传统的大语言模型发展而来❷,在预训练阶段使用了大量人类数据进行训练⑯,然后在强化学习阶段①,根据解题的反馈来改进自己的推理能力⑬。
虽然推理模型已经成为了很多AI使用者的实用帮手①,但关于推理训练所需算力的公开信息非常少③,大概只有以下这些:
OpenAI表示⑱,与o1相比⑨,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段❷。
OpenAI没有公开o1③、o3的具体细节⑥,但可以从DeepSeek-R1③、微软Phi-4-reasoning⑤、英伟达Llama-Nemotron等其它推理模型⑰。它们所需的推理训练阶段算力耕地①,但可以根据它们进行推演⑥。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑩。
然后就没有然后了……⑨、根据现有的信息和资料⑮,Epoch AI进行了总结和分析⑫。
首先②,OpenAI公开过这样一张图表⑫,上面展示了o3和o1在AIME基准测试中的表现②,以及两者在推理训练阶段可能所需的算力的对比——
可以看到❶,终版o3花费的算力是o1的10倍④。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑨。”
Epoch AI罗列了这一猜测的证据❶。
第一⑰,初代o1耗费的算力比o3低四个数量级⑥,其在AIME上的得分约为25%⑨。
如果x轴表示总计算量⑱,“不太可能呈现这种情况”①。
第二▓,如果x轴表示的是所需总算力⑬,这张图意义就不大了⑬。
因为这就意味着OpenAI训练了N个版本的o1⑦,且预训练阶段非常不完整①。
依照Epoch AI的猜测❸,如果o3在推理结算花费的算力是o1的10倍⑭,这意味着什么⑥?
由于很多推理模型背后团队都学精了❸,并不公开训练方法和过程⑱,所以只能从现有公开资料里去寻找答案⑤。
比如DeepSeek-R1⑮。
Epoch AI此前估算⑧,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑲,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%❶。
虽然只是一种估算⑲,但R1在各个榜单上的得分和o1非常接近⑱,“因此可以用它来为o1所需算力设定一个baseline”⑯。
比如英伟达的Llama-Nemotron Ultra⑭,它在各个基准上的分数与DeepSeek-R1和o1相当⑲。
它是在DeepSeek-R1生成的数据上训练的⑨。
公开信息显示⑫,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑫,约等于1e23 FLOP②。这甚至低于它的原始基础模型预训练成本的1%❷。
再比如微软的Phi-4-reasoning▓。
它是在o3-mini生成的数据上训练的⑩。
Phi-4-reasoning在推理阶段规模更小⑦,成本低于1e20 FLOP③,可能是预训练所需算力成本的0.01%❶。
值得注意的是⑫,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调②。
咱们再来看看今年1月DeepSeek-R1发布后⑫,Anthropic的CEODario Amodei写的一篇文章⑮,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑬,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少①,花费从10万美元提高到100万美元就能带来巨大收益⑪。如今⑥,各公司正迅速加快步伐②,将第二阶段的规模扩大到数亿乃至数十亿美元⑦。有一点必须重视❶,那就是我们正处于一个独特的转折点上⑭。
当然了⑱,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据❷。
但可以清晰了解⑦,截至今年1月⑱,他认为推理模型的训练成本远低于“数千万美元”⑧,大于1e26 FLOP⑫。
Epoch AI总结道——
上述的预估和线索指向一个事实⑪,那就是目前最前沿的推理模型⑧,比如o1⑤,甚至o3⑤,它们的推理训练规模都还没见顶⑦,还能继续scalable⑳。
但1年内可能就撞墙了⑫、换句话说❷,如果推理训练还没见顶②,那么推理模型还是有潜力在短期内快速实现能力拓展的⑮。
这就意味着⑬,推理模型还很能打⑩,潜力巨大⑪。
就像OpenAI展示出的下图⑤,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长③。
这表明⑰,至少在数学和编程任务上①,推理模型的性能随着推理训练的扩展而增强⑥,就像预训练的scaling law一样❸。
行文至此处⑭,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶④,那么其带来的增长率将收敛⑧,大概是每年增长4倍⑧。
绝不会像o1推出后4个月就有了o3那样⑤,保持几个月增长10倍的态势▓。
因此❸,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级③,这种增长率可能在一②、两年内减缓⑬,甚至撞墙⑧。
然鹅⑮,想要扩展推理模型并不是那么简单的①。
单单是数据不够这一项❶,就可能导致其停滞不前⑬。
大家也都还不清楚❶,除了数学⑳、编程领域②,推理训练是否能泛化到其
它③、规律性没那么强的领域④。
但可以肯定的是⑩,随着推理模型的训练越来越成熟⑫,所有推理模型所需的成本可能都趋同③。
虽然研究成本的高低并不影响算力和性能之间的关系❷,但如果相关研究保持“花钱如流水”的状态⑳,那么推理模型可能无法达到人们心中预期的最佳水平②。
另一方面⑧,即使所需算力的增长速度放缓⑰,推理模型也可能持续进化❶,就像R1那样③。
换句话说⑭,不只有数据或算法创新能推动推理模型的进步③,算力大增也是推动推理模型进步的关键因素③。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑱,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑮,非常欢迎各位朋友分享到个人站长或者朋友圈▓,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑪。
很赞哦⑬!
相关文章
随机图文
20小时发109条帖子 巴西总统卢拉访华 谈了多少合作→
但理想丰满⑱,现实骨感▓。合资开打市场反攻战⑥,就一定能成么⑩?在自主品牌与合资品牌7:3的市场格局下⑯,这场轰轰烈烈的合资品牌反攻战⑧,最终赢家能有多少⑥?合资车企真的能打破多年的模式与体系桎梏②?距分区决赛只剩1胜⑮!兰豆刷纪录弥补11年遗憾⑯?狼记太有先见之明
他对在新冠疫情和智能手机兴起中长大的Z世代表示同情⑬。“这很艰难⑨,”他说⑪。“有时你会被带走⑲,尤其是在现在的社交媒体时代④。”不过⑮,考虑到他的生活经历①,凯恩的主要建议显而易见:“永不放弃⑧。接受生活的起伏⑤。在世体:黄潜不会花1300万欧买断布坎南⑭,球员将回到国米
为了加快施工进度⑪,中船广西公司通过设置新的预舾装组装场地①、优化工序前移▓、模块化组装等方法⑨,将造船周期缩短至12个月左右⑮。同时⑲,严把质量关❸,实现一次对外报验合格率超过98%⑥,得到船东和船检的一致好评⑭。9项重要活动6个展区 第九届丝博会将于5月21日至25日在西安举办
这是一个专注于人工智能研究和基准测试的非营利组织④,之前名动一时的FrontierMath基准测试就出自它家❶。-
国家电投白音华露天矿设备维修部党支部:精准出击 奏响百亿目标奋进曲
直播吧5月13西班牙《马卡报》独家消息⑧,哈维-阿隆索将在赛季末离开勒沃库森⑤,现在可以确定阿隆索将带着三名助教一同加盟皇马❷,现在只剩合同细节尚未敲定⑬。马卡报同时撰文详细介绍了这三位助理教练⑥。 德媒:若接下来几周无法让拜仁决策层认可⑧,埃贝尔或将被解雇
安切洛蒂从皇马离职的时机⑧,与巴西队解雇多里瓦尔“完美”重叠⑱。巴西足球一直在纠结两种思路:美轮美奂的桑巴足球⑯,高效精致的纵深防反❸。正好⑩,这些安切洛蒂都能驾驭⑤。-
朝着解决问题的正确方向迈进——中美经贸高层会谈牵动世界目光
今年五一期间⑱,米哈游和鹰角分别举办了《崩坏:星穹铁道》和《明日方舟》的线下演唱会③,其目的也是在游戏之外⑪,为玩家提供更多与IP互动的形式和机会⑬。但做专场演唱会是一件非常昂贵的事⑲,米哈游CEO大伟哥就曾在 错过冠军后卫⑪?TA:沃克曾被推荐租借至皇马⑰,但最终皇马没有回应
今年以来国际航线数量一路上涨⑦,4个月新增5个通航国家❷,79个国家的“国际特种兵”可以直接“空降”中国⑧。像塞尔维亚可以直飞广州⑮、新疆直通阿拉木图⑲,东帝汶也有航班每周往返厦门⑭。