您现在的位置是: 网站首页>国内国内
178电玩城官方网站
尹代萱 2025-05-14 【国内】 3905 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑮,大模型推理训练可能就会撞墙⑥。
以上结论来自Epoch AI❸。
这是一个专注于人工智能研究和基准测试的非营利组织⑱,之前名动一时的FrontierMath基准测试就出自它家⑭。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑮,那么推理训练所需的算力可能会大幅收敛⑭。
就像DeepSeek-R1之于OpenAI o1-preview那样⑬。
看了这个结果⑨,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑳,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑭?“效率”比“研究过剩”更重要①!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑦。
和o3❸、DeepSeek-R1等一样②,它们从传统的大语言模型发展而来②,在预训练阶段使用了大量人类数据进行训练⑫,然后在强化学习阶段❸,根据解题的反馈来改进自己的推理能力⑱。
虽然推理模型已经成为了很多AI使用者的实用帮手▓,但关于推理训练所需算力的公开信息非常少②,大概只有以下这些:
OpenAI表示⑥,与o1相比⑩,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑦。
OpenAI没有公开o1③、o3的具体细节⑱,但可以从DeepSeek-R1⑨、微软Phi-4-reasoning❶、英伟达Llama-Nemotron等其它推理模型⑫。它们所需的推理训练阶段算力耕地⑱,但可以根据它们进行推演⑫。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章❶。
然后就没有然后了……③、根据现有的信息和资料⑬,Epoch AI进行了总结和分析⑮。
首先⑱,OpenAI公开过这样一张图表②,上面展示了o3和o1在AIME基准测试中的表现⑬,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑪,终版o3花费的算力是o1的10倍⑧。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑳。”
Epoch AI罗列了这一猜测的证据⑦。
第一⑰,初代o1耗费的算力比o3低四个数量级③,其在AIME上的得分约为25%⑮。
如果x轴表示总计算量⑩,“不太可能呈现这种情况”⑭。
第二⑭,如果x轴表示的是所需总算力❶,这张图意义就不大了⑫。
因为这就意味着OpenAI训练了N个版本的o1⑭,且预训练阶段非常不完整⑯。
依照Epoch AI的猜测❸,如果o3在推理结算花费的算力是o1的10倍⑨,这意味着什么⑲?
由于很多推理模型背后团队都学精了⑬,并不公开训练方法和过程⑪,所以只能从现有公开资料里去寻找答案③。
比如DeepSeek-R1⑯。
Epoch AI此前估算⑯,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP❸,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑨。
虽然只是一种估算▓,但R1在各个榜单上的得分和o1非常接近❸,“因此可以用它来为o1所需算力设定一个baseline”⑦。
比如英伟达的Llama-Nemotron Ultra⑪,它在各个基准上的分数与DeepSeek-R1和o1相当①。
它是在DeepSeek-R1生成的数据上训练的⑭。
公开信息显示②,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑥,约等于1e23 FLOP⑥。这甚至低于它的原始基础模型预训练成本的1%⑮。
再比如微软的Phi-4-reasoning❷。
它是在o3-mini生成的数据上训练的⑫。
Phi-4-reasoning在推理阶段规模更小⑤,成本低于1e20 FLOP❸,可能是预训练所需算力成本的0.01%❷。
值得注意的是⑨,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑥。
咱们再来看看今年1月DeepSeek-R1发布后③,Anthropic的CEODario Amodei写的一篇文章❸,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑨,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少①,花费从10万美元提高到100万美元就能带来巨大收益❷。如今⑧,各公司正迅速加快步伐⑥,将第二阶段的规模扩大到数亿乃至数十亿美元⑥。有一点必须重视❷,那就是我们正处于一个独特的转折点上⑱。
当然了③,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑫。
但可以清晰了解①,截至今年1月❸,他认为推理模型的训练成本远低于“数千万美元”❸,大于1e26 FLOP⑱。
Epoch AI总结道——
上述的预估和线索指向一个事实①,那就是目前最前沿的推理模型⑫,比如o1❷,甚至o3①,它们的推理训练规模都还没见顶⑫,还能继续scalable▓。
但1年内可能就撞墙了⑧、换句话说❶,如果推理训练还没见顶❶,那么推理模型还是有潜力在短期内快速实现能力拓展的⑮。
这就意味着⑱,推理模型还很能打⑧,潜力巨大⑪。
就像OpenAI展示出的下图⑨,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长▓。
这表明⑬,至少在数学和编程任务上⑳,推理模型的性能随着推理训练的扩展而增强④,就像预训练的scaling law一样⑮。
行文至此处⑳,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑤,那么其带来的增长率将收敛❶,大概是每年增长4倍⑯。
绝不会像o1推出后4个月就有了o3那样⑨,保持几个月增长10倍的态势▓。
因此⑳,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级❸,这种增长率可能在一▓、两年内减缓⑭,甚至撞墙⑪。
然鹅▓,想要扩展推理模型并不是那么简单的⑭。
单单是数据不够这一项⑧,就可能导致其停滞不前⑲。
大家也都还不清楚❸,除了数学⑪、编程领域⑬,推理训练是否能泛化到其
它⑮、规律性没那么强的领域⑬。
但可以肯定的是④,随着推理模型的训练越来越成熟⑳,所有推理模型所需的成本可能都趋同⑫。
虽然研究成本的高低并不影响算力和性能之间的关系⑦,但如果相关研究保持“花钱如流水”的状态⑨,那么推理模型可能无法达到人们心中预期的最佳水平⑳。
另一方面①,即使所需算力的增长速度放缓❸,推理模型也可能持续进化②,就像R1那样❷。
换句话说⑤,不只有数据或算法创新能推动推理模型的进步❸,算力大增也是推动推理模型进步的关键因素①。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑨,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐②,非常欢迎各位朋友分享到个人站长或者朋友圈⑬,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”③。
很赞哦⑰!
相关文章
随机图文
预算 10 万❸,这五款电车带你开启超值出行之旅
真的牛批⑭,夜爬武功山⑤,第二天又开高速⑥,这波武功山全责①!保险公司不要赔⑫,让武功山赔⑬!文化中国行丨联播一瞬:千万毛中拣一毫⑭!毫虽轻❸,功甚重
此外⑫,日产汽车也持续加大在中国市场的投入⑮。据悉⑫,到2026年底⑤,日产汽车在华合资企业东风日产❷,计划投入100亿元用于新能源研发⑩,同时技术中心人员数量也将增至4000人②。日产中国管理委员会主席①、东风汽车3分钟学会一个雅思7分句段(第291期)
兴安盟科右前旗额尔格图林场中科羊草种植基地①。 到秋天⑨,产出的草种和干草将被送到当地的阿力得尔现代草产业加工物流交易园区▓,干草加工成草粉和草球等饲草料产品⑥,销往全国各地⑲,草种进行包衣加工后▓,直供“三北三只松鼠卖起了猫粮狗粮
多国开展研发竞争⑬、据美国《国家利益》双月刊网站5月10日报道②,尽管部署第六代技术和平台是近期的最大热点①,但美国及其对手之间同时也在酝酿另一场军备竞赛⑧。本月早些时候⑤,美国海军成功试射一枚常规高超音速导弹-
《阿那亚海岸线:汉L与潮汐的对话》
我知道会是怎样的⑲,应该准备接下来的比赛⑩,我心里很清楚④。到了26号⑲,我将有另一件事要干⑩,到时候我再考虑③。 这些景区将免门票⑮!呼和浩特“5·19中国旅游日”200余项活动来袭
快科技5月13日消息⑦,天猫618将于今晚8点正式开启预售⑳。日媒:斯图加特有意签下日本中场藤田让瑠奇马
海燕:云计算时代⑳,是把传统软件所谓的烟囱状给打破了⑪,可能 AI 时代进一步把 SaaS 的藩篱给打破了⑫。马来西亚大师赛男单签表:陆光祖首轮对阵王正行
福利指出⑫,虽然形势已不像人们想象得那样糟糕❸,但这并不意味着形势回到了特朗普上台之前⑥,暂停期限为90天⑬,美国宣布的10%“基准关税”依然存在⑫,“对于这些关税问题将如何解决⑥、它们对世界经济增长和央行政策的