您现在的位置是:网站首页> 军事军事
电玩城五虎上将免费下载
崔乐菱 2025-05-14 【军事】 4951 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内❸,大模型推理训练可能就会撞墙⑤。
以上结论来自Epoch AI⑩。
这是一个专注于人工智能研究和基准测试的非营利组织⑭,之前名动一时的FrontierMath基准测试就出自它家⑨。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」①,那么推理训练所需的算力可能会大幅收敛⑦。
就像DeepSeek-R1之于OpenAI o1-preview那样⑰。
看了这个结果④,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑥,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑫?“效率”比“研究过剩”更重要⑦!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑫。
和o3⑫、DeepSeek-R1等一样①,它们从传统的大语言模型发展而来⑫,在预训练阶段使用了大量人类数据进行训练⑮,然后在强化学习阶段⑧,根据解题的反馈来改进自己的推理能力⑤。
虽然推理模型已经成为了很多AI使用者的实用帮手⑥,但关于推理训练所需算力的公开信息非常少⑦,大概只有以下这些:
OpenAI表示②,与o1相比⑲,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑨。
OpenAI没有公开o1⑧、o3的具体细节⑪,但可以从DeepSeek-R1⑤、微软Phi-4-reasoning⑥、英伟达Llama-Nemotron等其它推理模型⑪。它们所需的推理训练阶段算力耕地⑫,但可以根据它们进行推演❶。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑥。
然后就没有然后了……⑫、根据现有的信息和资料▓,Epoch AI进行了总结和分析⑲。
首先⑮,OpenAI公开过这样一张图表②,上面展示了o3和o1在AIME基准测试中的表现⑲,以及两者在推理训练阶段可能所需的算力的对比——
可以看到❸,终版o3花费的算力是o1的10倍⑤。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑲。”
Epoch AI罗列了这一猜测的证据⑦。
第一❸,初代o1耗费的算力比o3低四个数量级④,其在AIME上的得分约为25%⑳。
如果x轴表示总计算量❷,“不太可能呈现这种情况”⑱。
第二①,如果x轴表示的是所需总算力⑫,这张图意义就不大了⑰。
因为这就意味着OpenAI训练了N个版本的o1⑫,且预训练阶段非常不完整⑨。
依照Epoch AI的猜测❷,如果o3在推理结算花费的算力是o1的10倍⑯,这意味着什么⑲?
由于很多推理模型背后团队都学精了②,并不公开训练方法和过程⑪,所以只能从现有公开资料里去寻找答案⑫。
比如DeepSeek-R1❶。
Epoch AI此前估算❸,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑧,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑱。
虽然只是一种估算⑨,但R1在各个榜单上的得分和o1非常接近⑥,“因此可以用它来为o1所需算力设定一个baseline”⑩。
比如英伟达的Llama-Nemotron Ultra⑧,它在各个基准上的分数与DeepSeek-R1和o1相当⑬。
它是在DeepSeek-R1生成的数据上训练的⑪。
公开信息显示⑥,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时▓,约等于1e23 FLOP④。这甚至低于它的原始基础模型预训练成本的1%⑳。
再比如微软的Phi-4-reasoning⑪。
它是在o3-mini生成的数据上训练的⑳。
Phi-4-reasoning在推理阶段规模更小▓,成本低于1e20 FLOP❷,可能是预训练所需算力成本的0.01%⑧。
值得注意的是⑰,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑪。
咱们再来看看今年1月DeepSeek-R1发布后①,Anthropic的CEODario Amodei写的一篇文章⑯,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑭,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少②,花费从10万美元提高到100万美元就能带来巨大收益⑥。如今③,各公司正迅速加快步伐⑬,将第二阶段的规模扩大到数亿乃至数十亿美元⑨。有一点必须重视▓,那就是我们正处于一个独特的转折点上⑳。
当然了⑲,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑬。
但可以清晰了解⑩,截至今年1月①,他认为推理模型的训练成本远低于“数千万美元”②,大于1e26 FLOP④。
Epoch AI总结道——
上述的预估和线索指向一个事实⑪,那就是目前最前沿的推理模型⑰,比如o1❶,甚至o3⑮,它们的推理训练规模都还没见顶⑨,还能继续scalable⑩。
但1年内可能就撞墙了❸、换句话说▓,如果推理训练还没见顶④,那么推理模型还是有潜力在短期内快速实现能力拓展的❸。
这就意味着⑪,推理模型还很能打⑬,潜力巨大⑫。
就像OpenAI展示出的下图▓,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长❶。
这表明⑪,至少在数学和编程任务上⑳,推理模型的性能随着推理训练的扩展而增强⑨,就像预训练的scaling law一样❶。
行文至此处⑦,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑭,那么其带来的增长率将收敛⑬,大概是每年增长4倍⑲。
绝不会像o1推出后4个月就有了o3那样⑱,保持几个月增长10倍的态势❷。
因此⑮,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级④,这种增长率可能在一⑱、两年内减缓⑱,甚至撞墙⑯。
然鹅⑭,想要扩展推理模型并不是那么简单的⑰。
单单是数据不够这一项⑰,就可能导致其停滞不前③。
大家也都还不清楚⑪,除了数学⑯、编程领域⑬,推理训练是否能泛化到其
它⑫、规律性没那么强的领域⑳。
但可以肯定的是▓,随着推理模型的训练越来越成熟⑥,所有推理模型所需的成本可能都趋同▓。
虽然研究成本的高低并不影响算力和性能之间的关系⑯,但如果相关研究保持“花钱如流水”的状态⑫,那么推理模型可能无法达到人们心中预期的最佳水平②。
另一方面⑮,即使所需算力的增长速度放缓④,推理模型也可能持续进化④,就像R1那样①。
换句话说⑰,不只有数据或算法创新能推动推理模型的进步⑥,算力大增也是推动推理模型进步的关键因素⑨。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑧,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑩,非常欢迎各位朋友分享到个人站长或者朋友圈❷,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”❸。
很赞哦⑲!
相关文章
随机图文
武磊祝福哈维-洛佩斯:谢谢你队长⑩,共同战斗的日子永不遗忘
从大S去世开始⑥,先是小箖箖穿着红色外套现身④,之后两个孩子连亲妈葬礼都没被通知参加⑯。作为大S最亲的两个人⑲,也是大S遗产的继承人❶,两个孩子在S家完全没地位⑱,这也引起网友质疑⑩。考王梁实正备战第29次高考:面对新高考不抱特别大的希望
八⑤、其他事项③、地址:浙江省桐乡市凤凰湖大道518号桐昆集团股份有限公司董事会办公室阿隆索补天❶?皇马一线后防“非伤即离” 巴斯克斯将走只剩2人健康
【直播吧】中超第十轮最佳球员:青年正当时⑩!王钰栋连续两轮当选足球新时代⑪!英国Baller联赛掀起热潮⑫,一起探寻其背后的故事
刘女士展示竞买公告⑭、中拍破产清算事务南通有限公司 工作人员:物业管理费这个东西我说实话⑥,我们也没有办法⑬。他那边说那个点⑪,他说本地人跟外地人⑥,这个东西也没有一个特别的标准⑨,所以说这个东西只能沟通协商⑭。比-
中国科学家实现1.36公里外毫米级高分辨成像技术
姐姐捉奸现场怒斥:大学生亲妹被姐夫搞大了肚子 我怀孕8个月她怀孕5个月 首个奖励模型评分基准⑲!清华复旦港科大联合攻克AI评委“偏科”
纵观整个调研结论⑳,我们发现⑨,从5月的情感消费到6月的实用囤货需求⑲,从国货崛起到科技追逐⑳,消费者的选择始终围绕“价值最大化”展开⑱,复杂的优惠规则催生了理性比价⑮,情绪需求推动了品类创新⑥,而平台竞争则加速了中国水产科学研究院助力宁夏贺兰培育渔业“新农人”
同时⑦,为增强娱乐互动⑰,京东还推出贯穿整个购物季的六大主题惊喜日❶,涵盖发烧友❶、美食❸、六一儿童节等不同主题⑭,张艺兴作为首位官宣的潮流代言人⑩,将联动其他6位惊喜大使推出明星互动与超级大奖活动⑱。不满意结果⑤?准状元弗拉格在独行侠赢得状元签时表情凝重
除了前脸之外⑳,这台全新RAV4整体的侧面线条硬朗③,但眉目之间还是能发现一部分现款的影子:轮眉和C柱以后的腰线都跟现款RAV4很相似⑦,棱角分明⑪,非常有力量感⑫。
本栏推荐
