您现在的位置是:网站首页>中国足球中国足球
勐波168耀龙电玩城麻将胡了
汪雪青 2025-05-13 【中国足球】 1422 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑭,大模型推理训练可能就会撞墙❶。
以上结论来自Epoch AI⑤。
这是一个专注于人工智能研究和基准测试的非营利组织①,之前名动一时的FrontierMath基准测试就出自它家⑧。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑯,那么推理训练所需的算力可能会大幅收敛⑤。
就像DeepSeek-R1之于OpenAI o1-preview那样⑥。
看了这个结果⑥,有围观网友都着急了:
既然在o3基础上再scaling非常困难②,那为啥咱不探索模块化架构或针对特定任务的专用模型呢❸?“效率”比“研究过剩”更重要⑦!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作▓。
和o3⑬、DeepSeek-R1等一样⑱,它们从传统的大语言模型发展而来⑥,在预训练阶段使用了大量人类数据进行训练⑥,然后在强化学习阶段❸,根据解题的反馈来改进自己的推理能力▓。
虽然推理模型已经成为了很多AI使用者的实用帮手⑧,但关于推理训练所需算力的公开信息非常少▓,大概只有以下这些:
OpenAI表示⑪,与o1相比▓,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑧。
OpenAI没有公开o1❸、o3的具体细节①,但可以从DeepSeek-R1①、微软Phi-4-reasoning⑥、英伟达Llama-Nemotron等其它推理模型⑮。它们所需的推理训练阶段算力耕地⑩,但可以根据它们进行推演⑨。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章❷。
然后就没有然后了……⑰、根据现有的信息和资料⑬,Epoch AI进行了总结和分析❶。
首先⑥,OpenAI公开过这样一张图表❸,上面展示了o3和o1在AIME基准测试中的表现⑲,以及两者在推理训练阶段可能所需的算力的对比——
可以看到①,终版o3花费的算力是o1的10倍②。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑦。”
Epoch AI罗列了这一猜测的证据④。
第一⑬,初代o1耗费的算力比o3低四个数量级⑮,其在AIME上的得分约为25%⑭。
如果x轴表示总计算量❶,“不太可能呈现这种情况”⑳。
第二❶,如果x轴表示的是所需总算力⑭,这张图意义就不大了③。
因为这就意味着OpenAI训练了N个版本的o1⑥,且预训练阶段非常不完整⑬。
依照Epoch AI的猜测②,如果o3在推理结算花费的算力是o1的10倍⑮,这意味着什么⑨?
由于很多推理模型背后团队都学精了⑩,并不公开训练方法和过程⑳,所以只能从现有公开资料里去寻找答案⑮。
比如DeepSeek-R1⑥。
Epoch AI此前估算▓,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑧,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑱。
虽然只是一种估算①,但R1在各个榜单上的得分和o1非常接近▓,“因此可以用它来为o1所需算力设定一个baseline”⑯。
比如英伟达的Llama-Nemotron Ultra⑦,它在各个基准上的分数与DeepSeek-R1和o1相当❶。
它是在DeepSeek-R1生成的数据上训练的⑦。
公开信息显示⑭,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑯,约等于1e23 FLOP②。这甚至低于它的原始基础模型预训练成本的1%⑧。
再比如微软的Phi-4-reasoning⑪。
它是在o3-mini生成的数据上训练的⑦。
Phi-4-reasoning在推理阶段规模更小⑯,成本低于1e20 FLOP⑨,可能是预训练所需算力成本的0.01%⑭。
值得注意的是②,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑤。
咱们再来看看今年1月DeepSeek-R1发布后⑥,Anthropic的CEODario Amodei写的一篇文章⑭,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑯,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少❷,花费从10万美元提高到100万美元就能带来巨大收益❸。如今⑳,各公司正迅速加快步伐⑫,将第二阶段的规模扩大到数亿乃至数十亿美元⑧。有一点必须重视⑨,那就是我们正处于一个独特的转折点上⑳。
当然了⑰,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑰。
但可以清晰了解⑮,截至今年1月①,他认为推理模型的训练成本远低于“数千万美元”⑥,大于1e26 FLOP⑬。
Epoch AI总结道——
上述的预估和线索指向一个事实⑭,那就是目前最前沿的推理模型⑯,比如o1⑰,甚至o3⑮,它们的推理训练规模都还没见顶⑫,还能继续scalable⑤。
但1年内可能就撞墙了④、换句话说❸,如果推理训练还没见顶⑯,那么推理模型还是有潜力在短期内快速实现能力拓展的④。
这就意味着⑬,推理模型还很能打①,潜力巨大❷。
就像OpenAI展示出的下图⑦,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑰。
这表明▓,至少在数学和编程任务上⑧,推理模型的性能随着推理训练的扩展而增强⑥,就像预训练的scaling law一样④。
行文至此处④,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶③,那么其带来的增长率将收敛▓,大概是每年增长4倍❶。
绝不会像o1推出后4个月就有了o3那样⑨,保持几个月增长10倍的态势⑪。
因此⑯,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级④,这种增长率可能在一⑲、两年内减缓⑫,甚至撞墙⑨。
然鹅⑫,想要扩展推理模型并不是那么简单的⑲。
单单是数据不够这一项⑦,就可能导致其停滞不前②。
大家也都还不清楚❸,除了数学②、编程领域⑪,推理训练是否能泛化到其
它❷、规律性没那么强的领域⑳。
但可以肯定的是⑳,随着推理模型的训练越来越成熟⑰,所有推理模型所需的成本可能都趋同⑦。
虽然研究成本的高低并不影响算力和性能之间的关系⑭,但如果相关研究保持“花钱如流水”的状态⑬,那么推理模型可能无法达到人们心中预期的最佳水平❶。
另一方面⑳,即使所需算力的增长速度放缓❷,推理模型也可能持续进化⑧,就像R1那样❷。
换句话说⑬,不只有数据或算法创新能推动推理模型的进步❶,算力大增也是推动推理模型进步的关键因素⑫。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑨,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐▓,非常欢迎各位朋友分享到个人站长或者朋友圈③,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑥。
很赞哦⑤!
相关文章
随机图文
萨巴伦卡可选择比赛时间被称罗马宝贝
中国商务部12日发布的最新数据显示①,自2024年汽车以旧换新政策实施以来⑲,累计补贴申请量已突破1000万份③。一把向内的匕首:共和党如何葬送美国电动车和清洁能源的未来⑯?
防守端⑤,兰德尔也没掉链子⑮,他的确没防住东契奇单打⑲,但他将詹姆斯限制在25投10中③,将八村塁限制在7投3中⑮。“没有兰德尔攻防两端的出色发挥⑨,我们赢不了这个系列赛⑱,”芬奇在首轮晋级后说⑬。生死战❷!骑士G5主场门票最低价跌至50美元
外观:1.45mm 视觉四等边⑩,2.5D 微弧手感②,等深四曲 3D 背盖-
丰田收购哪吒汽车⑩?高管回应
但过去10年里⑦,章泽天的变化确实很大③。 飙升近13000点①!巴基斯坦股市大涨至熔断
在车门外把手部分⑱,此次官方也加入了“防夹功能”“强度测试”等安全要求⑳,旨在让车门更可靠⑳、更安全❷。杨悦卿认为⑪,此举给新技术“划了一条底线”——明确什么标准算合格⑱,避免车企各自设计②、标准不一⑦。同时也能让用宁夏数字孪生水利建设打开新界面
回过头来说⑭,为啥营业额看起来相差不大⑪,但净利润相差那么大⑧?明面上看⑨,成本⑦,特别是研发成本⑯,是吃掉中国品牌们净利润的最大源头⑳。-
中方严管稀土出口③,印度也“慌了”
特别声明:以上文章内容仅代表作者本人观点❷,不代表新浪网观点或立场⑤。如有关于作品内容⑲、版权或其它问题请于作品发表后的30日内与新浪网联系②。 易中签体质⑮?欧文的球队第三次抽中状元签
大家觉得⑨,CoRT 是不是「新瓶装旧酒」呢④?请在评论区留言⑨。