您现在的位置是:网站首页> 世界足球世界足球
棋牌娱乐电玩城
钱以山 2025-05-14 【世界足球】 7080 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑯,大模型推理训练可能就会撞墙⑥。
以上结论来自Epoch AI❷。
这是一个专注于人工智能研究和基准测试的非营利组织⑯,之前名动一时的FrontierMath基准测试就出自它家⑲。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」③,那么推理训练所需的算力可能会大幅收敛②。
就像DeepSeek-R1之于OpenAI o1-preview那样⑪。
看了这个结果⑬,有围观网友都着急了:
既然在o3基础上再scaling非常困难④,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑮?“效率”比“研究过剩”更重要⑤!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑥。
和o3①、DeepSeek-R1等一样⑦,它们从传统的大语言模型发展而来⑥,在预训练阶段使用了大量人类数据进行训练⑭,然后在强化学习阶段⑱,根据解题的反馈来改进自己的推理能力⑨。
虽然推理模型已经成为了很多AI使用者的实用帮手⑰,但关于推理训练所需算力的公开信息非常少②,大概只有以下这些:
OpenAI表示④,与o1相比⑬,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑬。
OpenAI没有公开o1⑪、o3的具体细节⑮,但可以从DeepSeek-R1❶、微软Phi-4-reasoning▓、英伟达Llama-Nemotron等其它推理模型⑰。它们所需的推理训练阶段算力耕地⑧,但可以根据它们进行推演⑰。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑲。
然后就没有然后了……▓、根据现有的信息和资料▓,Epoch AI进行了总结和分析⑭。
首先⑫,OpenAI公开过这样一张图表❸,上面展示了o3和o1在AIME基准测试中的表现⑮,以及两者在推理训练阶段可能所需的算力的对比——
可以看到③,终版o3花费的算力是o1的10倍⑬。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑤。”
Epoch AI罗列了这一猜测的证据⑪。
第一⑳,初代o1耗费的算力比o3低四个数量级⑮,其在AIME上的得分约为25%①。
如果x轴表示总计算量⑬,“不太可能呈现这种情况”⑰。
第二⑳,如果x轴表示的是所需总算力⑱,这张图意义就不大了①。
因为这就意味着OpenAI训练了N个版本的o1④,且预训练阶段非常不完整❷。
依照Epoch AI的猜测❷,如果o3在推理结算花费的算力是o1的10倍❷,这意味着什么⑧?
由于很多推理模型背后团队都学精了⑪,并不公开训练方法和过程⑱,所以只能从现有公开资料里去寻找答案③。
比如DeepSeek-R1⑤。
Epoch AI此前估算❶,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑫,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%③。
虽然只是一种估算①,但R1在各个榜单上的得分和o1非常接近❸,“因此可以用它来为o1所需算力设定一个baseline”⑭。
比如英伟达的Llama-Nemotron Ultra▓,它在各个基准上的分数与DeepSeek-R1和o1相当⑮。
它是在DeepSeek-R1生成的数据上训练的⑰。
公开信息显示⑧,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时②,约等于1e23 FLOP⑯。这甚至低于它的原始基础模型预训练成本的1%⑯。
再比如微软的Phi-4-reasoning⑲。
它是在o3-mini生成的数据上训练的⑭。
Phi-4-reasoning在推理阶段规模更小④,成本低于1e20 FLOP⑥,可能是预训练所需算力成本的0.01%③。
值得注意的是⑲,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调⑱。
咱们再来看看今年1月DeepSeek-R1发布后❸,Anthropic的CEODario Amodei写的一篇文章①,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式❷,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑫,花费从10万美元提高到100万美元就能带来巨大收益❶。如今⑨,各公司正迅速加快步伐⑮,将第二阶段的规模扩大到数亿乃至数十亿美元④。有一点必须重视⑩,那就是我们正处于一个独特的转折点上❸。
当然了③,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑰。
但可以清晰了解⑨,截至今年1月▓,他认为推理模型的训练成本远低于“数千万美元”③,大于1e26 FLOP⑫。
Epoch AI总结道——
上述的预估和线索指向一个事实⑩,那就是目前最前沿的推理模型⑩,比如o1①,甚至o3⑲,它们的推理训练规模都还没见顶❷,还能继续scalable⑬。
但1年内可能就撞墙了②、换句话说⑲,如果推理训练还没见顶③,那么推理模型还是有潜力在短期内快速实现能力拓展的③。
这就意味着⑫,推理模型还很能打⑨,潜力巨大⑬。
就像OpenAI展示出的下图⑰,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长④。
这表明❷,至少在数学和编程任务上❷,推理模型的性能随着推理训练的扩展而增强④,就像预训练的scaling law一样⑰。
行文至此处⑭,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑦,那么其带来的增长率将收敛⑧,大概是每年增长4倍⑱。
绝不会像o1推出后4个月就有了o3那样⑬,保持几个月增长10倍的态势⑨。
因此⑮,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级❸,这种增长率可能在一⑤、两年内减缓①,甚至撞墙⑥。
然鹅⑥,想要扩展推理模型并不是那么简单的⑧。
单单是数据不够这一项④,就可能导致其停滞不前⑬。
大家也都还不清楚❷,除了数学①、编程领域⑩,推理训练是否能泛化到其
它❸、规律性没那么强的领域⑦。
但可以肯定的是⑦,随着推理模型的训练越来越成熟⑭,所有推理模型所需的成本可能都趋同❷。
虽然研究成本的高低并不影响算力和性能之间的关系⑤,但如果相关研究保持“花钱如流水”的状态❶,那么推理模型可能无法达到人们心中预期的最佳水平⑳。
另一方面⑦,即使所需算力的增长速度放缓▓,推理模型也可能持续进化⑮,就像R1那样❶。
换句话说⑳,不只有数据或算法创新能推动推理模型的进步⑯,算力大增也是推动推理模型进步的关键因素⑩。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑫,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐❶,非常欢迎各位朋友分享到个人站长或者朋友圈⑧,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑤。
很赞哦⑤!
相关文章
随机图文
苹果iOS 19将推出AI驱动电池管理及跨设备Wi-Fi同步功能
直播吧5月13《图片报》消息⑤,勒沃库森边后卫弗林蓬非常接近加盟利物浦❸。中国汽车欧洲突围2025年4月比亚迪欧洲多国销量超越特斯拉解读
这次坍塌⑭,面积不大▓,但救援难度却并不小▓。当时主要面临两大危及孩子生命的风险:失温和二次坍塌⑬。新华全媒+丨100岁的“双枪滕黑子”:“祖国需要随叫随到”
而为了保护全族和焉州和平▓,乔家子女小乔被迫出嫁魏劭⑳,隔着祖辈血海深仇的两人⑮,在一次次的较量和合作中⑩,了解彼此本性⑦,最终打破隔阂⑫,携手还百姓和平和安宁的故事⑲。英媒:尽管曼城对利夫拉门托的兴趣日益浓厚⑦,但纽卡表示不会出售
三年级思维训练⑦,老师的方法好学好记她曾是央视一枝花▓,低调嫁大18岁李铁为妻⑪,如今52岁已满头白发
外观方面⑲,四款车型均采用封闭式前脸⑮,具有典型的新能源车特征⑲;同时③,在细节处理方面❷,又都带有明显的家族化元素❶。零跑B10的设计灵感来自于宇宙中的“引力磁场”⑭,两侧的分体式大灯组与贯穿式LED日间行车灯的智己L6上市售20.49万起⑦,全系标配激光雷达❶、800V快充
于是特朗普又一次施展“交易的艺术”⑩,把价格抬高来预备讨价还价❸。而当中国不随他的咋咋呼呼起舞时④,他又难掩愤懑⑲,不断放出怨毒的诅咒⑯,诸如“中国‘活该’145%的关税”⑬、“中国经济正在崩溃”⑨,云云⑧。所以他不2025Q1江苏省汽车市场分析报告(附下载)
美农生物坚持国际化战略⑩,通过“走出去❶、请进来”策略⑫,在国际市场树立了良好品牌形象❷。目前已在40多个国家及地区建立销售网络⑱,2024年国际市场业务收入同比增长超25%⑧。未来⑤,公司将持续加大国际市场投入❷,男子到女友姑父家做客不听劝阻饮酒过多死亡⑩,家属索赔47万元⑫,一审判了
武汉车谷江大女足:姚伟⑱、吴海燕⑱、王霜