您现在的位置是:网站首页>娱乐娱乐
推币机电玩城游戏入口
赵问兰 2025-05-14 【娱乐】 2478 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内▓,大模型推理训练可能就会撞墙❶。
以上结论来自Epoch AI⑮。
这是一个专注于人工智能研究和基准测试的非营利组织❶,之前名动一时的FrontierMath基准测试就出自它家⑬。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑤,那么推理训练所需的算力可能会大幅收敛⑭。
就像DeepSeek-R1之于OpenAI o1-preview那样⑪。
看了这个结果❶,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑥,那为啥咱不探索模块化架构或针对特定任务的专用模型呢⑫?“效率”比“研究过剩”更重要⑨!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作⑩。
和o3⑯、DeepSeek-R1等一样⑳,它们从传统的大语言模型发展而来⑨,在预训练阶段使用了大量人类数据进行训练⑨,然后在强化学习阶段⑬,根据解题的反馈来改进自己的推理能力①。
虽然推理模型已经成为了很多AI使用者的实用帮手④,但关于推理训练所需算力的公开信息非常少⑳,大概只有以下这些:
OpenAI表示②,与o1相比⑬,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑬。
OpenAI没有公开o1⑦、o3的具体细节⑨,但可以从DeepSeek-R1▓、微软Phi-4-reasoning⑰、英伟达Llama-Nemotron等其它推理模型⑭。它们所需的推理训练阶段算力耕地▓,但可以根据它们进行推演▓。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑤。
然后就没有然后了……⑥、根据现有的信息和资料❸,Epoch AI进行了总结和分析⑬。
首先⑱,OpenAI公开过这样一张图表⑫,上面展示了o3和o1在AIME基准测试中的表现⑧,以及两者在推理训练阶段可能所需的算力的对比——
可以看到①,终版o3花费的算力是o1的10倍④。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力❶。”
Epoch AI罗列了这一猜测的证据❷。
第一⑳,初代o1耗费的算力比o3低四个数量级❷,其在AIME上的得分约为25%⑰。
如果x轴表示总计算量⑤,“不太可能呈现这种情况”⑱。
第二⑱,如果x轴表示的是所需总算力②,这张图意义就不大了⑯。
因为这就意味着OpenAI训练了N个版本的o1①,且预训练阶段非常不完整⑥。
依照Epoch AI的猜测⑤,如果o3在推理结算花费的算力是o1的10倍⑪,这意味着什么①?
由于很多推理模型背后团队都学精了⑬,并不公开训练方法和过程②,所以只能从现有公开资料里去寻找答案⑦。
比如DeepSeek-R1⑱。
Epoch AI此前估算▓,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑮,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑧。
虽然只是一种估算▓,但R1在各个榜单上的得分和o1非常接近①,“因此可以用它来为o1所需算力设定一个baseline”④。
比如英伟达的Llama-Nemotron Ultra⑭,它在各个基准上的分数与DeepSeek-R1和o1相当⑲。
它是在DeepSeek-R1生成的数据上训练的⑪。
公开信息显示⑯,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑨,约等于1e23 FLOP⑤。这甚至低于它的原始基础模型预训练成本的1%⑪。
再比如微软的Phi-4-reasoning❸。
它是在o3-mini生成的数据上训练的②。
Phi-4-reasoning在推理阶段规模更小①,成本低于1e20 FLOP❶,可能是预训练所需算力成本的0.01%⑱。
值得注意的是⑧,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调①。
咱们再来看看今年1月DeepSeek-R1发布后①,Anthropic的CEODario Amodei写的一篇文章⑥,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式⑥,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑭,花费从10万美元提高到100万美元就能带来巨大收益▓。如今⑩,各公司正迅速加快步伐⑱,将第二阶段的规模扩大到数亿乃至数十亿美元⑰。有一点必须重视⑪,那就是我们正处于一个独特的转折点上⑧。
当然了⑦,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑤。
但可以清晰了解⑤,截至今年1月❶,他认为推理模型的训练成本远低于“数千万美元”⑯,大于1e26 FLOP⑧。
Epoch AI总结道——
上述的预估和线索指向一个事实③,那就是目前最前沿的推理模型⑥,比如o1▓,甚至o3❶,它们的推理训练规模都还没见顶⑨,还能继续scalable❸。
但1年内可能就撞墙了③、换句话说⑫,如果推理训练还没见顶⑥,那么推理模型还是有潜力在短期内快速实现能力拓展的⑫。
这就意味着⑦,推理模型还很能打⑧,潜力巨大⑱。
就像OpenAI展示出的下图⑲,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长⑨。
这表明④,至少在数学和编程任务上❷,推理模型的性能随着推理训练的扩展而增强⑳,就像预训练的scaling law一样③。
行文至此处⑧,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑰,那么其带来的增长率将收敛⑨,大概是每年增长4倍⑩。
绝不会像o1推出后4个月就有了o3那样⑫,保持几个月增长10倍的态势⑰。
因此①,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级❶,这种增长率可能在一⑲、两年内减缓❷,甚至撞墙❸。
然鹅⑨,想要扩展推理模型并不是那么简单的▓。
单单是数据不够这一项②,就可能导致其停滞不前⑨。
大家也都还不清楚⑧,除了数学⑨、编程领域❶,推理训练是否能泛化到其
它❷、规律性没那么强的领域⑳。
但可以肯定的是④,随着推理模型的训练越来越成熟③,所有推理模型所需的成本可能都趋同⑨。
虽然研究成本的高低并不影响算力和性能之间的关系②,但如果相关研究保持“花钱如流水”的状态①,那么推理模型可能无法达到人们心中预期的最佳水平④。
另一方面⑩,即使所需算力的增长速度放缓⑪,推理模型也可能持续进化①,就像R1那样⑥。
换句话说⑬,不只有数据或算法创新能推动推理模型的进步⑱,算力大增也是推动推理模型进步的关键因素⑪。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可⑰,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑰,非常欢迎各位朋友分享到个人站长或者朋友圈③,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑱。
很赞哦⑰!
相关文章
随机图文
绿联NAS私有云DH4300 Plus发布:四盘位最大120TB❷,国补1105元起
赛后自由交流环节⑧,青年们交换联系方式④、合影留念⑰,大家纷纷表示“活动既锻炼了身体⑨,又结识了新朋友”⑰。-
路德环境上市后首现年度亏损 股东大会现场董事长道歉
根据财报⑬,李想2024年的6.39亿元收入中⑮,6.36亿元为“股份支付薪酬费用”⑥,但这笔钱并未产生实际支付▓,而是会计上对期权潜在价值的预估⑭。 -
印巴相互驱逐一名外交官
这款耳机“开挂”的地方除了“挂在耳上”的动作⑲,还体现在华为 FreeArc 耳挂耳机的诸多先进技术上▓。比如逆声场声学系统①,保证声音清晰①、饱满的同时⑤,有效地抑制声音外泄⑲。想象一下②,无论是在嘈杂的地铁车厢 不败定律终结⑦!约基奇44+15首输天王山 决战连得11分仍惜败
一个是作为“人间香奈儿”❸,她几乎焊在身上的珍珠项链❶。这次Met Gala的美甲也是很用心⑪,哈哈⑰。▼还是选择留德国⑱?每体:皇萨有意药厂中卫塔❷,但塔更接近加盟拜仁
"newSize": 2,谷歌 Wear OS 6 焕新:基于安卓 16❷,优化界面②、增强 Tiles 谷歌wearos6
无论是在复杂的城市路况⑰,还是高速行驶场景下⑪,激光雷达与其他传感器协同工作④,可提前精准识别各类障碍物①、行人以及道路标识④,帮助车辆做出更加合理⑯、安全的驾驶决策⑳,为用户带来更高级别的智能驾驶体验⑳。消息称荣耀 Fit 手表新品配备 495mAh 电池⑱、支持 YOYO AI 等功能 荣耀fit手表
但提升用户的工作⑳、学习效率和生活便捷度①,只靠大模型的能力和AI PC的算力还不够⑨,如何将其与AI应用结合⑱,融入用户的工作和日常生活同样重要⑪。大灯酷似凯美瑞⑦,硬汉风设计+换装双联屏④,全新丰田RAV4官方首曝
老师亲吻小花脸颊⑪,疑似小花有点抗拒