您现在的位置是: 网站首页>国际国际
hy电玩城赢钱图
姜紫山 2025-05-13 【国际】 6434 人已围观
衡宇 发自 凹非寺量子位 | 公众号 QbitAI一年之内⑱,大模型推理训练可能就会撞墙③。
以上结论来自Epoch AI⑥。
这是一个专注于人工智能研究和基准测试的非营利组织⑭,之前名动一时的FrontierMath基准测试就出自它家②。
与之伴随而来的还有另一个消息:
如果推理模型保持「每3-5个月都以10倍速度增长」⑲,那么推理训练所需的算力可能会大幅收敛②。
就像DeepSeek-R1之于OpenAI o1-preview那样⑱。
看了这个结果⑪,有围观网友都着急了:
既然在o3基础上再scaling非常困难⑪,那为啥咱不探索模块化架构或针对特定任务的专用模型呢①?“效率”比“研究过剩”更重要❶!
推理训练还有scalable的空间
OpenAI的o1是推理模型的开山之作①。
和o3⑪、DeepSeek-R1等一样⑳,它们从传统的大语言模型发展而来❸,在预训练阶段使用了大量人类数据进行训练④,然后在强化学习阶段❷,根据解题的反馈来改进自己的推理能力▓。
虽然推理模型已经成为了很多AI使用者的实用帮手⑭,但关于推理训练所需算力的公开信息非常少⑯,大概只有以下这些:
OpenAI表示⑲,与o1相比⑳,训练o3所需的算力提升了10倍——提升部分几乎都花在了训练阶段⑨。
OpenAI没有公开o1③、o3的具体细节⑭,但可以从DeepSeek-R1④、微软Phi-4-reasoning⑩、英伟达Llama-Nemotron等其它推理模型⑮。它们所需的推理训练阶段算力耕地⑫,但可以根据它们进行推演❶。
Anthropic的创始人兼CEO Dario Amodei曾针对推理模型有过一篇公开文章⑲。
然后就没有然后了……⑥、根据现有的信息和资料⑮,Epoch AI进行了总结和分析❸。
首先⑮,OpenAI公开过这样一张图表⑤,上面展示了o3和o1在AIME基准测试中的表现⑥,以及两者在推理训练阶段可能所需的算力的对比——
可以看到⑯,终版o3花费的算力是o1的10倍❷。
Epoch AI分析道:“x轴很可能显示的是推理训练所需算力而不是总算力⑨。”
Epoch AI罗列了这一猜测的证据②。
第一⑲,初代o1耗费的算力比o3低四个数量级⑰,其在AIME上的得分约为25%⑭。
如果x轴表示总计算量❷,“不太可能呈现这种情况”④。
第二⑭,如果x轴表示的是所需总算力④,这张图意义就不大了⑱。
因为这就意味着OpenAI训练了N个版本的o1②,且预训练阶段非常不完整⑲。
依照Epoch AI的猜测⑤,如果o3在推理结算花费的算力是o1的10倍⑤,这意味着什么②?
由于很多推理模型背后团队都学精了⑭,并不公开训练方法和过程⑫,所以只能从现有公开资料里去寻找答案④。
比如DeepSeek-R1❶。
Epoch AI此前估算⑨,DeepSeek-R1推理训练中使用的算力约为6e23 FLOP⑤,需要生成大约 20万亿个tokens——这只有DeepSeek-V3预训练成本的20%⑳。
虽然只是一种估算⑱,但R1在各个榜单上的得分和o1非常接近⑤,“因此可以用它来为o1所需算力设定一个baseline”❶。
比如英伟达的Llama-Nemotron Ultra⑨,它在各个基准上的分数与DeepSeek-R1和o1相当⑪。
它是在DeepSeek-R1生成的数据上训练的⑤。
公开信息显示⑲,Llama-Nemotron Ultra的推理阶段耗时140000 H100小时⑲,约等于1e23 FLOP⑯。这甚至低于它的原始基础模型预训练成本的1%④。
再比如微软的Phi-4-reasoning⑳。
它是在o3-mini生成的数据上训练的⑯。
Phi-4-reasoning在推理阶段规模更小⑲,成本低于1e20 FLOP❶,可能是预训练所需算力成本的0.01%④。
值得注意的是⑧,Llama-Nemotron和Phi-4-reasoning都在RL阶段之前进行了有监督微调❸。
咱们再来看看今年1月DeepSeek-R1发布后⑥,Anthropic的CEODario Amodei写的一篇文章⑳,这被视为关于现有推理模型所需算力规模的最后一点线索:
由于这是新范式①,我们目前仍处于规模拓展的初期阶段:所有参与者在第二阶段投入的资金量都很少⑰,花费从10万美元提高到100万美元就能带来巨大收益⑯。如今⑪,各公司正迅速加快步伐⑪,将第二阶段的规模扩大到数亿乃至数十亿美元⑥。有一点必须重视⑱,那就是我们正处于一个独特的转折点上⑭。
当然了③,Amodei对非Anthropic模型所需算力的看法可能只基于自家公司内部数据⑤。
但可以清晰了解⑦,截至今年1月⑤,他认为推理模型的训练成本远低于“数千万美元”⑩,大于1e26 FLOP⑰。
Epoch AI总结道——
上述的预估和线索指向一个事实⑪,那就是目前最前沿的推理模型⑥,比如o1❷,甚至o3⑮,它们的推理训练规模都还没见顶⑧,还能继续scalable❸。
但1年内可能就撞墙了⑮、换句话说①,如果推理训练还没见顶⑧,那么推理模型还是有潜力在短期内快速实现能力拓展的⑳。
这就意味着▓,推理模型还很能打▓,潜力巨大⑬。
就像OpenAI展示出的下图②,以及DeepSeek-R1论文中的图2一样——模型答题准确率随着推理训练步骤的增加而大致呈对数线性增长❷。
这表明⑨,至少在数学和编程任务上⑤,推理模型的性能随着推理训练的扩展而增强⑧,就像预训练的scaling law一样⑪。
行文至此处④,Epoch AI写下这样一段话:
如果推理阶段的算力需求见顶⑭,那么其带来的增长率将收敛⑱,大概是每年增长4倍⑰。
绝不会像o1推出后4个月就有了o3那样④,保持几个月增长10倍的态势⑤。
因此⑧,他得出这样一个结论——
如果一个推理模型的训练阶段仅比前沿推理模型低几个数量级①,这种增长率可能在一⑪、两年内减缓❸,甚至撞墙⑧。
然鹅⑧,想要扩展推理模型并不是那么简单的⑱。
单单是数据不够这一项⑳,就可能导致其停滞不前⑧。
大家也都还不清楚⑯,除了数学⑱、编程领域⑱,推理训练是否能泛化到其
它⑬、规律性没那么强的领域❶。
但可以肯定的是⑰,随着推理模型的训练越来越成熟⑲,所有推理模型所需的成本可能都趋同⑭。
虽然研究成本的高低并不影响算力和性能之间的关系④,但如果相关研究保持“花钱如流水”的状态⑩,那么推理模型可能无法达到人们心中预期的最佳水平⑪。
另一方面⑪,即使所需算力的增长速度放缓⑫,推理模型也可能持续进化⑩,就像R1那样⑤。
换句话说⑭,不只有数据或算法创新能推动推理模型的进步⑯,算力大增也是推动推理模型进步的关键因素④。
参考链接:https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale
转载:感谢您对电玩城捕鱼种类都有的软件网站平台的认可②,以及对电玩城捕鱼种类都有的软件原创作品以及文章的青睐⑳,非常欢迎各位朋友分享到个人站长或者朋友圈❷,但转载请说明文章出处“来源电玩城捕鱼种类都有的软件”⑱。
很赞哦⑤!
下一篇:冷门混动车测试⑪!
相关文章
随机图文
菲律宾中期选举:马科斯①、杜特尔特谁输谁赢①?
此时分差缩小到3分⑤,紧接着的进攻回合中❷,追梦格林带球快速推进④,却在人群包围中强行突破导致丢球⑲,森林狼随即反击得手⑭。-
大众计划明年推出电动GTI⑮,首款车型可能是ID.3 GTI
"newSize": 2,训练后不久离场①,西媒:罗德里戈将缺席本赛季西甲剩余比赛
公开资料显示⑧,黄晓明⑫,1977年11月13日出生于山东省青岛市⑫,毕业于北京电影学院表演系⑤。中国内地男演员❸、流行乐歌手⑲,因在《大汉天子》中饰演刘彻而获得关注⑩,此外他还出演了《神雕侠侣》《新上海滩》《中国直击长春54路延伸最新进展:这段轨道铺完❸,围挡将拆❷!
第二阶段则是通过强化学习与人类反馈将基础模型转化为实用助手⑱。Pachocki 强调⑦,这一阶段在最新的推理模型中尤为关键②。一张门票悬赏“通缉”卡皮巴拉的动物园辟谣全网最“抠门”:只想动员市民寻找⑭,没想到火了
白种人:欧洲④、西亚⑪、北非⑬、美洲❸、大洋洲 黄种人:亚洲⑦、北美洲北部⑮、南美洲的部分地区记者:德温特可能在夏天转会⑧,英超和意甲多家俱乐部有意
在此之前❷,穆尼奥斯在皇马 B 队效力了整整一个赛季❸,彼时皇马 B 队由劳尔・冈萨雷斯挂帅执教❶。在皇马 B 队③,穆尼奥斯展现出了出众的实力⑩,既能司职前锋攻城拔寨⑰,又能出任边锋突破传中⑪。凭借着令人惊叹的速周冠宇社媒晒参加活动照片:北京⑭!好久不见~ ❤️
第三十九条 有关部门和单位不按规定协助⑯、支持生态环境保护督察❶,造成严重后果的▓,依据有关规定追究相关责任人员的责任▓。中国外贸为何能交出超预期“韧性答卷”
张大姐说⑧,在她小时候①,这种萤石矿村里有五六个⑪,村民都去挖矿⑲,她负责洗石头②,后来矿场关停⑪,她才重新开始种田⑰,现在主要是卖茶叶和笋制品⑦。“挖宝”主要在一条山涧①,从山上一直延伸到山脚⑬。张大姐说①,以前大石头都