您现在的位置是: 网站首页>足球足球

电玩城打鱼技巧app 下载

熊痴梦 2025-05-14 足球 6165 人已围观

白交 克雷西 发自 凹非寺量子位 | 公众号 QbitAI

一夜之间⑦,老黄天塌了⑩。

全球首个分布式RL训练模型INTELLECT-2发布⑪,它仅通过整合全球闲置或分散的计算资源⑦,就完成了模型的强化学习训练❸,训练成本大大降低⑤。

其模型性能与DeepSeek-R1媲美⑯!

一旦范式成立⑬,这也就意味RL训练摆脱了对集中式算力的依赖⑨,世界上任何一个人都可以参与到模型训练当中③,大公司垄断算力时代可能就此终结⑮。

Just like this~算力来算力来⑮,算力从四面八方来②。

此模型版本有19个人/机构提供了

力资源支持

除了贡献算力⑨,还有不少大佬愿意投钱❶,包括不限于Karpathy大神⑱、FlashAttention作者Tri Dao大神⑦、HuggingFace联创兼CEO Clem Delangue等等⑭。

据团队成员介绍▓,他们从编写模型强化学习框架prime-rl⑯,到今天发布大概只用了两个月时间

目前基础设施已到位❷,并且经过验证⑳,超过那些先进实验室只是时间问题❷。

有人已经开始断言:未来的顶级开源模型将以分布式方式进行训练⑯。

INTELLECT-2抢先测

目前INTELLECT-2支持网页端体验⑧,只需简单注册就可以使用②。与其他通用助手页面类似差不多⑪,不过输入仅支持文本⑭。

那咱们先来一些基础问题:INTELLECT-2最大的特点是什么⑫?

在推理思考了几秒钟之后❶,它给出了答案⑱,首先强调了这是首个去中心化RL训练的超大规模模型⑱,其次还有强化学习训练⑳、参数规模与性能的平衡⑰、数据隐私安全与社区驱动等特点❷。

回答基本OK⑦,那直接来上点难度:

一个外星人来到地球后❶,第一天有相等的可能选择以下四件事中的一件完成:1❶,自我毁灭⑩;2⑲,分裂成两个外星人②;3❸,分裂成三个外星人⑯;4⑦,什么都不做②。

此后每天⑰,每个外星人均会做一次选择⑧,且彼此之间相互独立▓,求地球上最终没有外星人的概率

在思考了一会儿之后⑧,回答是酱婶⑱。

虽然格式有点乱⑰,但是最后回答正确⑬,而且是解析解⑩。o☆[BINGO!]⑰。

如果昨天是明天就好了⑬,那么今天就是周五了⑬。 问:句子中的今天可能是星期几③?

可以看到基本能力有▓,但现在还不是特别稳定⑨。像当你开始新对话时⑪,会碰到以下这种情况❸。

已经有热心网友已经制作成了GGUF格式上传到HF⑦。

分布式强化学习训练⑫、INTELLECT-2是一个分布式的大模型训练框架②,采用了全球分布式异步强化学习的范式④。

通俗讲⑨,INTELLECT-2就如同一个超大型的众包项目❶,任何拥有闲置算力资源的人都可以参与其中⑰。“异步”则是指不同阶段可以独立❷、并行地进行⑥,因此不同性能的设备可以同时参与①,而不会相互影响②。

具体来说⑱,系统会利用全球贡献者提供的异构算力在本地生成推理数据❶;这些数据经过验证后汇集到中心⑬,用于更新模型策略⑱;更新后的策略再分发到每个节点⑱,开始新一轮迭代⑭。

在这套流程当中⑬,一共涉及了四大关键组件——

核心RL框架PRIME-RL④,实现推理数据生成与模型训练的解耦和异步进行②;

参数分发网络SHARDCAST⑭,负责将更新后的模型参数高效分发给全球各地的推理节点⑲;

推理验证协议TOPLOC②,验证每个推理节点提交数据的可信性⑫;

Protocol Testnet⑯,为不同学习任务构建独立算力资源池❶,实现算力贡献和使用的去中心化管理⑥。

INTELLECT团队已将这四大组件全部开源⑮。

★核心RL框架PRIME-RL

PRIME-RL的核心⑤,是支持推理数据生成与模型训练的解耦与异步执行⑦。

这种方式允许分散的推理节点按照自己的进度生成数据⑥,无需彼此协调和等待⑦。

为了进一步提升性能和减小显存占用❶,PRIME-RL采用支持bfloat16精度的vLLM作为推理运行时⑥。

另外还集成了FSDP技术对模型进行切片⑨。

FSDP将模型的参数和梯度按层切分到不同的GPU上❸,每个GPU只负责一部分的计算和存储①。

★参数分发网络SHARDCAST

SHARDCAST是一个基于HTTP的参数分发网络④,负责将更新后的模型权重广播给全球范围内的推理节点❷。

在分布式强化学习中⑳,由于文件体积极大⑲,而网络带宽资源良莠不齐⑧,模型权重的分发通常是一个难点⑨。

为了解决这个问题⑭,SHARDCAST引入了分片传输⑱、多级缓存①、智能调度等一系列优化技术❶。

分片传输指的是将模型权重文件切分成多个小的分片②,然后并行传输❸。这种做法不仅能充分利用网络带宽③,降低传输延迟⑧,还能提高传输的鲁棒性⑯,不会因为个别分片传输失败而造成整体重传⑨。

多级缓存是一种类似于CDN的传输模式❷,具体来说⑮,SHARDCAST在推理节点和中心节点之间引入了一层中继服务器作为缓存③。每当中心节点产生新的模型权重⑯,它首先将权重文件推送到这些中继服务器⑮。

这样一来⑯,推理节点就可以就近从中继服务器拉取权重文件❷,而不是直接从中心节点获取⑮,可以有效缓解中心节点的网络I/O压力⑤。

另外⑲,与普通的被动响应式传输不同⑳,SHARDCAST的中继服务器会主动跟踪每个推理节点的权重版本⑱,当发现版本落后时❸,会主动将增量权重推送给节点③,确保了权重更新的实时性⑩。

同时❷,SHARDCAST还会根据网络拓扑和带宽状况❸,动态调整传输策略和路由⑤,选择最优的分发路径❷。

★推理验证协议TOPLOC

TOPLOC全称Tierion backed Proof-of-Locality Protocol❷,是INTELLECT-2中负责验证推理节点生成数据可信性的关键组件⑰。

其目的是确保每个推理节点提交的数据可信▓,避免恶意节点通过提交虚假数据来破坏模型训练①。

TOPLOC通过密码学证明和可验证计算等技术实现⑭,可以概括为Proof生成和Proof检查两个主要步骤⑯。

Proof生成是指当一个推理节点完成一组推理任务后⑯,不仅要将生成的轨迹数据提交给中心节点⑱,还要附带提交一个密码学proof⑧。

这个proof证明了所提交的数据确实是由特定版本的模型⑱、特定的输入②、特定的随机数种子生成的⑪,其生成基于安全哈希算法⑫,确保了proof与推理过程绑定⑩。

中心节点在收到推理数据和proof后❶,会定期抽查部分数据的可信性⑫。验证节点首先会重放推理节点的模型prefill⑳,然后将计算得到的中间状态与proof进行比对⑲。

为了降低开销⑫,推理节点只需提交关键的中间状态⑲,而非完整的计算过程⑳;验证节点也只需重放部分关键路径⑨,而不是全盘重做④。

Protocol Testnet是INTELLECT-2的底层基础设施⑮,为全球范围内的计算资源管理和任务调度提供了统一的接口和规范⑥。

它将不同类别的人工智能训练任务组织成独立的计算域⑩,每个计算域都有自己的资源池⑪,由去中心化的“账本系统”来管理节点的身份⑱、贡献和信誉值▓。

每个计算域对应了一种特定的训练任务⑦,如语言模型预训练⑪、多模态对齐⑬、强化学习等③。

针对一个特定的训练任务⑰,开发者会在Testnet上注册一个新的计算域④,计算域定义了任务的相关属性和协议规范⑯。

全球范围内的算力提供者可以将自己的计算设备注册到Testnet的资源池中⑧。每个节点在加入时❷,❶,都需要在去中心化“账本”上生成一个唯一的密码学身份⑯,用于后续的贡献度记录和信誉管理⑱。

当一个计算域有新的训练任务需要执行时⑪,Testnet的任务调度服务会根据各节点的算力特征和网络状况⑰,将任务分发到合适的节点上⑪。节点按照任务要求▓,执行计算并生成结果⑭。

节点生成的计算结果需要经过验证⑤,以确保其可信性⑥,对于通过验证的结果④,节点的贡献度会被记录在去中心化账本上⑬,作为后续奖励分配的依据⑬。

服务支持:在整个任务执行过程中⑳,Testnet还提供了节点发现③、健康监控⑰、日志管理等一系列配套服务④,以协助节点的管理和问题诊断⑪,保障分布式网络的稳定运行❸。

★更多训练细节⑪、另外在训练过程中④,INTELLECT2还采用了两步异步强化学习的模式⑳,也就是权重的广播与正在进行的推理和训练完全重叠⑦,从而消除了通信瓶颈▓。

以及双面GRPO剪辑⑰,通过使用双面标记概率比剪辑来缓解梯度尖峰⑥,从而使训练更加稳定⑰。

数据方面⑲,INTELLECT2采用了来自NuminaMath-1.5④、Deepscaler和 SYNTHETIC-1的28.5万个可验证任务③,并结合离线和在线过滤来选择具有挑战性的任务⑬,显着提高了模型学习效率②。

★QwQ-32B数学和代码性能提升

INTELLECT-2的实验主要包括两个部分——TARGET-SHORT和TARGET-LONG⑱,分别对应短目标长度和长目标长度的训练设置③。

TARGET-SHORT:随着训练的进行⑥,任务奖励显着提高⑳,长度惩罚有所下降⑱;

TARGET-LONG:任务奖励同样大幅提升⑨,长度惩罚也呈下降趋势▓,但在实验的有限时间内尚未完全收敛⑬,模型还未完全学会严格遵守思考预算⑰。

与基线模型QwQ-32B相比⑫,INTELLECT-2在数学和编程基准测试上的表现有所提升⑧,但在IFEval上略有下降⑧,可能是因为训练只专注于数学和编程任务▓。

在计算资源利用方面⑯,INTELLECT-2通过异步强化学习成功实现了通信和计算的重叠⑱。在两个实验设置中⑰,SHARDCAST广播平均耗时14分钟⑫,实现了约590Mb/s的带宽吞吐量❶。

团队曾获Karpathy投资

INTELLEC-2背后的团队⑲,名叫Prime Intellect⑥,位于美国旧金山⑩。

创始人兼CEO是Vincent Weisser⑪,来自德国⑨,之前参与过大量的创业项目②,Prime Intellect是他最新的创业成果❷。

联创兼CTO Johannes Hagemann⑥,德国Hasso Plattner研究所硕士⑰,本科毕业于多特蒙德工业大学⑫。

CEO Weisser担任核心成员的创业项目VitaDAO⑭,Hagemann曾出任策略顾问③。

创始工程师Jannik Straube▓,慕尼黑工业大学硕士④,之前曾在IBM工作⑫。

在INTELLEC-2之前⑯,Prime Intellect团队也发布过一系列分布式训练的模型成果:

INTELLECT-1③,第一个在分散式基础设施上训练的10B参数模型⑮;

METAGENE-1⑭,用于早期流行病检测和全球健康应用的生物模型⑲;

INTELLECT-MATH①,使用RL训练的数学推理模型⑨。

另外⑬,基于分布式强化学习⑫,团队还推出了从DeepSeek-R1 生成最大的合成推理数据集GENESYS + SYNTHETIC-1⑮。

今年2月⑦,Prime Intellect团队获得了1500万美元的新投资⑬,用来构建点对点AI协议⑲。

这笔投资由创始人基金领衔⑥,投资者中还包括大神Karpathy⑲、Hugging Face联创兼CEO Clem Delangue⑦、FlashAttention作者Tri Dao⑭、Stability AI前CEO Emad Mostaque等AI界名人⑨。

加上之前已有的资金⑩,Prime Intellect团队获得的总资金超过了2000万美元⑱。

在接下来的计划当中⑪,Prime Intellect将进行提高推理-训练计算的比例❶,为模型提供推理链中的内置工具①,以及融合独立训练的RL模型等一系列工作⑬。

宏观方面❶,团队也将扩大计算市场⑩,扩展去中心化训练⑥,并与开源和去中心化人工智能领域的其他领先项目开展合作⑨。

很赞哦⑲!

随机图文