您现在的位置是:网站首页> CBACBA

这里附近有电玩城

卢夏彤 2025-05-14 CBA 0200 人已围观

新智元报道⑪、【新智元导读】近来❸,GPT-4.1关键人物揭秘了GPT-5进展④,挑战在于平衡推理与聊天能力⑲。与此同时❶,OpenAI首席研究官在新采访中③,畅谈了通往AGI之路的关键要素⑬。

GPT-5到哪一步了⑥?

最近⑱,GPT-4.1核心研究员Michelle Pokrass透露⑧,构建GPT-5的挑战在于③,在推理和聊天之间找到适当的平衡①。

她表示⑬,「o3会认真思考⑪,但并不适合进行随意聊天⑱。GPT-4.1通过牺牲一些闲聊质量来提升编码能力」❶。

「现在⑪,目标是训练一个知道何时认真思考⑰、何时交谈的模型」⑤。

在长达50分钟的最新对谈中⑭,Michelle首次对外介绍了更多关于GPT-4.1背后开发过程⑲,以及RFT在产品中发挥的关键作用⑦。

面对AGI的终极目标⑫,OpenAI首席研究官表示❸,「AGI不仅仅是ChatGPT⑥,还包含了很多东西」⑫。

当前⑲,OpenAI面对的不仅仅是技术挑战❷,还得在信任⑩、伦理上找到平衡⑮。

GPT-4.1研发背后▓、Michelle Pokers表示⑦,GPT 4.1的目标是让开发者在使用时感到愉快⑬。

有时候❶,为了优化基准测试而调整模型❶,结果看起来不错⑳,实际使用却发现一些问题⑧,比如模型不遵循指令③、格式怪异⑥,或者上下文太短⑩。

团队花了很多精力与用户沟通❷,收集他们的意见⑮,然后将这些反馈转化为研究过程中真正能用得上的信息⑧。

研究人员会观察反馈中反复出现的主题❷,如指令遵循能力⑥。

OpenAI内部也使用了这些模型⑯,所以能感觉到模型在哪些地方表现得不好❷。

综合这些因素⑩,团队可以确定哪些评估指标是客户真正需要重点优化的①。

OpenAI有一款电子邮件产品⑪,在处理邮件时能获得免费的推理服务⑱。作为交换⑱,公司能利用这些数据③。

Michelle真的很喜欢看到人们构建的各种酷炫的用户界面▓。

团队在模型开发的最后阶段悄然加入了一项改进⑬,就是大幅提升了UI和编码能力⑦。

她也看到喜欢人们使用Nano的情况⑤,它小巧⑮、便宜又快⑧。

Nano背后的假设是⑫,能否通过廉价且快速的模型来大幅推动AI的普及▓?答案是肯定的⑨。人们对和成本延迟曲线上的各种地方都有需求⑮。

在提升模型性能方面⑩,GPT 4.1聚焦长上下文和指令跟随⑬。

长上下文处理能力是衡量模型在复杂任务中表现的重要指标⑨,但生成有效的长上下文评估内容颇具挑战②。

OpenAI致力于获取更多真实世界的长上下文评估数据②,以提升模型在实际应用中的表现❷。

在模型应用中⑭,模糊性处理是一大难题⑪。

是向用户进一步询问信息⑥,还是依据已有信息进行假设推理⑪,这需要开发者能够灵活调整模型的策略⑧。

GPT 4.1在这方面做出改进⑥,增强模型的可操控性⑨,减少因模糊性导致的困扰⑰。

API出现错误时③,模型可能卡顿⑰,影响使用体验⑳。

OpenAI通过改进训练算法和数据处理方式⑥,让模型面对错误和异常情况时持续稳定运行❶。

GPT 4.1在代码编写能力上有显着提升⑱,在局部代码修改任务中表现出色⑩,但涉及全局上下文和复杂代码推理时⑬,仍需优化②。

例如⑨,处理文件间复杂技术细节传递的任务时②,模型的理解和处理能力有待加强⑩。

在前端编码方面⑳,团队不仅要求功能正确⑰,还注重美观和规范⑥,符合工程师的专业审美⑲。

RFT新突破❸、微调技术在GPT 4.1扮演着重要角色⑦,RFT的出现⑲,为模型能力拓展带来新的可能⑧。

与传统的SFT相比⑬,RFT在特定领域展现出强大的优势⑤。

在芯片设计⑪、生物学和药物研发等领域⑳,RFT的微调过程数据效率极高⑱,仅需几百个样本就能取得良好效果⑨。

在药物研发中⑪,通过RFT可以利用独特且可验证的数据③,让模型更精准地模拟药物作用机制⑤,加速研发进程⑳。

芯片设计领域⑮,RFT能帮助模型更好地理解和处理复杂的设计规则⑤,优化设计方案④。

这些领域的共同特点是②,虽然需要不断探索⑩,但实验结果容易验证⑥,与RFT的优势高度契合⑱。

OpenAI首席研究官:通往AGI之路

在外媒TechINAsia最新文章中⑫,通过采访OpenAI模型背后的人⑰,向外界再次展示了OpenAI可预见的AGI的未来②。

Mark Chen④,这位华人研究科学家⑨,在内部模型研发中扮演着举足轻重的作用❸。

在OpenAI的七年时间里❷,他从研究科学家逐步晋升为首席研究官⑤,负责模型开发和公司整体研究工作⑯。

他领导了多项里程碑式的项目——o1系推理模型②、文本到图像模型Dall-E①,以及融入视觉感知的GPT-4⑤。

从金融到AI⑯,意外的职业转折

Mark Chen的职业生涯⑤,并非从一开始就锁定AI⑩。

在MIT获得数学与计算机科学双学位后❷,他原本的计划是❶,继续攻读博士学位②,成为一名教授④。

然而②,命运的转折点出现⑩。

在计划合作的教授创立了一家对冲基金后⑧,他改变了方向⑧,随之加入了金融行业⑱。

在这样高频交易的世界里⑮,Mark Chen度过了6年⑧。

他坦言⑫,「这份工作在某些方面令人满足⑭,但在其他方面非常不满足⑧。你面对同样的竞争对手①,大家都在追求更快❸,但你感觉不到自己正在改变世界」❶。

2016年⑩,谷歌AlphaGo在一场历史性比赛中①,击败了九段棋手李世石⑪,其人类水平的表现甚至让AI专家震惊⑳。

受此启发⑨,Mark Chen通过实现Deep-Q神经网络复刻AlphaGo⑭。正是这一尝试❸,让他彻底迷上了AI⑰。

尽管没有博士学位⑦,幸运的是⑭,他通过OpenAI的驻留计划⑤,幸运地迈入了这一领域▓。

找到AGI最佳平衡⑥、在谈及AGI之时▓,Mark Chen表示④,「我们采用非常广泛的定义⑪,它不仅是ChatGPT①,还包括了其他东西」⑳。

一直以来⑦,OpenAI将AGI视为AI的圣杯②,并制定了五级框架来实现这一目标❷。

而现在⑮,他们已经到达了第三级⑰,智能体AI——能自主执行复杂任务和规划⑫。

Mark Chen介绍称③,OpenAI近期推出的两款AI智能体产品③,Deep Research和Operator尚处于早期阶段⑯。

Operator在未来④,速度可以更快⑭,轨迹可以更长⑤,这些产品代表了OpenAI对智能体AI的雄心⑰。

他还强调⑮,平衡短期产品发布与长期研究❶,将计算资源分配到OpenAI的整个项目组合中❷,是自己工作的核心⑤,最终确保OpenAI在商业化与科学探索之间找到最佳平衡②。

Mark Chen对OpenAI内部算法的优化充满信心⑯。

他表示①,自家的推理模型在训练时⑮,使用的数据远少于预训练模型⑨,但通过更多计算资源实现了高效性能⑦。

由此③,OpenAI在效率上不逊于谷歌Gemini 2.5等竞争对手⑳。

回应开源⑧、几天前⑩,奥特曼在一次会议上称▓,预计今年夏天开源首个推理模型⑫。

在采访中①,Mark Chen同样透露⑮,公司正计划发布GPT-2以来首个开源语言模型⑧。

他认为⑯,开源模型的优势在于推理能力和开发者对其进行优化⑫,但也因安全措施较少⑫,而存在滥用的风险①。

面对DeepSeek等AI模型强势崛起⑤,Chen显得从容不迫❶。

他表示⑥,在AI领域最大的危险③,是反应过度⑰。OpenAI坚信自己的路线图⑫,专于长期目标而非短期市场噪音❶。

最后⑬,Mark Chen还为想要进入AI领域的年轻人提供了建议:「深入熟悉所有工具❷,永远保持好奇心」❸。

你玩的工具越多⑱、越好奇❸,就越能理解其他人试图推动的领域⑳,以及未来的正确方向⑦。你必须保持领先④。

这是一个变化很快的领域①。你看到的许多被探索的事物⑮,都是未来的瞥见⑦。

参考资料:

很赞哦⑳!

随机图文