您现在的位置是: 网站首页>娱乐娱乐

孕妇可以去电玩城吗有辐射吗

蒋雅山 2025-05-14 娱乐 1719 人已围观

鹭羽 发自 凹非寺量子位 | 公众号 QbitAI

全网刷屏的Claude系统提示词⑮,结果被卡帕西大神当场抓虫❷?⑯!

事情是这样的⑭。

一夜之间⑥,近1.7万字系统提示词——包含24000个token③,详细定义了模型行为②、工具使用和引用格式…..全部细节直接在GitHub上被泄露了⑥!

这事儿一出⑮,网友蜂拥而至速速围观④,甚至亲切地称呼这次意外泄漏事件是提示技术的金矿⑲。

就在此时❷,大神卡帕西发现了华点:LLM学习缺少主要范式❷?

随即他提出系统提示学习新范式——模拟人类经验积累过程⑭,将系统提示嵌入权重⑭。

简单总结一下⑪,就是模拟人类学习⑫,为LLM提供备忘录功能⑮,让LLM拥有自主反思用户问题的“记忆”功能⑤,记录通用的问题解决知识和策略③。

新范式一石激起千层浪⑦,有人表示赞同⑰,也有人开始着手分析新范式帮助LLM畅玩Minecraft的可行性:

当然也有人持反对意见⑯,认为允许模型自己编写提示会使模型更加混乱⑱,也无法保证模型不会错误地理解提示❶。

具体是怎么一回事呢▓?别急⑳,接下来让我们一起来回顾整个事件⑰。

Claude系统提示词曝光

据揭露⑳,完整的Claude系统提示词包含16739个字❷,也就是110kb⑫。相比之下⑱,ChatGPT中的OpenAI的o4-mini的系统提示仅有2218个字⑥,约为Claude的13%⑱。

具体内容也相当有趣❶,不仅详细阐述了Claude基本的行为风格和偏好⑱,还包含了大量全局的问题解决策略▓,例如下面这个解决经典LLM问题“草莓单词里有几个‘r’字母”:

系统提示告诉LLM如何回复用户提示⑭,类似于LLM的“设置”选项❷,定义用哪种语气回应⑰,以及补充训练数据中所没有的上下文信息⑪。

以下是Claude的提示组件构成:

其中最大的组件是工具定义❶,由MCP服务器进行信息填充⑨。与标准的API不同⑪,MCP向LLM提供关于指令的详细说明教程③。

此外⑭,其余提示近80%的内容都与工具有关⑩,都详细说明了在与用户的交互场景中Claude是如何作用的❸。

在提示词文档的最后还包含一些热修复⑯,指出了常见的LLM陷阱⑮,例如关于川普的总统就职信息:

根据该提示⑰,Claude的可靠知识截止于2024年10月⑭,此后发生的事件或新闻都以人为热修复或使用网络搜索工具来补充⑬。

利用系统提示学习构建新范式

在读完Claude系统提示词文档后⑦,Karpathy火速发表了一篇小作文——LLM学习缺乏主要范式⑫,并称之为系统提示学习④。

传统学习范式基于强化学习⑬、监督学习等预设框架被动优化⑩,问题的解决只依赖于强化学习嵌入权重⑳,实际并不理解用户输入⑧。

新范式与强化学习类似⑯,但采用直接编辑提示而非梯度下降的学习算法⑪。

其强调构建系统提示符供自身使用❷,让预处理获取知识⑳、微调塑造行为习惯⑦、系统提示学习制定策略①,使LLM可以根据实时反馈和情景需求调整和完善响应策略⑳。

举个栗子⑫,现在的LLM就像电影《记忆碎片》的主人公⑰,只有短期的碎片记忆③,无法形成新的长期记忆⑥。

而新范式仿照正常人类学习过程②,即当你遇到一些问题并尝试解决后⑮,你也许会用专属于你的“系统提示”记住解决策略⑰,在下一次遇到同类问题时⑧,你就会自然而然想到:也许你可以泛化使用上次那种解决方案⑱。

通过经验-明确的策略-习惯性权重的流程⑧,LLM可以像人类一样记笔记⑲,将知识转化为直觉▓,达成实践学习❷、逻辑推理的范式转变③。

利用系统提示学习可以有效实现测试时间训练⑫,同时始终可以被人类审查❸,并且保证更少的安全隐患⑥。

系统提示学习在未来还标志着自主AI系统正在发展自身的计算意识②,将超越传统学习范式的边界②,为真正的自我迭代乃至于AGI提供了可能③。

当然⑦,Karpathy也明确指出新范式的实现还有更多有待解决的细节⑫,例如编辑系统的运行问题⑫、知识如何从显性系统文本转变为习惯性权重等⑦。

对此②,广大网友展开了激烈的讨论⑯。

例如有网友提出可以补充一个记忆层以实现系统提示学习⑳。

也有网友直接抛出了自己在记忆文档方面的研究结果:

也有人质疑LLM缺乏持续学习的本质②,让它无法从自身思维中学习⑩,系统提示学习并不能从根本上解决⑤,还需要寻找更为有效的思维模式⑪。

那么你的看法是什么呢①?欢迎在评论区留言讨论~

系统提示词链接:https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt

参考链接:

很赞哦⑦!

随机图文