您现在的位置是:网站首页>CBACBA

天天电玩城旧版本上下分

汪含玉 2025-05-13 CBA 4539 人已围观

机器之心报道❷、递归思考 + 自我批判⑩,CoRT 能带来 LLM 推理力的飞跃吗⑤?

CoT大家都很熟悉了⑭,通过模仿「人类解题思路」⑪,进而大幅提升语言模型的推理能力❶。

这几天④,一个名为 CoRT的概念火了⑮!从名称上来看⑬,它在 CoT 中加入了「递归思考」这一步骤⑮。

具体来讲▓,CoRT 能让 AI 模型递归地思考它们的响应④,生成替代性方案②,并从中选择最佳的一个④。

这就像赋予了 AI 自我质疑或反驳的能力⑯,并一遍一遍地尝试⑫。

通过将「结构化自我批判」和「递归思考模式」结合起来❸,提升语言模型的推理能力⑱。

短短两周时间⑱,CoRT 在 GitHub 的星标数已经快突破 2k 了⑤。

GitHub 地址:https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts

从技术原理来讲⑲,相较于传统的 CoT⑰,CoRT 让语言模型不仅能分步骤思考⑥,还能在思考过程中反复回头检查⑪、修正⑨,形成类似于人类的「反思性思维」或「内省」的推理路径①。

然而⑦,很多网友对 CoRT 的出现并没有感到太激动⑭。CoRT 是让 LLM 更努力思考的不错技巧⑦,但称不上什么新颖的 idea⑫。它的工作原理就像一个加入了递归组件的元提示⑰。

还有网友指出⑪,这种方法在 2023 年的论文中《Improving Factuality and Reasoning in Language Models through Multiagent Debate》就出现了⑤。

有网友发出疑问:CoRT 不就是现在大多数 LLM 的思考模式吗⑤?

比如在 Cursor 中配置的 Gemini 2.5 Pro⑮,它的 CoT 就是这样做的⑩。模型会思考一分钟▓,并反驳自己的答案⑧,直到找到最无力反驳的答案⑪。

再比如⑰,CoRT 不就是 Qwen 和 R1 中的「but wait」模式吗⑱?模型一直思考❸,并自我反驳⑤,两者似乎没有什么不同❶。

大家觉得⑱,CoRT 是不是「新瓶装旧酒」呢⑪?请在评论区留言⑮。

项目介绍⑰、根据项目介绍⑯,CoRT 的诀窍在于以下四个方面:

自我评估⑪;

有竞争力的替代生成方案②;

迭代优化⑮;

动态思维深度④。

工作流程包括了以下四个步骤:

首先⑰,AI 生成初始响应❷。

其次⑬,AI 决定它需要多少轮「思考」❷。

接着③,对于每一轮思考:⑧、生成 3 个替代性响应③;

评估所有响应⑬;

选择最佳响应⑥。

最后⑮,最终响应就是这场 AI 大混战的幸存者⑨。

Web 界面使用方式❶、一⑳,打开 start_recthink.bat

二⑨,等待一会⑪,让它安装依赖项

三⑩,配置成功❷、如果你是运行在 linux 系统上⑧,则依如下:

打开一个新的壳层:

效果怎么样呢❶?

作者使用 Mistral 3.1 24B 进行了测试⑧,根据他的说法⑪,CoRT 在编程任务中的表现从「meh」升到了「holy crap」❸。

我们来看一下示例③,下图为 Mistral 3.1 24B+CoRT:

下图为 Mistral 3.1 24B 无 CoRT:

从结果来看⑭,使用 CoRT 前后⑱,Tic-tac-toe游戏从基础的 CLI变成了完全的 OOP⑫。

参考链接:https://x.com/omarsar0/status/61818478

很赞哦⑬!

随机图文