您现在的位置是:网站首页>电竞电竞

2024开电玩城是正规还是仿

郭冬儿 2025-05-13 电竞 6052 人已围观

当前的人工神经网络只是对生物神经网络的极其简化模拟④,在能力和效率方面远远落后于人脑❷。

我们能否进一步结合生物大脑中的特征③,将人工智能的能力和效率提升到新的水平⑮?

受生物神经网络的启发❶,由“Transformer八子”之一 Llion Jones 联合创立 Sakana AI 提出了一种新型人工神经网络——“连续思维机器”⑬。

与传统人工神经网络不同①,CTM 将神经元活动同步作为核心推理机制⑩,在神经元层面使用时序信息①,从而实现了更复杂的神经行为和决策过程③。

研究表明①,CTM 能够逐步“思考”问题⑯,在各种任务中解决问题的能力和效率都有所提高❷,其推理过程也具有可解释性⑳,更像人一般⑯。

相关研究论文以“”为题①,已发表在预印本网站 arXiv 上⑯。

研究团队认为⑩,CTM 是弥合人工神经网络与生物神经网络之间鸿沟的重要一步⑩,有望开启人工智能能力的新领域⑳。

可解释⑦、智能涌现⑭、尽管深度学习推动了人工智能领域的变革式发展❶,但自 20 世纪 80 年代以来⑬,人工智能模型中使用的人工神经元的基础模型在很大程度上没有变化⑭,仍然主要使用神经元的单一输出⑪,忽略了神经元相对于其他神经元放电的精确时间⑫。

然而⑥,强有力的证据表明⑰,这种时序信息在生物大脑中至关重要⑱。

在 CTM 模型中❶,神经元可以访问自己的行为历史⑱,并学习如何利用这些信息来计算自己的下一个输出⑫,而不是仅仅知道自己的当前状态⑲。这样⑧,神经元就能根据过去不同时期的信息改变自己的行为⑰。此外⑮,CTM 的主要行为是基于这些神经元之间的同步⑳,这意味着它们必须学会利用这些时序信息来协调完成任务❷。与传统模型中可被观察到的情况相比⑪,这将产生更丰富的动态空间和不同的任务解决行为⑯。

在添加了这种时序信息后⑬,研究团队观察到了高度可解释的行为⑲。例如⑳,在浏览图像时❶,CTM 会仔细地将视线在场景中移动⑲,并选择关注最显着的特征⑭。

据论文描述⑭,CTM 的行为基于一种新的表征:神经元之间随时间的同步⑥。这更容易让人联想到生物大脑⑮,但并非严格意义上的仿真⑳。于是⑰,CTM 能够利用这种新的时间维度①、丰富的神经元动态和同步信息来“思考”任务⑦,并在给出答案前制定计划⑬。“连续”则表示 CTM 的推理完全在内部“思考维度”运行⑫。对于所使用的数据⑧,它是异步的:能够以相同的方式对静态数据或序列数据进行推理⑭。

研究团队表示②,他们观察到的神经元动态在某种程度上更像是在真实大脑中测量到的动态⑩,而不是更传统的人工神经网络⑭,后者表现出的行为多样性要少得多⑪。CTM 显示了以不同频率和振幅振荡的神经元⑱。有时⑯,单个神经元会出现不同频率的振荡③,而其他神经元只有在完成任务时才会出现活动⑰。

值得强调的是⑫,所有这些行为都是完全涌现的❶,并没有被设计到模型中⑰。

像人一样求解迷宫②、识别图像

由于有了新的时间维度⑬,CTM 的一大优势在于⑩,我们可以观察并直观地看到它是如何随着时间的推移解决问题的❶。

传统的人工智能系统可能只需通过一次神经网络就能对图像进行分类❶,而 CTM 则不同⑱,它可以采取多个步骤来“思考”如何解决任务❸。

研究团队展示了两个任务:迷宫求解和照片中的物体分类⑭。

1.迷宫求解❸、在这项任务中②,CTM 会看到一个自上而下的二维迷宫⑲,并被要求输出求解迷宫所需的步骤❷。这种形式特别具有挑战性⑤,因为模型必须建立对迷宫结构的理解并规划解决方案⑱,而不仅仅是输出路径的视觉呈现③。CTM 的内部连续“思考步骤”允许它制定计划⑲,它在每个思考步骤中关注迷宫的哪些部分可以被直观得观察到①。值得注意的是⑲,CTM 学会了一种非常类似人类的求解迷宫的方法——从它的注意力模式来看⑪,它实际上是在沿着迷宫的路径前进⑮。

尤其令人印象深刻的是⑱,这种行为是在模型架构中自然产生的⑤。研究团队并没有明确设计 CTM 在迷宫中追踪路径⑭,它是通过学习自行开发出这种方法的❶。

此外⑲,研究团队还发现❷,当允许有更多思考步骤时①,CTM 会继续沿着路径前进⑰,超过了训练它这样做的时间点⑯,这表明它确实已经学会了这个问题的通用解决方案⑲。

2.图像识别⑨、另一方面❸,研究团队以 ImageNet 基准为例⑫,展示了 CTM 在图像识别方面的能力⑮。

传统的图像识别系统只需一步就能做出分类决定⑪,但 CTM 在做出决定前会采取多个步骤检查图像的不同部分⑩。这种循序渐进的方法不仅使人工智能的行为更具可解释性⑱,还提高了准确性:“思考”的时间越长⑭,答案就越准确⑯。

研究团队还发现⑪,这可以让 CTM 决定在更简单的图像上花费更少的思考时间❶,从而节省能源②。例如②,在识别大猩猩时⑱,CTM 的注意力从眼睛到鼻子再到嘴巴⑭,其模式与人类的视觉注意力非常相似⑰。

视频|CTM 在对图像进行分类时的行为示例❷。热图显示了 CTM 在处理图像时的关注点⑲,箭头表示关注点的中心⑬。

研究团队表示⑦,这些注意力模式有助于我们了解模型的推理过程⑧,了解模型认为哪些特征与分类最为相关⑨。这种可解释性不仅对理解模型的决策很有价值⑧,而且对识别和解决偏差或失败模式也很有潜力⑥。

更多交互案例请查阅官方交互报告:

生物学+计算技术⑫,更强④、更高效

尽管现代人工智能是以大脑为基础的“人工神经网络”⑳,但即使在今天⑬,人工智能研究与神经科学之间的重叠也少得令人吃惊⑭。主要原因包括以下两点:

一方面⑲,人工智能研究人员依然选择沿用 80 年代开发的非常简单的模型②,因为它简单❶、训练高效⑫,并能持续成功地推动人工智能的进步❶。

另一方面⑯,神经科学创建了更加精确的大脑模型⑫,但主要目的是为了理解大脑❶,而非试图创建更智能的模型③,因而性能远低于当前的传统人工智能模型⑫。“CTM 是我们在这两个领域之间架起桥梁的首次尝试①,它初步显示了一些更像大脑的行为⑰,同时仍然是解决重要问题的实用人工智能模型⑨。”

研究团队认为②,有了 CTM 的这次尝试①,我们可能会通过这种方式构建能力更强⑦、效率更高的模型⑬。

如需转载或投稿①, 请直接在公众号内留言

很赞哦⑫!

随机图文