您现在的位置是:网站首页>房产房产

电玩城模拟器免广告

韩雅绿 2025-05-13 房产 4946 人已围观

当前的人工神经网络只是对生物神经网络的极其简化模拟⑤,在能力和效率方面远远落后于人脑❶。

我们能否进一步结合生物大脑中的特征⑤,将人工智能的能力和效率提升到新的水平▓?

受生物神经网络的启发❷,由“Transformer八子”之一 Llion Jones 联合创立 Sakana AI 提出了一种新型人工神经网络——“连续思维机器”⑪。

与传统人工神经网络不同④,CTM 将神经元活动同步作为核心推理机制⑭,在神经元层面使用时序信息❶,从而实现了更复杂的神经行为和决策过程⑬。

研究表明⑲,CTM 能够逐步“思考”问题④,在各种任务中解决问题的能力和效率都有所提高④,其推理过程也具有可解释性⑰,更像人一般⑧。

相关研究论文以“”为题⑮,已发表在预印本网站 arXiv 上⑱。

研究团队认为▓,CTM 是弥合人工神经网络与生物神经网络之间鸿沟的重要一步⑭,有望开启人工智能能力的新领域❶。

可解释▓、智能涌现❸、尽管深度学习推动了人工智能领域的变革式发展④,但自 20 世纪 80 年代以来⑨,人工智能模型中使用的人工神经元的基础模型在很大程度上没有变化⑫,仍然主要使用神经元的单一输出⑳,忽略了神经元相对于其他神经元放电的精确时间⑯。

然而▓,强有力的证据表明⑪,这种时序信息在生物大脑中至关重要⑥。

在 CTM 模型中⑲,神经元可以访问自己的行为历史②,并学习如何利用这些信息来计算自己的下一个输出⑨,而不是仅仅知道自己的当前状态⑰。这样⑨,神经元就能根据过去不同时期的信息改变自己的行为⑱。此外⑰,CTM 的主要行为是基于这些神经元之间的同步⑥,这意味着它们必须学会利用这些时序信息来协调完成任务⑩。与传统模型中可被观察到的情况相比⑬,这将产生更丰富的动态空间和不同的任务解决行为⑩。

在添加了这种时序信息后⑨,研究团队观察到了高度可解释的行为④。例如❷,在浏览图像时❸,CTM 会仔细地将视线在场景中移动①,并选择关注最显着的特征⑰。

据论文描述⑨,CTM 的行为基于一种新的表征:神经元之间随时间的同步②。这更容易让人联想到生物大脑⑪,但并非严格意义上的仿真⑱。于是⑯,CTM 能够利用这种新的时间维度⑥、丰富的神经元动态和同步信息来“思考”任务①,并在给出答案前制定计划▓。“连续”则表示 CTM 的推理完全在内部“思考维度”运行⑫。对于所使用的数据⑫,它是异步的:能够以相同的方式对静态数据或序列数据进行推理⑧。

研究团队表示⑭,他们观察到的神经元动态在某种程度上更像是在真实大脑中测量到的动态⑰,而不是更传统的人工神经网络⑱,后者表现出的行为多样性要少得多⑭。CTM 显示了以不同频率和振幅振荡的神经元⑬。有时⑲,单个神经元会出现不同频率的振荡⑪,而其他神经元只有在完成任务时才会出现活动⑧。

值得强调的是⑯,所有这些行为都是完全涌现的❷,并没有被设计到模型中⑱。

像人一样求解迷宫⑪、识别图像

由于有了新的时间维度⑭,CTM 的一大优势在于⑭,我们可以观察并直观地看到它是如何随着时间的推移解决问题的⑦。

传统的人工智能系统可能只需通过一次神经网络就能对图像进行分类⑬,而 CTM 则不同❶,它可以采取多个步骤来“思考”如何解决任务⑭。

研究团队展示了两个任务:迷宫求解和照片中的物体分类⑮。

1.迷宫求解❶、在这项任务中⑧,CTM 会看到一个自上而下的二维迷宫❶,并被要求输出求解迷宫所需的步骤⑤。这种形式特别具有挑战性❸,因为模型必须建立对迷宫结构的理解并规划解决方案⑤,而不仅仅是输出路径的视觉呈现❸。CTM 的内部连续“思考步骤”允许它制定计划⑫,它在每个思考步骤中关注迷宫的哪些部分可以被直观得观察到⑤。值得注意的是⑪,CTM 学会了一种非常类似人类的求解迷宫的方法——从它的注意力模式来看①,它实际上是在沿着迷宫的路径前进▓。

尤其令人印象深刻的是❸,这种行为是在模型架构中自然产生的⑰。研究团队并没有明确设计 CTM 在迷宫中追踪路径⑬,它是通过学习自行开发出这种方法的⑧。

此外⑩,研究团队还发现⑪,当允许有更多思考步骤时⑭,CTM 会继续沿着路径前进⑧,超过了训练它这样做的时间点⑤,这表明它确实已经学会了这个问题的通用解决方案⑲。

2.图像识别①、另一方面②,研究团队以 ImageNet 基准为例⑨,展示了 CTM 在图像识别方面的能力⑯。

传统的图像识别系统只需一步就能做出分类决定⑪,但 CTM 在做出决定前会采取多个步骤检查图像的不同部分③。这种循序渐进的方法不仅使人工智能的行为更具可解释性⑫,还提高了准确性:“思考”的时间越长⑰,答案就越准确❸。

研究团队还发现❷,这可以让 CTM 决定在更简单的图像上花费更少的思考时间③,从而节省能源⑲。例如⑱,在识别大猩猩时⑦,CTM 的注意力从眼睛到鼻子再到嘴巴⑩,其模式与人类的视觉注意力非常相似②。

视频|CTM 在对图像进行分类时的行为示例❶。热图显示了 CTM 在处理图像时的关注点⑫,箭头表示关注点的中心⑱。

研究团队表示⑨,这些注意力模式有助于我们了解模型的推理过程⑫,了解模型认为哪些特征与分类最为相关⑥。这种可解释性不仅对理解模型的决策很有价值⑫,而且对识别和解决偏差或失败模式也很有潜力②。

更多交互案例请查阅官方交互报告:

生物学+计算技术⑪,更强⑮、更高效

尽管现代人工智能是以大脑为基础的“人工神经网络”⑤,但即使在今天⑫,人工智能研究与神经科学之间的重叠也少得令人吃惊⑩。主要原因包括以下两点:

一方面⑨,人工智能研究人员依然选择沿用 80 年代开发的非常简单的模型⑭,因为它简单⑲、训练高效⑭,并能持续成功地推动人工智能的进步⑬。

另一方面⑳,神经科学创建了更加精确的大脑模型①,但主要目的是为了理解大脑⑱,而非试图创建更智能的模型❸,因而性能远低于当前的传统人工智能模型⑲。“CTM 是我们在这两个领域之间架起桥梁的首次尝试⑤,它初步显示了一些更像大脑的行为❸,同时仍然是解决重要问题的实用人工智能模型⑭。”

研究团队认为▓,有了 CTM 的这次尝试⑲,我们可能会通过这种方式构建能力更强⑳、效率更高的模型⑫。

如需转载或投稿⑱, 请直接在公众号内留言

很赞哦▓!

随机图文