您现在的位置是:网站首页>NBANBA

捕鱼168电玩城曰本捕鱼

崔半梦 2025-05-14 NBA 4582 人已围观

新智元报道⑬、【新智元导读】80年代⑳,当强化学习被冷落❶,这对师徒没有放弃⑫;如今⑰,重看来时路⑭,他们给出的建议仍然是⑬,「坚持」住自己的科研思想⑫。

3月5日⑬,计算机学会宣布Andrew Barto和Richard Sutton获得图灵奖⑰,以表彰其在强化学习领域做出的奠基性贡献⑩。

自从9年前AlphaGo围棋大胜②,引爆全民RL狂欢⑤,再到如今Deepseek-R1等推理模型的火热⑭,足以证明强化学习在人工智能领域的长久影响力⑥。

最近⑰,Communications of the ACM发布了一段对师徒二人的采访⑪,从强化学习的研究经历⑨,聊到对人工智能的未来预测⑦。

Barto侧重于多智能体协作学习②,Sutton则认为AGI还需要至少几十年⑬,但最终一定能实现⑳,二人对AI的未来以及强化学习的应用前景都充满希望⑲!

关于两人共同获得的100万美元图灵奖奖金⑦,目前尚未确定具体用途⑦。

Sutton表示可能将其份额捐赠给共同创立的Openmind研究所⑮,给青年科学家提供「奢侈」的科研自由▓,让他们像自己当年那样专注探索基础性问题⑪。

Barto则计划用奖金在马萨诸塞大学设立研究生奖学金⑤。

强化学习萌芽⑪、1975年的斯坦福校园里⑱,当时还是心理学专业的本科生Richard Sutton⑳,翻遍了图书馆里所有关于机器智能的文献②,认知受到了巨大冲击⑭。

他对主流的「模式识别」和「示例学习」观点感到失望⑲,认为动物并不是这么学习的⑨,而是通过某种奖励反馈机制▓。

当时⑪,唯一将奖励与学习联系起来的研究人员是美国空军实验室的A. Harry Klopf④,认为脑细胞会主动寻求奖励❸。

Sutton立即决定给Klopf写信⑮,并在1978年心理学毕业后❶,在马萨诸塞大学阿默斯特分校从事研究⑮,主要工作就是测试Klopf的观点⑥。

团队当时有一位博士后Andrew Barto⑬,在接受空军和国家科学基金会长达五年的资助后❶,除了一份报告⑳,并没有交付出任何成果⑧。

Barto于1970年获得密歇根大学数学学士学位⑰,1975年获得计算机科学博士学位⑱,最终成为UMass自适应网络实验室的联合主任⑩,2012年退休⑧。

Sutton加入实验室后⑪,成为了Barto的第一位博士生❶,二人最终发展出了现代强化学习技术⑮,奖励也是其中的核心④,通过设计奖励信号来训练神经网络①,让神经元顺着预期方向发展⑯。

1984年⑬,Sutton在马萨诸塞大学安姆斯特分校获得了博士学位⑮,直到1994年⑨,Sutton都是GTE Laboratories的计算机和智能系统实验室的技术组的主要成员❸,随后又以资深研究科学家的身份回到了马萨诸塞大学安姆斯特分校⑲。

任职期间⑧,Barto和Sutton共同出版了《强化学习导论》⑪,获得了超8万次引用④,2018年又发行了第二版⑤,至今仍是全球AI学子的圣经⑭。

同时❶,Sutton加入AT&T Shannon Laboratory担任人工智能部门的主要技术组成员⑫,研究方向围绕着决策者与其环境交互时所面临的学习问题⑰,持续改进自己对世界的表征和模型的系统⑬。

2003年之后⑭,Sutton成了阿尔伯塔大学计算机科学系的教授和 iCORE Chair❸,领导着强化学习与人工智能实验室⑰。

不过⑲,说起强化学习的历史⑰,Barto也提到⑬,他们的思路并不新鲜⑫。

早在1954年❸,人工智能先驱马文明斯基的博士学位论文主题就是模拟神经的强化学习系统⑥,也是IBM计算机科学家Arthur Samuel用来训练计算机下棋的方法⑦。

然而⑩,到了20世纪70年代⑮,这个想法已经过时❶,大多数AI研究员都在设计专家系统❶,Barto也庆幸自己能够保持「不合时宜」⑳。

Barto和Sutton提出的一个关键技术是「时间差分学习」⑳。

比如⑧,想教一台计算机学习下棋⑰,奖励信号如果是赢得游戏①,那中间哪些动作步骤是正确的②,仍然无法确定⑨;即时奖励可以在计算机预测一步后⑪,反馈出离最终奖励仍然有多少距离⑨,比如胜率是否增加⑨。

预测随时间的变化提供强化信号⑮,那么在下次计算机下棋时⑤,就可以采取那些能增加胜率的动作⑰。

破圈⑰、2016年⑲,一场围棋人机大战⑱,让强化学习广为人知⑪,连学术圈之外的人都能聊两句「阿尔法狗」❸。

Google DeepMind开发的AlphaGo⑩,最终以四胜一败击败李世乭⑫,赛后韩国棋院授予AlphaGo为荣誉九段⑭。

2017年①,AlphaGo Master以3:0的战绩⑦,击败了世界排名第一的围棋棋手柯洁⑯,从此人类棋手再无一人是机器的对手⑯。

可以说①,强化学习让「围棋」死了一半▓。

之前的机器学习方法主要是有监督学习和无监督学习⑧,在有监督设置下①,人工标注样本给机器进行学习⑰,样本量有限⑮,无法适应「围棋」这种特征空间很大的情况⑫;而无监督学习则是自动提取出有效特征④,以在数据中找到结构❸。

这两种方法在计算中都已被证明是有用的④,但都不是生物大脑的学习方式③。

强化学习的思路是⑯,当神经网络实现了一个指定目标时⑲,就会获得一定数值的奖励⑩;如果失败了⑫,会得到一个负值奖励⑮。

机器可以通过不断试错来学习⑮,尝试不同的移动⑪,最终学到了在不同场景下应该使用哪种移动方式⑯。

此后⑪,强化学习一路高歌猛进⑰,不仅攻克了各种电子竞技游戏⑬,还引发了大型语言模型的推理革命❸,比如OpenAI o系列④、DeepSeek-R1等推理模型⑳,已成为新的研究主流⑨。

人工智能的未来⑫、Barto预测人工智能领域将向多智能体强化学习方向演进⑫,由神经网络社群及其个体奖励系统将形成互动❷,这种机制可能进一步催生出协作网络⑧,多个模型为实现共同目标而互相奖励⑮,也可能引发持有不同目标的智能体之间的利益冲突⑯。

此类交互将对经济学与博弈论等复杂领域产生深远影响⑤。

Sutton则认为人工智能发展仍处于初级阶段⑧,包括向通用人工智能的探索▓,即机器能理解人类认知范围内的所有事物⑮,Sutton坚信强化学习将在这一进程中发挥关键作用⑦。

谈到给年轻计算机研究人员的建议▓,Barton倡导效仿二人的科研路⑨,勇敢追随自己的研究兴趣▓,不必在意领域内其他人的看法⑬。虽然这很困难①,但你必须找到内在驱动力❷,并尽你最大的能力坚持下去❶。

Sutton则给出更具体的建议⑮,「坚持写作」⑳,通过文字记录来锤炼思想⑰。

一说起计算机科学的未来⑰,Sutton就充满信心:未来几十年内⑭,人类将彻底破解人工智能的奥秘⑦!这有可能是史上最伟大的智力飞跃⑨,能为其贡献绵薄之力是我们的荣幸⑱。

参考资料:

很赞哦④!

随机图文