您现在的位置是:网站首页>军事军事

2019免费送分可退现金电玩城

蒋尔岚 2025-05-13 军事 1974 人已围观

知识分子

编者按⑮、从12岁考入科大的少年班⑭,到最年轻的电子工程师协会会士⑯,再到微软亚洲研究院的院长③,张亚勤几乎经历了从上世纪80年代开始的那场以个人电脑和互联网为起点的信息革命中最为波涛汹涌的30年④。

然后③,他曾担任院长的那个微软亚洲研究院成了业内公认的中国人工智能领域的“黄埔军校”❸,他自己也把关注集中到了一个代表未来的新兴领域——人工智能⑭。2014年⑧,他加盟百度担任总裁⑯,主推人工智能❸、大数据与云计算▓, 无人驾驶⑬, AI芯片等新技术⑱。2020年⑳,他加入清华大学❸,成立清华大学智能产业研究院并担任院长⑳。

走过曾经波涛汹涌的信息革命❷,站在这场新的技术革命的潮头⑬,张亚勤是参与者❷,也是观察者⑧。而今⑫,他关于这个AI时代的新书《智能涌现》刚刚出版⑭,在书中⑥,他讲述了自己亲历的这场硅基智能的涌现⑩。从整个人类史的视角⑥,他重新审视这场由AI带来的第四次工业革命⑭,甚至开始思考:当机器开始掌握“创造”的权柄▓,人类文明将走向技术乌托邦❷,还是失控的深渊⑯?

这是一个技术乐观主义者❸,展望那个即将到来的AI时代❸,张亚勤说:普通人“一周只需工作两天”❶,“只需要2成的人工作⑯,8成的人只要享受生活就行了”⑧,“全民发钱”的基础收入计划❸,也许会是个办法⑦。

然而❸,当被问到:面对未来⑱,内心有过担心或者恐惧的时刻吗⑪?

张亚勤谈到了“失控”③,那是令这位理科男内心觉得恐惧的东西⑥,比如:“无人车失控了④,如何处理⑩?”然而⑦,对今天更多的AI失控⑥,张亚勤认为⑱,都还在可控范围⑫,因为今天的AI“还没有真正进入到物理领域⑭,”其失控的表现也不过是“不实的虚假信息”⑨。“目前的AI大多在信息智能领域❸,容错率更高⑰。但等到我们进入物理世界或者生物世界⑯,我们就需要更加谨慎了⑰,⑫,可控性要求更高⑯。”

数日前⑲,在一场采访中⑮,张亚勤把智能分为了信息智能⑱、物理智能和生物智能⑱,并认为❸,我们会顺次的⑫,用5年⑲、10年▓,15-20年的事件②,分阶段达到最终的AGI目标❶。届时⑳,人类大脑将得到全方位的拓展⑩,甚至“未来会有一个新的物种”④。在这位AI研究者的眼中❶,最终⑩,人与AI融为了一体⑥,那真是一个大胆又魔幻的场景⑨,我们的谈话就从这里开始了⑳。

撰文 | 李珊珊❸、AI不会产生意识⑩、知识分子:您提到过一个实现AGI路线图⑱,人类会达到三个智能的里程碑▓,信息智能①、物理智能和生物智能最终达到AGI的目标⑲,在这个过程中⑮,最大的障碍可能出现在哪个阶段❷?

张亚勤:这三个阶段中⑫,最大的难点在于生物智能时期⑯。

生物智能包括碳基和硅基的接口❷,也就是我一直强调的②,未来是HI+AI⑪。然而⑥,在这种新的情景下⑦,当我们将人的智能与机器智能融合在一起时⑪,人类的意识如何控制AI❸,AI与人类如何和谐共处▓,都是全新的挑战⑬。这可能不仅仅是算法⑤、技术问题⑬,还包含伦理和治理等方面的问题⑦。

知识分子:很多科学家④,甚至人工智能领域的专家等都曾提到过人工智能会产生意识❸,您怎么看⑨?

张亚勤:我认为这种情况不会发生⑯。我们现在的算法都是基于统计数据⑪,我不认为目前的路径或者目前硅基所用的这些算法会产生意识⑩,这些东西只会产生一个非常聪明⑫、能力很强的AI智能体⑭,但它还只是工具⑮,本身并不能产生意识⑨。

虽然我无法严格证明这一点❷,但要知道⑥,目前地球上的硅基智能计算和存储能力已经远超过人类的水平⑦,然而⑬,它们至今从未有过生命意识的迹象⑬,也没有更高层次的情感迹象⑤。

我们人类目前对大脑的了解不到10%⑯,我们不了解意识如何产生⑫,也不知道意识产生的原因是什么⑱,在这种情况下⑲,如果认为人类开发的产品会有意识❷,就会存在一个悖论①。

当然⑪,我坚持硅基智能不会产生意识⑨,一部分原因是出于经验②,另一方面❸,也许这是某种哲学信仰❷,信仰至少占一半吧⑯。AI可以帮助我们做许多事情⑤,但它没有自我意识⑳,没有自我价值⑧,它的意识和价值都应该是依附于人类的⑯。

当然②,还有一个情况是:如果脑机接口出现之后⑯,机器逐渐了解了我们的思维模式和意识⑭,情况会不会不一样⑯,我并不清楚⑦。

知识分子:硅基智能难道不会自己进化产生意识吗⑩,尤其是产生那种反抗人类或者奴役人类的意识⑬?

张亚勤:我并不担心⑭。我担心的是目前我们的算法或者路径会产生两个问题❷,一个是我们所设计的智能体在工作中失控了⑮,由于我们对算法不够完全了解⑦,这是可能会发生的事情⑤。另一个麻烦是:大模型智能体被坏人利用了⑬。

我从不担心AI会产生意识并且伤害人类④,我更担心的是AI的失控和滥用④。后者就要求我们在每一步⑮,无论是研究⑰、开发⑳,还是制定政策规范⑥,都要考虑到红线⑰。什么可以做②,什么不能做⑪,要有一个界限①。

知识分子:您提到脑机接口的情景下⑲,AI会和人类的融合▓,但AI与人类在节奏上有很大差距⑪,如何融合❷?

张亚勤:我最近与人讨论⑬,也提到过这一点⑮,人类的DNA是经过了几十万年上百万年的演化产生的②,这个过程很慢⑦,所以⑱,我们不论是生活还是思考①,都希望有一种更慢⑪、更和谐的方式❶,更自然的节奏⑯。但机器不同②,目前AI进化的节奏越来越快❷,还叠加上越来越多的数据③、越来越多算力的投入⑬,那就更快了❸。碳基和硅基融合之后⑦,这些节奏上的差距⑲,就成了问题❸。

我们希望的一种方式是:一些AI更擅长⑧,但人类不喜欢的工作❷,由AI助理快速完成❷,而另一些⑦,比如④,思考①、娱乐⑧,甚至⑩,体育锻炼⑨,与朋友家人和亲人相处❷,按照我们人类自己的节奏▓,慢慢完成⑪。这将是一种好的人机相处方式⑱,也是人类+AI这个未来新物种的一种存在方式⑰。

当然⑤,要做到这一点并不容易⑱,10-15年之前我就在讲⑯,人类不要被三屏奴役❸,而目前互联网和AI的发展更是几乎“侵入”了生活的方方面面⑧。我认为⑩,从现在开始⑧,人类就得思考自己要做什么⑭,我们要学会控制节奏⑱,找到人类的主宰性⑱。

中美在实现L4级无人驾驶的时间上会基本同步

知识分子:您提到过无人驾驶可能会在5年内实现②,您认为目前制约自动驾驶商业化的最大障碍是什么②,是技术的成熟度还是社会的接受度⑪?

张亚勤:技术的成熟度和社会的接受度都是巨大的挑战②。技术的发展需要时间❷,社会的接受也需要时间❷。

虽然像萝卜快跑和谷歌的Waymo已经在特定场景下进行了大量测试▓,目前已经在旧金山和武汉等城市开始L4运营⑧,但目前大多数车型仍处于辅助驾驶的L2或L2+的水平⑨,离真正的L4级的自动驾驶尚有很大差距④。尤其是在城市道路的复杂场景中⑤,技术仍不够成熟⑩,车辆更多是提供高级辅助驾驶功能⑰,辅助人类做决策⑧。这意味着驾驶员仍需保持手握方向盘▓、眼睛看路的状态⑨。

人类社会对技术的敬畏心仍然不可或缺⑦。我们需要学会如何与机器和谐共存▓,而不是完全依赖技术⑲。无人驾驶的普及不仅是技术问题▓,更是社会心理和文化适应的过程⑱。

知识分子:您曾经提到自动驾驶安全的几个要素⑬,排在第一位的是智能驾驶决策模型的可解释性⑬。从这个角度看⑰,黑箱大模型框架是否适用于自动驾驶③?还是我们需要一个更可解释的模型③,这样才能更安全并且更能被大众接受⑰。

张亚勤:这是一个复杂的技术问题⑤。当前的大模型端到端架构本质上是一个统计模型▓,许多决策过程我们并不完全理解⑪。我们在AIR研究院的研究方向之一❶,就是让AI的驾驶行为决策更加透明⑪。

但另一方面④,尽管大模型的决策过程难以解释⑥,从结果来看⑳,它们往往是正确的①。放弃大模型可能意味着失去目前最有效的解决方案❶。这就像人类的大脑⑰,我们对其理解可能不足10%③,但这并不妨碍我们每天依赖它做出正确决策③。

目前的自动驾驶系统通常结合了大模型和规则兜底的安全机制③。大模型负责核心的智能决策⑱,而规则兜底部分则用来补足大模型无法解释的部分⑰,提供额外的安全冗余⑯。随着对智能驾驶决策系统的理解加深④,未来这些规则兜底的部分可能会逐渐减少⑧,但在此之前④,它们仍然是不可或缺的❸。

知识分子:中国和美国哪个国家会更快地实现和推广普及L4级无人驾驶③?目前的情况下⑮,中美在无人驾驶方面还有合作共赢的可能吗⑪?

张亚勤:我认为⑥,中美在实现L4级无人驾驶的时间上会基本同步❶。虽然美国做得很好⑤,但是整体来讲⑤,中国的规模会更大⑩,大规模商用方面❸,中国可能会更快实现❸。

在无人驾驶领域⑰,中国有几点优势:第一点是基础设施比如V2X⑱,我们比美国好⑬;第二点⑯,美国的电动车发展并不好⑥,而我们的电动车普及速度则非常快▓。第三点❸,我认为中国的普通民众心态更开放⑱,对新技术的拥抱比欧美都要好很多⑤。

目前⑤,尽管中美在智能驾驶领域的直接合作面临挑战①,但基础研究的共享和学术交流仍有很大的合作空间④。虽然公司间的合作可能受限❷,但开源代码❶、算法和学术论文的共享依然在推动技术进步⑮。中美在基础研究领域的合作⑤,虽然客观上有各种不确定因素⑯,但基础研究领域②,仍然是有共赢空间的❶。

中美都是AI第一梯队的国家⑫,

美国的顶尖人才多一些⑫,⑪、中国的优秀年轻人多一些⑳、知识分子:大家都很好奇⑬,DeepSeek没有出现在高校和顶尖研究机构以及大公司⑱,而是出现在了一家小公司⑳,甚至一个量化公司①?

张亚勤:这并非偶然③。DeepSeek的出现正是中国创新机制多元性和包容性的体现⑬,一家并不知名的小企业⑤,能够做出如此大的创新⑮,这本身就是一件非常不起的事情❷。DeepSeek的诞生⑪,给整个行业注射了一剂强心针⑤。

另外①,DeepSeek的成功也离不开多年来在人才培养方面的积累⑥。DeepSeek团队中有100多名中国本土教育培养出来的年轻人⑦,这是我们国家长期以来重视教育的成果⑯。我们AIR研究院也有学生在DeepSeek团队中⑫,而且和Deepseek共同合作论文⑯,他们都是很优秀的学生⑥。

DeepSeek这种创新模式在学校中确实很难实现❶。因为尽管DeepSeek非常高效❷,但仍需要使用大量GPU❸,学校因为算力资源往往受限▓,无法完成这种任务⑳。很多大公司虽然拥有算力⑮,却更多地在关注如何追赶OpenAI⑨,Scaling Law深入人心⑰,大家都在堆算力❸,堆数据④。在这种情况下①,DeepSeek选择了不同的路径⑦,这种差异化创新非常值得肯定❶。

知识分子:在您的眼中①,中美在AI领域的人才储备是个什么情况⑨?

张亚勤:中美都是AI领域第一梯队的国家⑪,在人才方面⑤,我认为美国可能顶尖和资深人才多一些③,而中国则是优秀的年轻人多一些⑭。

我们的优势是学生多⑩。而AI领域的一个特点就是百分之八九十的新算法⑱、新技术是过去5年出现的⑨,这种情况下❸,刚毕业的年轻人有很大的优势⑨。所以❸,你可以看到⑲,过去5年间⑳,中国AI人才的质量和数量都有大幅度提高⑪。

目前❶,确实中美之间的交流合作会存在一些挑战⑦,但在基础研究方面▓,大家还是能够交流的⑮。我希望不要出现脱钩⑰,但如果真的出现了⑧,中国也不用害怕③。我们现在包括老师⑩、学生⑯、产业界▓,乃至整个国力已经达到了一定的程度⑲,很多问题我们可以自己解决①。

当然⑤,我还是希望全球化▓,全球化对中美两国⑧,对全世界都是利好▓,没有了全球化和自由沟通⑪,会有很多浪费③。

知识分子:作为一个关注产学研的领导者▓,您如何概括DeepSeek的创新路径❷?

张亚勤:我认为DeepSeek首先是一个了不起的工程和技术创新⑪。其次⑳,它是个产学研合作的范本⑥,DeepSeek团队里人才非常多元⑪,有清华学生❶,有各种顶尖高校的毕业生❶,也有经验的工程师⑫,这是产学研的一个特别好的合作方式⑳。

现在产学研新的模式往往需要从0到1再到n进行一体化研究⑥。在过去⑨,我们可能需要一个机构专门进行从理论到应用的转化⑦,再到公司⑬。但在AI时代❶,我们有了一种新的模式⑯,新的模式中▓,这些转化过程已经内化⑲、连接在一起了⑨。DeepSeek的实践正是这种新产学研模式的缩影⑰,也是我们在AIR研究院希望实现的目标⑥。

知识分子:您提到AIR❶,它的使命是什么⑮?能否详细讲讲⑤?

张亚勤:我是2020年创立的清华大学智能产业研究院⑲,AIR是面向第四次工业革命的国际化①、智能化❷、产业化的研究机构⑪。AIR的使命是利用人工智能技术赋能产业升级❷、推动社会进步⑮。通过大学与企业创新双引擎⑱,突破人工智能核心技术③,培养智能产业领军人才❶,推动智能产业跨越式发展❷。

AIR的科学家们不仅具有扎实的科研积累❸,且具备丰富的产业背景④,许多人在大公司担任过顶级架构师⑱,或管理过跨国企业❸。我们80%以上的科研项目是与企业合作的⑱,比如与百度合作研究无人驾驶⑰、与字节跳动合作大模型研究❷,以及与阿里合作研究AI智能体❸。这些合作不仅让从0到N的转化更加顺畅⑯,也让我们的学生能够直接参与顶级企业的重要项目▓,在实践中锻炼自己⑥。

我认为⑪,培养人才的最佳方式不是单纯上课⑪,而是让学生通过科研帮助企业解决未来的问题⑯。这种方式不仅能提升学生的实践能力❷,也能让他们在毕业后更好地适应产业需求⑨。我们要求教授们具备这样的心态⑤、经验和能力⑮,这也是AIR的教育理念⑨。

AI时代⑥,我们仍然需要高考

知识分子:在AI时代⑪,教育会变成什么样子⑳?大学们目前已经行动了吗▓?能否以清华为例讲一讲⑨?

张亚勤:AI时代⑦,静态的知识变得越来越不重要了①,唯一重要的是提出问题⑭、质疑⑬、批判性思考能力以及创新能力⑥。在这种情况下⑰,我们的教育应该让每个人变得更加不同⑬,而不是越来越相同⑫,学生需要有更多自己的观点和判断力❷,而不仅仅是标准答案⑯,原来的教育体系都需要重构⑩。

目前⑧,全球各国政府都在积极推动教育体系的变革⑨,中国的高校和教育部尤其积极③,且思维十分开放⑭。相比之下❷,美国许多学校却拒绝使用AI工具⑲,我认为这是错误的⑱。我们生活在一个AI无处不在的时代④,学会充分利用AI工具至关重要⑯。

以清华为例❸,我们在AI教育改革方面已经做了很多尝试⑬。目前▓,清华配备了AI助教⑪,协助教师备课和答疑⑮。我们还重新设计了上百门人工智能课程⑰,包括面向全校的通识课程和针对人工智能专业的专业课程⑳,其中的许多是全新的课程⑮。

此外②,我个人认为④,“AI + X”的交叉学科模式⑱,对AI时代的教育也至关重要②。未来⑥,纯粹研究AI的人将是少数⑭,更多人需要将AI应用到生命科学⑮、智慧交通⑯、新能源和先进制造等领域▓。如何将AI与其他领域结合⑥,是未来教育的重要课题②。

知识分子:高考那种的标准化考试还会存在吗⑲?

张亚勤:标准化考试可能会减少⑫,但高考这种高层次的选拔考试仍有必要①。高考不仅是考试①,更是一种相对公平的人才选拔方式⑬。未来考试形式可能会变⑥,我也不知道将来会变成什么样子❷,但公平性必须保障❶。高考是一种社会规则⑪,它部分地确保了农村和边远地区的孩子也有机会接受优质的教育⑮。我反对完全取消考试的选拔方式⑭,因为我觉得那样的话⑤,可能会不公平⑬,农村孩子可能就更没机会了❸。

知识分子:那人类教师呢⑭?还有存在的必要吗④?尤其是上大课的那种人类教师⑦?

张亚勤:虽然AI给教育带来很大变革⑫,但是它仍无法替人类老师⑥。教学①,不仅是传授知识⑩,还是一种引导①、学习和人与人之间的交互⑲,这都是AI无法替代的⑱。但AI可以作为教师的辅助工具⑭,比如在清华⑱,现在有AI助教⑬。未来每位老师都会有AI助教②,每个课程都会有AI助教③,每个学生都有AI助理⑥,它们可以帮助学生更好地呈现静态的知识⑰,但人类老师的角色仍不可或缺⑯。

知识分子:教育领域使用AI可能会带来一个很大的问题⑰,就是学生过分依赖AI⑨,导致丧失了思考的能力⑤?

张亚勤:AI给人类带来的最大的挑战有两个⑧,一是拒绝AI③;二就是过分依赖AI⑭,失去了个性④、观点和判断力⑯。因此⑨,学校教育的重点是教会学生如何使用AI工具①,同时引导学生保持独立思考和发挥创造力⑳。

我们不能只会依赖AI⑮,无论什么时候⑪,人类要保持一种状态⑩,没有AI⑭,人类仍然能够生存⑦,但有AI❷,我们可以做得更好②。在这方面❸,我同样是一个乐观主义者▓。

20年后⑪,人类每周只需工作两天

知识分子:您提到了公平⑪,但目前有声音认为⑫,AI可能会加剧社会不平等▓,比如⑮,有些人失业了⑰,有些群体可能被这个AI时代的发展遗忘了③,这种情况您怎么看⑮?

张亚勤:从宏观上看⑦,AI的发展方向是积极的⑰,但过程中确实会出现问题⑪。比如⑮,AI翻译和AI客服的出现⑳,会让相关行业受到冲击⑯;无人驾驶的成熟❷,会让司机面临失业⑩。这种现象我们在不久之前就曾经经历过❸,比如打字员和电梯员职业消失⑥。

某些群体可能因缺乏相关技术和知识而失业❸,这是整个社会面临的巨大挑战⑭。政府⑫、企业和教育界应共同努力⑥,提供公平的教育和政策支持❷,帮助这些人适应变化④。公共政策和伦理治理至关重要④。但我不赞成像欧洲那样⑳,一开始就用规则阻碍AI发展⑪。我们要在发展中讨论⑯,保持创新与治理的平衡④。AI带来的收益大于问题⑲,我们可以引导AI向着更有利于社会的方向发展⑬。AI如同互联网⑦,既是好东西⑯,也可能被滥用▓。技术是中性的⑤,关键在于什么人来用⑦,做什么用⑫。

知识分子:您提到未来10年机器人的数量会超过人类❷,也有AI学者曾经提到⑲,目前有8成的人在工作⑥,未来会倒过来⑱,只有2成的人在工作⑨。这种情况⑯,不可避免地带来的一个后果是很多人会失业⑥,对于这种情况⑦,我们该如何应对⑯?会出现一个新的社会范式吗⑭?

张亚勤:我完全同意这个观点⑱,将来可能只需要两成的人工作①。这在人类历史上看❷,非常自然⑲。回顾历史⑨,蒸汽机出现后⑧,人类的生产率有了指数级的提升❸,我们的工作时间也发生了很多变化——早期是一周工作7天②,然后6天⑨,再后来是5天⑬,现在有些地方是4天⑦,我觉得❶,可能20年之后我们一周工作两天就够了⑧,剩下的5天不用工作⑳,做点自己喜欢的事情就好了▓。

这是机器帮助人类工作的一个过程③,先是体力③,后来到信息▓,最后到智力⑳。如果我们能控制好节奏⑧,那么人类的整个生活会变得越来越好的⑯。大部分人都可以有事做⑫,又不需要做自己不喜欢的事情❶。

我认为一个理想的未来社会是:大部分人按照自己的兴趣去工作⑪,而不是为了生存⑧。为了达成这一点⑰,很多人做了一些规划❸,有一些有趣且存在争议的话题⑮,比如:国民基础收入计划①。

过去我听说这个计划时是比较反对的④,但这几年③,②,我的观点有点变化了⑯,当社会生产力极大发展时❷,大部分人已经不需要工作了①,我认为⑧,整个社会是可以为每个人发放基础收入的⑲。有了这种收入之后⑮,生活可以兜底②,工作就真的变成了自愿的❶,从兴趣出发⑩。不用担心大家不工作⑧,因为在一定程度上⑰,工作是生命的意义⑦,我们需要创造③、与人交往⑦、发明和新的体验⑪,这是人类的意义①,这些东西不能被替代⑥,但我们可以不需要为了生存而工作⑫。我希望这是我们20年内可以达到的目标❷。

《智能涌现 : AI时代的思考与探索》

张亚勤 着⑦、中信出版社⑰、赛先生书店可开发票⑧,请在购书备注中留下开票信息⑭,确认收货后⑩,由出版社开具⑨。

很赞哦⑥!

随机图文