▲2024年图灵奖得主萨顿教授发表主题演讲,深入剖析人工智能的运行机制与政治属性,并阐释这项技术在未来世界格局中的关键地位。
目前最先进的大语言模型 (Large Language Models) 有哪些无法做到、而婴儿却能轻易完成的事?著名人工智能专家萨顿 (Richard Sutton) 教授用一段视频给出了答案:画面中的婴儿在游戏区兴奋爬行,不时摆弄玩具——证明人类具备通过经验生成新知识的能力。而像 ChatGPT 这类基于人类文本与图像训练的 AI 系统,至今仍不具备这种能力。
加拿大阿尔伯塔大学计算机科学教授萨顿指出,若要称得上真正的智能,AI 需要获取动态的体验式数据源,而非静态数据集。“所谓经验,就是通过与世界互动获得的数据——这正是人类和动物共同的学习方式。”他解释道。但机器学习的边界究竟在哪里?人类终将失去对 AI 的控制吗?
在2025年6月6日举行的新加坡国立大学120周年杰出学者系列讲座 (NUS120 Distinguished Speaker Series) 上,萨顿教授解答了这些问题。该系列讲座是新国大庆祝建校120周年的重要活动之一。继 Yoshua Bengio 教授和杨立昆 (Yann LeCun) 教授的两场 AI 主题讲座之后,萨顿教授的讲座吸引了近600名现场听众,YouTube 直播观看人数更突破4,000人。
从模拟到现实交互
图灵奖以“计算机科学之父”艾伦·图灵 (Alan Turing) 命名,素有“计算机界诺贝尔奖”之称。荣获2024年图灵奖的萨顿教授指出,机器通过经验学习这一理念最早由图灵本人在1947年首次关于 AI 的公开演讲中提出。
此后,这一领域取得了长足进展。例如,2016年,计算机程序 AlphaGo 击败了围棋世界冠军;2024年,AlphaProof 在国际数学奥林匹克竞赛中达到了银牌水准。
机器学习的早期阶段主要围绕模拟经验,但如今越来越多的程序通过直接与现实世界进行直接交互来学习。这正是强化学习领域的核心特征——萨顿教授早在上世纪80年代就已成为该领域的先驱。
简而言之,在强化学习中,计算机程序不会被告知具体执行哪些动作,而是被赋予特定的奖励目标。程序必须通过不断试错来发现哪些动作能带来最大回报,从而实现经验式学习。
新加坡国立大学校长陈永财 (Tan Eng Chye) 教授在开幕致辞中明确指出,强化学习“已发展成为构建智能系统最重要的方法之一”。他同时强调,新国大始终秉持强烈的社会责任感,致力于推动具有现实影响力的技术发展。
AI 发展是“纯粹的福音”
萨顿教授预言,在他称为“经验时代”的未来,与更高级的 AI 系统相比,大语言模型终将被视为“世界一时的执念”。
不过目前强化学习尚未展现全部潜力,因为现有算法大多仍无法实现持续学习和元学习——即他所说的“学会学习”。
他将 AI 发展比作马拉松,认为这类超级智能体的诞生需要数十年时间,若要实现自主设计和复制事物,所需的时间将更长。但他坚信最终将为世界带来“纯粹的福音”。“AI 是宇宙演进必然的下一步。”他断言。
讲座的问答环节由新加坡国立大学协理副校长(人工智能)刘谦雄 (Bryan Low) 副教授主持,他指出,出于安全考虑,有人主张以“闭门造车”的方式发展 AI,而非开放共享知识。对此萨顿教授承认,在 AI 管理的最佳方式上存在“相互抗衡的认知”。
▲在问答环节中,现场观众提出诸多发人深省的问题,涉及 AI 的未来应用场景与伦理准则、人类政治与 AI 政治的交互关系等前沿议题。
但他对 AI 的发展仍持乐观态度,并指出“诸多安全诉求实质上是变相的集权控制呼吁”。他警告称,从长远来看,这种管控将阻碍合作——而合作正是“世间一切美好事物的源泉”。
他进一步指出,集权管控的诉求源于恐惧心理,可能在原本能够和平共处、携手造福社会的各方之间制造危险隔阂。
在他看来,AI 领域的权力博弈与人类政治如出一辙。“我们必须警惕这些集权机构攫取过多权力并加以滥用,最终演变为专制统治,或给我们的生活带来僵化束缚。”他呼吁道,“我们理应抵制一切集权控制的论调。”
改变世界,而非改变 AI
萨顿教授主张采用去中心化的协作模式,将权力和决策权分散到各个层级。这正是他2023年参与创立的 Openmind 研究所 (Openmind Research Institute) 采用的运作模式——该机构致力于 AI 基础研究。他透露研究所总部很可能落户新加坡,但未给出具体时间表。
为消弭社会对 AI 日益增长的敌意,该机构所有研究成果都将免费公开。“没有任何国家能独占或控制这些研究成果。”萨顿教授表示。目前 Openmind 在加拿大设有一个研究实验室。
▲关于“AI 如何以最高效方式推动全球社会福祉”的深刻讨论,引发了在场听众的强烈共鸣。
当现场观众询问萨顿教授为何选择将 Openmind 总部设在新加坡时,他指出:知识的自由流动在许多领域都是常态,但 AI 领域却常以国家安全为由对其他国家实施信息封锁。
与某些要求 AI 研究机构签署保密协议、阻止特定国家接触其成果的国家不同,新加坡不存在此类限制。萨顿教授表示,这种环境更有利于开展自由开放的学术研究。
萨顿教授进一步强调,AI 的危险性并非技术之过,而是人类自身的问题。“我们不应改变 AI,而应改变它们所处的世界。”他解释道,“人类行为是对环境的反馈——若成长环境使合作变得非理性,人们自然拒绝协作。我期待构建一个让 AI 视合作为自然之事的世界。”
(来源:NUS新加坡国立大学微信公众号)