
公司情报专家《财经涂鸦》获悉,9 月 11 日,香港大学计算与数据科学学院院长马毅在 2025 Inclusion·外滩大会开幕主论坛上发表主题演讲。
他指出,当前人工智能虽技术蓬勃发展,却仍缺乏对智能本质的科学理解,因此,“必须将AI从依赖试错、不可解释的‘黑箱’系统,转变为基于数学原理与闭环反馈的‘白箱’模型,才能真正实现机器智能”。
“智能的核心在于‘自我验证与自我纠错’的能力,而当前的大模型仅是静态知识的存储库,因而才会出现基础逻辑混乱和‘幻觉’问题”。 马毅表示,“虽然拥有海量‘知识’,但它们并不具备真正的‘智能’。”
展望未来,他认为,必须将智能作为一个严谨的科学与数学课题来研究,聚焦于构建具备个体记忆与闭环自治能力的系统,在可解释的理论框架下推动机器智能向真正意义上的“自主智能”演进。
以下为马毅演讲全文(根据表述需求有所删减):
大家好!
过去十几年人工智能的发展,令人变得既“兴奋”又非常“焦虑”——作为计算学院院长,我在香港大学今年招生时,收到了无穷多的家长的电话:马老师,到底我的小孩该学什么专业?五年毕业以后、四年毕业以后,是不是工作还在?
中国的哲学讲,大道至简。很可能这些千变万化的技术背后,只是一个非常简单、统一的机制在起作用。所以,遵循第一性原理,先搞清楚目的,其它的无非就是手段而已。
世界上有两件事情最值得学习,一个是宇宙怎么来的?这是物理研究的问题;一个是生命怎么来的?这是智能要研究的问题。
大家现在都在谈大模型/Scaling Laws,实际上我们的DNA就是自然界最早的大模型。它学到了外部世界所有值得传承的知识,通过DNA编码传承记忆下去。它的迭代的方式,今年的图灵奖有一个有趣的名字,叫作Reinforcement Learning。
所以,自然界早就在做这个事情,已经做了几十亿年。从这个角度看,现在智能发展的阶段,就是生命发展的最早期。
但是,5亿年前发生一件了不起的事情,每个个体开始出现了大脑、神经系统,出现了视觉。之后很快就出现了寒武纪/生命大爆发。此前,DNA个体是没有智能的。一旦个体的智能、感知和记忆出现,Learn from your feedback,Learn from your errors,将会大大提高每个个体的适应性。
而且,智能发展是一直在摆脱这种大模型的进化。第一个阶段,是我们出生之后会逐渐想摆脱DNA,去学更多外部世界的知识;第二个阶段,是人发明了语言和文字,将文明一代代传承下去,用文字取代了DNA的作用。
再往后,3000年前我们发明了数学和逻辑,开始对科学知识进行编码,导致了科学的发展。这才是artificial intelligence所包含的真正意义。
现在很多人认为人工智能源于1956年,这是完全错误的观念,真正的起源是1940年代,一个叫Norbert Wiener的MIT教授,提出来Cybernetics,可以简要翻译成控制论。他研究的是动物是怎么学习,如何用机器实现动物层面的智能。那个时代所有跟智能相关的人都是受他的影响,比如信息论的奠基人香农、对策论的奠基人冯·诺依曼。
不过,现在出现了一个非常时髦的词,具身智能。大家知道,刚开始人对神经元理解之后,就急着去Networks,并声称可以建模型了,机器可以自己思考了,有自己的意识了,可以干所有的活了,所有工作我们都不用做了。
50年代时,这种牛就已经吹过了。当然,是以失败告终。但还是有很多人坚持,2012年,数据和算力让神经网络的实现变成可能。后面发生的事情,跟生命早期发生的事情一模一样,大浪淘沙。
为什么我们一定要把它搞清楚呢?因为任何事情一旦是黑盒子,就会变成历史的教训。我们不理解天体运动时,就会出现封建迷信。科学就是要把它们解释清楚,告诉大家它的原因、它的机理是什么。
为什么要学习?什么是值得学习的?智能都是在看似无序的世界中找到规律,把它有用的知识形成记忆,记下来。所有可预测的信息都是我们观测的高维数据,如果它是有可预测的信息,它的内在结构都是低维的。牛顿第一定律说,当一个物体不受外力的时候,它会在一条直线上运动,不会在三维空间中任何一个维度出现。
所有的物理定律都是以等式的形式出现,为什么?多一个等式对于外部世界的解空间降一维,多一个等次降一维。最新的理论告诉大家,从黑洞爆炸开始,所有的物理规律,整个宇宙世界是在一个十维的空间,它不是一个无穷维。数学上,大家都讲神经网络是一个inductor,实际上第一性原理就是你只需要一个最简单的assumption。
我可以告诉大家,推导出过去十年所做的所有事情,只需要一个假设,你的数据、值得学习的数据,它的数学结构是低维的,这是我们需要的唯一假设,所有的东西可以通过严格的数学手段和逻辑推导出来。
人类花了八十年,从不可计算到可计算,从不tractable到tractable, 从tractable到scalable, 才导致了今天人工智能的技术。但即使用了人工智能技术,到了scalable,效率离nature至少还差十个数量级——此刻可能是又该向自然界学习的时候了,不要还那么自以为是,我们还处在生命发展的极早期,刚刚开始,甚至还没有开始。
Jeff Hinton 2022年已经承认了,自然界不做back propagation,太贵了,没法做,只有埃隆马斯克可以玩得起,我们玩不起。但是自然界有另外的一条路通向罗马,就是similarities,反馈控制,连续学习的机理。
我们的大脑是几十万个闭环系统联结在一起的并行分布的事情,我们对实现这样的技术还根本没有开始。用General purpose的计算机、CPU、GPU去实现智能真正所需要的计算,是一条极其极其绕的弯路。大家想找的近路,自然界早就找到了。
最后,再给大家讲一下,大家对智能的理解有非常多的误区,认为一个系统有知识就是有智能。实际上是不对的——
GPT有知识,它没有智能,它就跟早期的DNA一样;新生儿有智能,不一定有很多知识,但却有机会成为下一个爱因斯坦。能够对人类知识有自己学习的能力,甚至纠正人类所有知识里面的缺陷,这才是智能的本质。
大家都在谈,过去是人工智能的时代,实际上不是。我们过去十年所做的事情,还仅仅局限在40年代实现动物层面的,即感知、记忆、生成、预测这一层的机理,离真正的1956年人工智能的Program,还没有开始。严格来讲,所有的模型,包括GPT5,连基本的自然数的概念都没有。
现在大家都在很笼统的讲,什么图灵测试都超过人了。那计算器做加减乘除早就超过人了。所以,该怎么科学的界定一个系统它的智能的能力?
这件事情我们要认真的去反思。图灵测试,到底一个系统它完成一个任务是基于记忆还是真正的理解了知识?现在经常有人说,大模型可以取代科学家、Poster、PHD了,真的吗?它们有没有科学家所具备的这种能力,现在必须界定清楚,而不能笼统的讨论,那不济于事。
这是我们最近完全开源的一本书,中文、英文AI翻译的,内容是关于学习,建立智能的数学原理,以及深度学习。完全把黑盒子打开成白盒,现在成为一个开源的项目,跟王坚总讲的很像,大家可以去试一试。
所以,有没有可能把智能作为一个科学的问题、数学的问题,界定清楚,变成白盒子,连高中生大家都能知道它在做什么,这是过去很多团队一起在做的事情。
大家想通过一个talk就了解一个智能,这是完全异想天开,其中必须要有严格的、科学的、数学的证据链,以及实验的证据链。这是我们过去十年认真在做的一件事情,也是学术界、科学界必须做的事情。我们必须当成一个真正的工程来完成,这是我希望大家了解的。
谢谢大家!
作者:苏打
编辑:tuya
出品:财经涂鸦(ID:caijingtuya)
免责声明:所有平台仅提供服务对接功能,资讯信息、数据资料来源于第三方,其中发布的文章、视频、数据仅代表内容发布者个人的观点,并不代表泡财经平台的观点,不构成任何投资建议,仅供参考,用户需独立做出投资决策,自行承担因信赖或使用第三方信息而导致的任何损失。投资有风险,入市需谨慎。
请先登录后发表评论