吴思:打开人工智能的“智慧之门”

图片来源@视觉中国

文 | 追问NextQuestion

吴思前段时间开网课开出了演唱会的感觉——刚开放报名,400个名额就被抢空了。

“其实这门《神经计算建模实战》课非常学术前沿。”他掩盖不住兴奋,冲出镜头去身后的书架上取了一本深蓝色封皮的教材书。封面上依稀写着:“让天下没有难建的神经计算模型。”

“考虑到很多人在第一期没有报上名,为了让更多的人有机会学习这门课,接下来我会筹办第二期、甚至第三期。”他补充道。

用数学和计算的方法给大脑建模,是一个充满挑战但也极具魅力的思路 ,其中最著名的故事之一,当属受到大脑真实神经元网络启发的深度学习网络了。

不过,吴思不会被外界的鼓吹给轻易蒙骗。他认为,AI只是计算神经科学的一个副产品。它是一条路径,却不是终点。在他看来,还有远比AI更重要、更根本的问题尚未解决——理解生命的本质、意识思维的本质。

这份冷静认知的背后,源于他自1995年物理学博士毕业后转向AI研究,见证过的潮起潮落、寒暑交替。吴思深知,智能的基本原理仍有待挖掘,在抽象概念、记忆、情感等领域有诸多缺失。而大脑是宇宙中一个鲜活的智能样本,用数学模型诠释大脑的工作原理,将为AI的发展奠定基础。

“研究清楚大脑表征的机制之后,构建出的智能系统才会更像真正的人类。未来的人工神经网络的发展应该考虑引入这一套东西。”

比起一味追赶Geoffrey Hinton等“教父级人物”掀起的当前AI热潮,吴思更希望新一代科研人员能学习他们在无人问津的寒冬中默默耕耘、契而不舍的精神。

“大脑就是这样的网络,没有理由不工作。”他经常用Hinton 的这句话鼓励年轻人。

以下为追问对话中吴思教授的讲述。为便于阅读,我们对文字进行了精简。

按照《追问》的惯例,请介绍一下您的研究领域。

吴思:我的研究领域是计算神经科学和类脑计算,关注的方向是用数学方法来阐明大脑信息加工的基本原理,并在此基础上发展一些人工智能的算法和模型。

您本是物理学出身,最终却成为了一名神经科学家。结合您的自身经历,请问量化学科是如何与神经科学发生交融的?如今越来越多计算机或数学背景的学者开始进入这个交叉领域,这对于神经科学的发展是一种必然趋势吗?

吴思:这是必然的趋势。我们时常将神经科学与物理学进行比较。早期的物理学以实验和观测为主,到了后期,出现了理论物理学,代表人物如牛顿和爱因斯坦等。

神经科学也有着类似的发展历程。早期,研究者主要依赖数据和实验观测去理解大脑,而后他们也像研究物理一样,试图用量化的方法归纳出大脑工作的基本原理。这样的研究方式会让我们对脑科学有更深刻的认识。

您是从何时开始对神经科学领域产生兴趣的?

吴思:兴趣总是自然而然发展而成的。在我们那个年代,有这么一句话:学好数理化,走遍天下都不怕。物理学可以说是上个世纪最重要的学科。在硕士和博士阶段,我逐渐意识到物理学的发展已经趋于成熟,剩余有待开拓的理论方向已相对有限,所以我想进入一个新的且自己更感兴趣的领域。于是,我首先进入了人工智能领域,人工智能在当时仍处于发展的寒冬,因此我就思考能否从大脑的功能中获取一些灵感来发展人工智能。因此,我就很自然地转到了脑科学的方向上。

也许大家会觉得(从物理学转向神经科学的跨界之大)令人惊讶, 其实这是非常自然的。物理学利用数学方法研究大自然规律,而计算神经科学是用数学方法研究大脑的工作规律,从方法论上看其实换汤不换药。在计算神经科学领域的研究者中,早期有2/3的人都是学物理的,也许他们转变研究方向的考虑也与我类似。

人工智能的寒冬大概是从什么样子的?

吴思:1995年我获得了博士学位,在硕博研究生期间我学习了理论物理和广义相对论。在学习过程中,一些偶然的机会让我接触到了关于人工智能的书,与物理相比,我感到人工智能太有意思了。由此我开始转做人工智能。那时正是人工智能的寒冬,大家都难以理解那个寒冬到底有多寒冷。在那个时候,如果我要说我是做人工智能的,大家会以为我是“骗子”。所以那时候我的简历里从不会出现“人工智能”。

之所以出现寒冬主要是由于那个时代缺少大数据和算力,不像今时,人工智能在那时还无法产出一些亮眼的东西,整个社会对人工智能的发展是缺乏信任的,认为没有什么前途。

但我自己对智能是感兴趣的,也不会因人工智能的寒冬对人工智能本身失去兴趣。很自然地,我联想到大脑就是宇宙中的一个鲜活的智能样本,通过学习大脑,然后再做人工智能,不就是一个很自然的想法吗?大概在2000年,我在日本理化学研究所的时候,就开始有意识地从人工智能转到计算神经科学,目的是研究清楚大脑是如何产生智能的,为我之后在人工智能方向上的研究奠定基础。

那个时候卷积神经网络已经存在了吗?

吴思:是的 。在上个世纪八十年代,卷积神经网络最早的版本是由日本科学家Kunihiko Fukushima提出的Neocognitron(新认知机)1。同一时间, Yann LeCun已经在研究卷积神经网络,但当时他在整个科学界很不受待见。他的研究成果没人买账,论文也发不出来。因此,我很佩服诸如Geoffrey Hinton和Yann LeCun这些人工智能科学家,他们用超强的毅力在这条艰难道路上坚持了下来。

注:Yann LeCun(以下简称“LeCun”)——图灵奖得主、纽约大学终身教授、纽约大学数据科学中心的创始人、Facebook人工智能研究院首席科学家。

注:Geoffrey Everest Hinton(以下简称“Hinton”)——人工智能教父、加拿大认知心理学家和计算机科学家

那时您与他们有过学术层面的接触吗?

吴思:那时并不是属于他们的高光时代,那时的他们还不是学术巨星。在一些学术会议上我碰见他们,他们都是默默无闻的。那时最耀眼的是做SVM(support vector machine, 支持向量机)的研究者,如Bernhard Scholkopf 和 Alex Smona等青年才俊,彼时的SVM有点像是现在的深度学习网络,在当时在整个应用层面将人工神经网络击败了。因此,那个时候的学术明星是那些做支持向量机的研究者们。

人工智能未来的发展是趋于独立,还是会越来越像人类智能?

吴思:AI是个大的领域,卷积神经网络、深度学习网络和如今新的Transformer模型仅代表了AI的一种发展途径。例如卷积神经网络在早期受到脑的启发,然后慢慢脱离脑开始走向工程应用。我们在做工程应用时,总是以性能(performance)为指导,并不会因为这些应用没有遵循大脑的机理就不去使用它。

所以实现AI应用的一条路径,就如同现在的卷积神经网络、深度学习网络或 GPT,它们都是从原来的人工神经网络慢慢脱离生物,更强调以工作性能(工作得好不好)为原则。

但并不能说这些就代表了人工智能的全部。如果从人工智能“发展人造的智能”的定义出发,AI还有另一条发展路径:学习大脑。目前以深度学习网络为代表的AI还无法实现很多人类高级认知功能,那么这条道路仍值得探索,这条路可能会更复杂,实现突破可能更晚一点,但不代表这条路就不存在了。

破解AI和大脑这两个黑盒,在方式上有何相同和不同之处? 

吴思:这个问题比较复杂,我会慢慢说,因为我对这个问题的认识也在不断的变化。

人工神经网络的训练模式决定了它是一个黑盒:比如输入端为大数据,设定输出端是物体的标签,随后使用一个反传算法去优化中间的参数,训练好后的网络就可以工作了。但大家并不清楚为什么会这么工作(中间到底发生了什么),所以说它是个黑盒的概念。由此,人们提出了可解释性AI,一些具有数学或计算机背景的科学家会试图用数学工具去破解这个黑盒。

反观人类大脑,也是一个黑盒。计算神经科学家们不就是在研究大脑是怎么工作的吗?所以说,我们也在破解我们(大脑)的黑盒。那么这个黑盒是怎么破解的?一种做法是通过动物实验。神经科学家发展了多种多样的模式动物,比如线虫、果蝇、斑马鱼、老鼠和猴子等。我们之所以研究它,是想从中得到一些人脑的工作机理。这些实验动物各有优缺点,以斑马鱼为例,它是透明的,因此它的神经活动可以看得比较清楚。实验神经科学家会通过各种各样的实验,比如若想搞清楚生物视觉系统是怎么工作的,就会给它(实验动物)一些视觉刺激,然后记录对应脑区的神经元活动,根据刺激和神经元活动的数据来反推信息编码的原则是什么(或者神经活动包含了哪些刺激信息)。这更像是一种以数据驱动的研究方法,通过实验观察神经元的活动,试图了解它的原理,来打开黑盒子。

我觉得,AI和计算神经科学或神经生物学之间存在一种互补关系。比方说,从神经生物学的研究中,我们理解了大脑的视觉系统原来是这么工作的,那么这些发现是否提示 ,经训练的人工神经网络也拥有类似的工作原理?有些科学家利用多层卷积网络来模仿视觉系统,通过有监督的分类任务训练好后,发现其神经元活动已经接近于我们视觉系统中的神经元行为,由此可以推断,从优化的角度要完成多物体的识别,也许就需要生成一个共同的representation(表征),这不论是在生物大脑还是人工神经网络都是适用的。这,就是一种相互借鉴的研究方法。

以上所介绍的是比较传统的观点。刚才提到,我对这个问题的认识是在不断变化的,特别是在ChatGPT问世之后,大家也不是很清楚它是怎么工作的,但它却表现出了这么高的能力。这也促使我思考,我们一味的追求什么都可解释——所谓彻底打开这个黑盒子——是否是一个不切实际的想法?因为大脑就是一个超级复杂的系统, 就像ChatGPT一样,在有了一个输入之后,它就按照一种规律,生成出一些句子或者一些话,然后你仿佛觉得它好像有智能了,对吧?

我们试图打开黑盒,要去解释它为什么能够产生这种行为的目标,是我们人类的想法。至于我们能否实现或者能否彻底实现,其实是不一定的,即不一定存在这种可解释性,或者说如果我们真要追求可解释性,也许要发展很多新的数学工具,在某些概念上有新的重大突破,才能有一天把一个这么复杂的系统给搞清楚。在这方面其实我也没想清楚,因为我自己的认识也在不断的更新。AI的最新发展对我的很多观点也造成了冲击,我要重新思考一些过去自以为是天经地义的事情,现在我发现这些(看似自然的)事情也不是那么回事了。

有些学者认为,ChatGPT可能是一个由量变引起质变的产物。同理,如果我们能绘制足够精细的大脑图谱,去收集足够多的数据,是否也能涌现出一个比以往AI更强大的智能。您对此怎么看?

吴思:我觉得不是那么回事。将什么都归类为涌现,这是一种回避问题的做法。不能因为描述不了一种现象,就用一个简单的涌现来解释。但可以肯定的是,系统需要足够复杂才会产生一些涌现行为。至于它产生的原因,我们其实还缺乏很好的数学工具或概念去描述它,所以导致了今天的困境:很多东西解释不了。随着科学的逐步发展,我们发明了这样一个超级复杂的系统,但它也许尚不能够用现在已有的简单数学工具来描述。这就需要我们发展一些新的数学工具,或者新的理解方式,这可能才是问题的关键。

中国古人观察到天体运动是特别复杂的,但古人没有试图用一个共同的法则去解释它,而是想象出一个住着玉皇大帝的天宫的复杂神话故事。但是牛顿意识到,也许天上的天体运动和我们地上的物体共享一个特别简单的法则,这就是他在概念和思想上的突破。他沿着这个路子就提出和发展出了“万有引力”的概念。

为了描述力的概念,他发展了一个经典的数学工具:微积分。在那个时代,如果牛顿直接告诉我们“力”的概念而没有去预测(解释)什么东西(现象),大家会觉得他是在胡扯,没人相信他。而他不仅发展了这么一个理论框架,并能够解释很多东西,大家就会觉得牛顿说的是对的。这个时候(被牛顿理论说服的)我们就开始强迫自己去学力的概念和微积分。最后我们就慢慢接受,并觉得这样的解释是理所当然的。我认为对生物智能和超级复杂的AI系统的理解,可能需要一些思想观念上的突破。

今年,您与几位学者共同发表了“AI of Brain and Cognitive Sciences: From the Perspective of First Principles”2,文中提出了大脑与认知科学之于人工智能的六大首要原则。您为什么觉得它们是首要的原则?  

吴思:首先这六个原则不是我一个人提出来的。在北京有个智源研究院,这篇文章是AI认知神经基础方向的智源学者们指导博士后共同撰写的。我负责的是其中的“吸引子网络”章节,因为吸引子网络是我自己长期研究的方向。我想谈一谈为什么说吸引子网络是一个基本法则,这也是目前的AI框架中所忽略的一点。

大脑是由大量神经元连接所组成的,是目前已知的宇宙中最复杂的动力学系统。我们所有的感知和行为都是因为我们受到了外界刺激,或者大脑内部产生了某种活动,促使我们的动力学系统(即大脑)进行演化,从而产生行为。所谓的动力学系统演化就像神经元相互作用所引起网络动态的变化。有这样一种状态,所有邻近状态都汇聚于它,那么这个状态就被称为吸引子。吸引子对应者网络能量空间中的局部最小值,所有邻近状态的能量都高于它,所以才会被“吸引”到这里。

我认为大脑是一个超级复杂的动力学系统,它在时空域做信息加工,这一点和目前的人工神经网络在计算上有着本质的不同。如果真要做一种类脑的智能系统,吸引子网络是逃不掉的。我在那篇文章里抛出了吸引子网络的重要性,认为它是大脑做计算的一个基本法则。目前越来越多的神经科学实验证明了吸引子网络在大脑中存在。

吸引子网络理论对AI的发展有何启示?

吴思:在AI中,吸引子网络可能会帮助解决“抽象概念”的问题。我们知道,大脑有抽象概念的能力,小时候我们可能会学习具象的知识,但一旦进入读书阶段,课堂上学习的基本上全是抽象概念了,比如说数学。所以说,抽象概念的表征是一个核心。现在的AI是数据驱动的,其实还有一块是知识驱动,我们需要一种像人一样通过抽象概念进行学习的AI,才能加快知识的获取。

另外,吸引子网络形成了大脑中的一种高效记忆系统。比如,这是我们第一次在线上见面,也许下一次我们在线下时你可能一眼就认出我来。从线上到线下,我的形象、头发或者衣服都可能会发生很大的变化,但你还能认出我来,这是因为你会把我长相中的一些抽象概念和表征给提取出来,与我的声音、名字全部联系在一起,在你的大脑中可能就形成了“吴思”的概念,这个概念由神经元活动表征。如果研究清楚大脑表征抽象概念(还有别的,比如情感)的机制之后,构建出的智能系统才会更像真正的人类。所以在未来的人工神经网络的发展中,应该考虑引入这一套东西(吸引子网络)。

不算实验的话,我所知道的目前用理论构造模型去表达抽象概念的工作还没有做出成果来,但可能有人在尝试了,我们课题组也在尝试这个研究方向。

您能解释一下“吸引子网络”吗?

吴思:可以想象一下,我们大脑实际上是由很多神经元连接而成的超级复杂网络。当大脑收到一个输入之后,网络的状态就会发生变化,这个变化实际上就相当于人脑在做计算或者在进行记忆搜索。比如在一个有关噪声的探究中,吸引子就代表了去噪之后的一个稳定状态。举个例子,比方说我知道了你的名字,也听到了你的声音,那么我下次看到你大概率还能够认出你(但也可能认不出,因为现在我年龄大了容易忘事)。一旦你被我的大脑记住了,我的脑中就会存在一种可识别出你的神经网络稳定状态。只要有一个输入触发,就能够重新演化到这个稳态,这意味着我的记忆恢复了,然后我就能够识别出你。也就是说,下次我看到你的图像,大脑中的网络就会演化出对应着你的概念的状态。因此,大脑的记忆计算系统与电脑的记忆计算系统是不一样的。吸引子网络就是这么一套用数学框架来描述的网络。

当我们在做抉择时也会涉及吸引子网络,这实际上是汪小京老师所做的工作。比如,我们在两个状态之间做抉择的时候,这两个状态(选择)就相当于是两个吸引子。我们在做决策的时候,实际上是在收集证据(便于我们做出判断)。那么这个证据就会决定我最终落入哪个吸引子,最终做出抉择。

吸引子网络甚至可以用于解释我们对语言的理解。我们人类的基本语法结构实际上是先天就储存在大脑中的。它就好像是一系列的吸引子一样。当我在听你说话、或者我自己说话的时候,吸引子网络就会开始演化与展开,这样我就可以理解你在说什么话了。吸引子的概念是由物理学家提出的,因为我是物理背景,所以我自然的就接受而且喜欢这个概念,我也会用吸引子来描述我的一些科学工作。

除了抽象概念之外,您觉得目前的AI和我们的人类智能还有哪些本质差异?

吴思:我觉得大家经常在批评AI或者将AI与人做对比时,可能将“智能”与“智慧”这两个概念搞混了。智能是完成特定任务(比如学习、推理)的能力,是一个解决问题的能力。而我们人类拥有更高级的能力就是智慧,也就是加入了情感的社会认知能力。在特别复杂的生活场景中,不仅需要智能更需要智慧。举个简单的例子,如何解决全球变暖?一个最简单的解决方案是解决掉全人类,彻底切断源头。但是我们知道,这是最愚蠢的行为,在完成这种综合复杂任务时,我们需要考虑智慧,这个智慧包含了我们超出智能的能力,比如需要考虑全人类共同的利益。在这种特别复杂的场景中,需要的是综合各种因素,而不是完成简单具体任务的能力。从这个意义上说,AI离人类非常远,根本还谈不上有智慧。虽然如今的ChatGPT可以做一些推理,但无法实现人类在抽象概念上的操作,所以两者之间的距离还非常非常远。

还有一点也不可忽略,ChatGPT也好,现在最新的其它AI也好,它们能够完成的大部分工作实际上是我们大脑新皮层处理的事情,比如语言上的认知推理能力。但是我们生物体有一种亿万年进化的行为叫做本能行为,从某种意义上这对目前AI来说反而更难,这就是所谓的AI具身智能*。AlphaGo再厉害,还需要找个人拿放棋子,即使是拿棋子这个简单的动作,对机器人来说也是不容易的。但这对我们每个人来说轻而易举,这实际上是我们经过亿万年进化出的结果。至于我们是怎么获得这种多样的本能行为的(比如跑步、手眼协调),这个问题目前还没搞清楚,而研究清楚它可能会加速机器人领域的发展。这样的机器人再加入具有一定思考能力的大模型(如ChatGPT),才能造出真正服务于社会的机器人。否则它就是一个没胳膊没腿的、能做一些语言加工的机器。没有具身智能也谈不上智慧,其实还有很长远的路要走。

编者注:具身智能是一种人工智能领域的概念,通常称为“Embodied Intelligence”或“Embodied AI”。它指的是拥有自身物理体验或机器实体的智能系统。这些系统不仅具备智能的认知能力,还能够与环境互动并执行任务,类似于人类或其他生物体验世界的方式。

如今利用“图灵测试”来了解机器的智能已略显简单,您认为当今时代应如何通过测试来了解AI的“智慧”?

吴思:针对这个问题,我还没有系统地思考过,刚才我举了一些生活中人类认知能力的例子,比如人类的commen sense(社会常识)、与人交往的能力(比如照顾别人情绪的例子),再或是在复杂场景中,人类需要(综合)考虑各种各样的因素,我认为目前AI在这些方面是有欠缺的。认知科学家和心理学家应该把人的多种认知功能做成类似ImageNet数据集,或者做一系列标准任务,而不是简单的通过语言问答的图灵测试,才能测试AI是否具有人类的智能和智慧。但是目前这个问题几乎没人做,我觉得应该着手去做了。

AI在未来可能还会经历寒冬和热潮的交替,您觉得当代学者应该如何应对?

吴思:一方面,我虽然看过了潮起潮落,但我依然对现在AI取得的成果感到惊喜,甚至有点惊讶。另一方面,我也不会被外界的鼓吹给“骗到了”,因为我深知AI背后的一些基本性的科学原理还有待挖掘。因此,在课题组招生上,我主要以“是否为兴趣驱动”来选择学生,因为只有保持兴趣,才不会随着外界的潮起潮落而漂泊不定。同时,我也不会让他们追赶潮流。北大的学生是优秀的,代表着中国科学的希望,我认为赶潮流发文章这个行为“太low了”。国家给予了这么好的平台,不能因为别人做了大模型,我也做大模型(当然我也不反对其他人因为兴趣做大模型)。我会希望组里同学要坚持自己的信念,然后锲而不舍长期的工作,这才能做出原创性的成果。

在我看来,目前的AI发展只是一条路径,并不是终点,还有最fundamental(根本)的问题尚未解决:理解生命的本质、意识思维的本质。这比AI还重要,AI只是一个物质层面的应用,但是理解我们生命的本质那是更重要的东西。所以我会希望我们组里的同学抱着一种长远的理想和目标。我们不要去跟风Geoffrey Hinton等人开创这轮AI热潮 ,而是要学习他们那种低谷中锲而不舍的精神,将这种精神用在科研发展上,争取在这一交叉领域做出好的成果。

您如何评价近十几年来计算神经科学在中国的发展?

吴思:(学科)还在发展中,(从事计算神经科学研究的)人还是太少,但会有越来越多的人参与进来。不光是计算神经科学,比如说现在做类脑智能的研究者,与深度学习网络不同,他们做一些偏脉冲神经网络研究。这些人也在学习计算神经科学的知识,所以说这个领域在扩展。对比来说,计算神经科学就像是理论物理,你看它的领域(范畴)是很大的。

一个月前,我课题组在线上开设了一门课程《神经计算建模》。这门课程偏学术性,非常前沿。结果一经开放,400个名额立刻就被抢空了,就好像现在买演唱会门票的感觉。受到当初办(冷泉港计算与认知神经科学)夏校的影响,做东西要么认真做,要么不要做。我们做这门课程非常认真,也控制质量,同时也很注重与学生的互动。反正至少我听到的同学们对这门课的评价是特别好的。考虑到很多人在第一期没有报上名,为了让更多的人有机会学习这门课,接下来我们会筹办第二期、甚至第三期。

这十几年中,计算神经科学界有哪些突破和进展?

吴思:我本身置于这个领域,对自己所在的领域可能比较挑剔,或者说(对于学界内的突破和进展)我自己定的标准可能太高了。其实这个领域的进展也挺多的,在十几年前,我们可能做一些简单的神经元和突触建模就可以了。现在的研究者则更偏向大规模网络的建模,不再去解释一些通过实验可得的简单行为,而是试图去实现高级认知功能的解释。客观的说,这(高级认知功能的建模)其实也是我们这个领域现在所面临的一个问题:虽然绝大多数人相信我们可以从大脑中学到一些东西,但计算神经科学领域还没有出现Alpha-Go、AlphaFold这样的杀手级应用。同时也没有做出一个能够替代动物实验的神经疾病模型。后者是欧盟脑计划中的目标,但他们也没有做出来。所以,我觉着我们这个领域所朝着的大的科学目标是正确的,但目前的确还没有取得革命性的突破。

在AI处于寒冬的时候,Geoffrey Hinton 说过这样一句话:大脑就是这样的网络,没有理由不工作。这个简单朴素的信念支撑他锲而不舍地研究,最终发展好了深度学习网络。我经常用Hinton的话来鼓励学生,大脑每天都在运转,拥有各种高级认知功能,尽管它很复杂,只要我们在这个领域静下心来,共同努力,一点一点积累,我相信在十年之内会迎来大的突破。

LeCun说AI不是仿生学,您觉得类脑计算是如何从大脑中获得启发的,为何您认准类脑计算是突破AI瓶颈的一条路径?

吴思:首先我强调一点,沿用LeCun的观点来说,就是仿生到底要仿到什么程度?我是反对将大脑所有的精细神经结构全部构建出来,这是涉及生物智能的实现层次。类比英国心理学和神经科学家David Marr所提出的三个层次,我们首先有个行为层次,用于表现认知功能以及各种心理行为;然后中间有个实现层次,它可以描述成数学方程或者是网络模型;再下面是神经生物的实现层次,比如神经元的突触如何连接。实际上,大脑非常复杂,也不容易研究清楚。至少对我来说,全盯着实现层次是没多大意思的。

我们最终是要抽象出一个大脑工作的信息加工理论,这(理论)会是一个数学化的东西,它的下面才是神经元的实现层次。所以我们在做类脑研究时,不能只等待神经生物学的进展,去一点点从神经元、突触开始搭建模型。我们要从神经生物中得到启发,再外加一些我们人的理性思维以及数学的工具,通过这种上下夹击的方式争取把一个类脑智能研究清楚,这也是我课题组研究的路数。

近年来,您认为神经科学的哪一项工作给AI带来了启发?

吴思:我认为大脑的整体框架、认知架构、高效的记忆表征系统、某个高级认知功能的建模突破以及抽象概念的表达这类东西可能会对AI的进一步发展带来启发。

谈到记忆,人类的记忆与AI的记忆之间有鸿沟吗?

吴思:AI实际上没有记忆,或者说AI的记忆其实是由大数据训练好的网络的连接权重。但我们大脑记忆是一个(连续)吸引子网络系统,每个吸引子网络对应一个抽象概念的表达,网络中不同状态之间的相互作用与交流最终形成大脑高效的记忆系统。我在科研生涯中做了很多课题,但是连续吸引子网络是我20多年一直没有变过的课题,你们要是感兴趣的话,以后可以给你们讲讲具体的细节。海马是大脑的记忆系统,海马和内嗅皮层共同的作用可能实现了表达抽象概念,这一点非常重要。如果我们把这个系统研究清楚,我们在抽象概念的表达上就会有所突破,也许在AI中就用得上了。

AI的未来发展是会朝着追求与人类的相似性不断趋同,还是任其发展?

吴思:从工程的角度来看,面对一个专项任务,AI真的没有必要像人脑,实际上大家对AI战胜人类的事实表现得有点过于惊讶了,比如早期用珠算做加减乘除,而现在计算机在数字的计算速度和精度方面早已远超人类,我们又有什么可惊讶的呢?从我的理解,一个具体任务的数学机制一旦被破解,就没有我们人类什么事了,机器肯定超过我们。但是,强调AI类人的原因是我们不仅仅追求智能,也希望AI拥有智慧,向人类社会看齐,从而服务人类社会。我们希望它能够拥有常识、同理心、情感、道德观,能在复杂环境中智慧地处理事情。从这个意义上说,AI需要向我们人类看齐,让人类给AI很强的启示,否则的话这个东西(AI)就会完全失控。

我再补充一个我现在面临的问题:很多人认为研究计算神经科学、大脑的机制是为了AI。其实没有。AI只是计算神经科学研究的一个副产品,对于我个人来说,最重要的是去探究大脑的奥秘,我需要了解生命的本质是什么。我可以不要物质生活,我只要精神生活。而且说句实话,研究清楚大脑的工作原理对这个社会的帮助不只在AI,比如医学、教育(研究大脑在发育过程中是如何通过可塑性学习知识的)等。总之,计算神经科学还有更广阔的前景,只不过我们可以在类脑智能这方面和AI有一些交集。

怎么定义、定量人的思维和智力?这个问题的答案会告诉我们今天的AI与人的差距。具体地说就是如何通过神经科学的方法去理解思维和智力的神经机制。

吴思:由于我自己是跨学科的,现在在从事认知神经科学研究工作,我发现学科之间是有壁垒的。做AI的人擅长通过数学化的方式去完成具体任务,而心理学家喜欢在行为层次上进行研究。比如,关于我们人的智力和思维,在心理学上有一个学科叫比较心理学,几十年前,比较心理学通过大量的实验试图回答动物到底有没有智力,比如《乌鸦喝水》中乌鸦把石子放进水瓶来升高水位的行为是智力的体现吗?研究者还会用别的动物,比如老鼠,来回答类似问题:动物到底有没有我们人的那种智力?我觉得这些研究很大层度上都被AI领域的人给忽略掉了。AI研究者应该去了解比较心理学,去看一些基于行为层次对人类认知的研究,这样对比以后也许会意识到AI在实现类人的思维和智力的道路上该怎么走。

我们做计算神经科学的人在学科交叉方面其实起到了非常重要的作用,正好把这两个领域之间的 Gap(鸿沟)给填起来。AI强调一个数学模型,而心理学研究行为层次,那么现在最需要的是建立数学模型,去真正解释人的认知行为。解释清楚之后,就可以在帮助回答思维和智力的不同之处以及人的高级认知功能本质方面起到重要作用。

参考文献:

  • 1. Fukushima, K. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biol. Cybernetics 36, 193–202 (1980).
  • 2. Chen, L. et al. AI of Brain and Cognitive Sciences: From the Perspective of First Principles. Preprint at https://doi.org/10.48550/arXiv.2301.08382 (2023). 

声明: 本文内容来自用户上传并发布或网络新闻客户端自媒体,本站点仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系删除。

上一篇 2023-11-21 21:29
下一篇 2023-11-08 09:56

相关推荐