2016中国人工智能大会(CCAI 2016)日前在京召开。中国科学院外籍院士、中国科学院神经学研究所所长蒲慕明27日发表演讲《脑科学能为人工智能带来什么》。今年早些时候,蒲慕明在接受新华社记者采访时,将脑科学和类脑智能研究称为“兵家必争之地”,蒲慕明透露,“中国脑计划”已通过并有望在今年启动。“中国脑计划”预计时间跨度为15年,将通过研究人脑的基本认知原理,研发脑疾病的诊治手段及类脑人工智能。
在CCAI 2016 演讲中,蒲慕明概述了神经系统研究进展,着重介绍了误差反向传播算法等几种主流的神经网络算法,并提出人工智能可以借鉴的 5 大自然神经网络特性:①神经元类型,②顺向、逆向、侧向联接,③神经突触的可塑性,④记忆的贮存、提取和消退,⑤赫伯神经元集群概念的应用。蒲慕明最后表示,脑科学与类脑人工智能的协同发展将是未来人工智能发展的关键。以下是报告全文实录和部分PPT(文字来自现场速记,未经讲者确认;PPT来自新智元记者照片)。
蒲慕明,中国科研院院士,美国国家科研院院士,中国科研院上海神经所的所长,在脑科学方面成绩卓著,在推动脑科学、信息科学其他科学研究方面做出卓越的贡献。
蒲慕明:我非常高兴今天有机会来参加这个盛会,今天想把这个神经科学里面的一些进展和我个人的一些看法给大家做一个报告,希望对我们人工智能未来的发展有好处。
首先就从最简单的说,人类的神经系统有两大类,有中枢神经系统,其中包括大脑、小脑、脑干、脊髓,还有外周神经系统,主管知觉还有各种内脏自主神经系统。我们所说的“脑科学”所关注的是大脑,而大脑最主要的一个部位就是大脑皮层,这是我们人类最发达的一个部位,大脑之下的很多结构就是皮层下结构,是比较早期出现的,从猴到黑猩猩到人,皮层的结构大大的增长,这就是人类认知的主要来源。
我们脑科学所关注的就是皮层的各种功能是怎样产生的。现在已经知道,在各个皮层的各个部位主管各种功能,就是功能是分区的,哪个区域受损,比如语言区受损就不会说话,视觉皮层受损就看不见,这是对脑皮层分区多年来非常清楚的理解。
但最近我们可以从活体正常人的大脑,用各种脑成像方法来看,比如正电子成像——葡萄糖注射到大脑里面,活动高的地方就有信号,被测者看几个字,就发现脑的后部有活动,这是我们所谓的视觉区域,听几个字就听觉区有活动,我们让他讲几个字,语言区有活动。
但是,现在令人吃惊的是,不听不看不说,让他想几个字,我们看到的是什么呢——到处都是活动!这就表示,简单的思考是牵涉到大脑的各个部位都有的活动,到底为什么这样子我们还不清楚,所以简单的思考对脑科学到底怎么解释,我们还是不清楚的。
为什么不清楚?我们可以看一个简单的实验,用斑马鱼,它是透明的,所以大脑里面十万个细胞每一个神经细胞的活动都可以观察得到。把斑马鱼放到显微镜上面,头部固定,尾部还可以摆动,有各种逃跑行为,给一个闪光,尾部一动就是要逃跑,这个时候我们看固定的头部里面的活动,可以同时观察成千上万的神经原,每一次闪光出现的时候就有更多的活动。但是,没有闪光的时候也有很多活动,就自发活动,这什么意义,是鱼在思考还是在做什么,我们不知道。
我们知道,人就在不做任何东西的时候,你看脑成像也有自主的活动,就是自发活动,自发活动的意义是什么,也还不清楚。这都是神经系统里面的大问题。
我们把神经系统切片,看皮层什么结构,里面是密密麻麻的神经细胞,左边是用染色神经细胞的细胞核,几乎是紧密的排列的,假如只染色少数神经细胞,只有少数细胞看到形状,你就看到事实上是有很多网状结构,这个网状结构就是所谓的神经网络,神经系统里面进行功能都是靠这个。
人的大脑有上千亿的神经细胞,我们叫神经元,通过连接,数目到了百万亿的连接组成一个复杂的神经网络,进行各种感知运动思维各种功能。神经元是有结构的细胞,有输入端也有输出端,输入端像树枝一样,输出端是一个轴突,输入段是一个树突。
现在做一个演示,这是斯坦福大学的实验室做的,现在最先进的观察神经元网络的成像方式:一个小鼠的大脑,用荧光染色少数细胞看神经元,因为是少数细胞,所以你看到单一神经细胞的结构,这是真实的状态,这个大脑让它透明化,可以看到内部,这种情况下看到的大脑里面结构,有规则又有非常复杂的网络,这个有少于百分之一或者千分之一的细胞被染色到,皮层上面的结构排列比较整齐,下面的区域是另外一种格式,这就是现在看神经系统内部网络结构最先进的方法。
我们刚才看到的叫做介观层面。神经细胞种类很多,至少几百种,可能上千种,现在弄清楚小鼠的大脑里面有多少种细胞,还是脑科学的重大任务。每一种细胞反应不一样,功能不一样,所以要弄清介观层面不同的神经细胞网络是什么结构,用电子显微镜可以看到更多的微米到纳米阶段,看到细胞之间的连接,看到细胞之内的结构,看得更清楚、更复杂。现在最关键的还不是看微观,是看介观层面,从脑成像可以看到宏观的层面,很漂亮的连接图谱,这些图谱都是神经树,红黄蓝绿各种颜色的线,代表成千上万的神经轴突形成的神经树,不同细胞功能不一样,光有宏观的是绝对搞不清楚大脑结构的。
即使我们知道介观层面的结构,完全知道了也不能够理解。我们还要理解功能,这里面到底怎样传递信号。所以,理解大脑的功能信息处理和功能机制是神经科学的主要内容。在过去一个多世纪,在神经元层面大脑如何编码储存信息,我们已经了解得比较清楚,包括神经信息是由脉冲的频率和时序决定,而不是脉冲的幅度;脉冲是一个电信号,一个毫米的波动,脉冲在神经细胞里是神经信息的单位,脉冲从一个细胞传到另外一个细胞的过程也是一个电活动,一个小小的电位变化,电位变化产生的原因是因为释放了化学物质……这些都是获得了诺贝尔奖的研究。
对各个区域每一个神经细胞可以做单细胞的记录,记录对某种信息的反应,发现各种细胞有各种不同的反应,两年前诺贝尔奖发现空间信息,动物在某一个环境位置的时候某一些神经细胞就会放电,这个都是对单一神经细胞的编码储存信息的了解。但是,这些细胞为什么有这样的反应,局部的环路跟长,环路造成的信息是怎样来的,我们有一些理解,但还不是很清楚。神经信息经过环路产生感觉、知觉、情绪这些基本功能,我们有一些了解,但还很粗浅,对于思维、抉择、意识、语言……高等认知功能的理解是极为粗浅的,所以脑科学还是20世纪初期的物理学一样,还是刚刚开始,还没有真正的突破。
接下来给大家讲信号在神经系统怎么传导。一个简单的演示,这个信号是我们说绿色式的血管,在大脑里面各种神经元连成网络,电信号在上面传播。这个电信号不是电子,而是离子传播,传播速度比较慢,传播是靠离子从膜的内外通过,造成模上电位的变化,形成了一个脉冲,这个脉冲向前推,造成了传导,速度就比较慢了,每秒钟一米到几十米,跟声速差不多,这个信号到了终端的时候不是直接传到下一个细胞,而是通过小泡释放化学物质,产生离子流动,造成电位变化,这些离子流动是非常复杂的过程,我们叫做化学突出传递。不是电直接传过去,每次释放出来的物质,这些物质可以是兴奋性的,也可以是抑制的,这个物质传到下一个细胞,打通了通道可以让正离子进去,就使下一个细胞兴奋,假如是负离子就是抑制的,这样一个信号可以从正的变负的,使信息处理有更丰富的内容。
另外一点,每一个释放多少化学物质,有多少接受化学物质的分子的量,都可以改变,这就使这个突触可塑性非常强、效率可以改变,而效率改变突触可塑性就是神经系统里面的信息处理的关键,也是我们说认知学习主要的关键。化学物质在突触产生的电信号是什么,我们叫突触电位,兴奋性突触电位是使突触后的膜电位有去极化下降,假如下降程度超过一个预值就发放脉冲,就是神经要发出的信号,但有些物质产生超级化,就是使膜电位变得更高就是相反作用,一个神经元接收到数百个甚至上千个输入,我们叫做EPSP跟IPSP的输入叠加之后,决定最后是不是超过阈值,超过阈值就发放,发放之后就信号整合,就传到下一个神经元了,所以这个神经元的信息整合就通过单一神经突触整合。
环路,神经网络神经环路,我们可以这样简单理解,网络是整体的神经连接整个网络,在网络之间有很多做各种特殊功能的路径途径,这些途径就叫环路,神经环路的意思就是神经元上特殊功能的网络,是轴突与树突形成的,在网络里面抑制性神经元有关键性作用,这一点要强调,网络有局部的网络,局部网络就是在一个局部区域神经信息来了,比如最简单的反射,敲一下膝盖脚就会有反射,从肌肉来的感觉信息传到脊髓,然后刺激了脊髓里面的运动神经元,使腿部上面的肌肉收缩,但是上面的肌肉收缩下面的肌肉要放松,通过局部环路又通过一个抑制神经元,使支配下面肌肉的肌肉下降,这两个配合在一起就产生了一个协调的作用,脚就动了。所以,这个局部的网络产生的作用,也就是抑制性神经元产生的作用是很重要的。在局部网络里面,长程网络是长距离的控制,可以控制脚不动,为什么呢?因为大脑已经给了一个信息,抑制所有的活动,使反射不能形成,这就是长程控制自主的控制,有两种不同的环路作用。
过去50年来我认为对大脑最重要的理解,就是神经可塑性,感觉运动认知行为发生的时候各种相关的活动,有一个作用,这个作用是改变神经元或者突触功能或结构的修饰,这种修饰就叫做可塑性。一旦修饰之后,这个神经系统变成另外一个状态,这个状态就是有了记忆、有了学习、有了认知行为的改变,所以可塑性可以说是所有认知行为的基础。过去这50年最大的进展,就是理解可塑性来源。
60年前,加拿大的一个心理学家赫伯提出一个非常明确的假说,电活动怎样造成神经系统变化:假如有同步的神经细胞,两个细胞里面有同步电活动,它们之间的突触连接就要加强或者稳固;假如不同步,这个突触就削弱或者是消失。这种概念我们叫做赫伯学习法则,一起发放的神经元连在一起,就是一个简单的原则,那我们说一起发放什么呢,比如这两个神经元有电活动是一样的,都有同步的电活动,在两个神经元有活动,它们之间的突触就开始增强。那假如这个神经元跟另外的神经元不同步,这个神经元有活动而它没有活动,或者被抑制,它们之间的突触就要下降,就是这么简单的一个原则。
这个原则在上世纪70年代、80年代得到了实验证据,这个证据也是神经科学重大进展——发现了电活动可以造成突触的长期强化或者长期弱化现象。所以今天,LTP、LTD,LTP跟LTD是可塑性的关键,突触可以强化或者弱化,假如你用高频刺激,刺激一秒钟,刺激前突触电位是这么一个幅度,刺激之后一秒钟突然上升,这上升的幅度可以维持长时期,就是长期强化现象。低频刺激,结果是相反的,效率是下降的,变成弱化现象。为什么会这样,赫伯解释说高频刺激的时候,产生的突触电位可以叠加,所以突触后也被激活,所以叫LTP,但低频的时候,每一次都不能够激活,突触后就没有活动,所以不同步,就削弱。这个学习法则就这么一个解释。
突触其实是产生在轴突终端的一个小泡,跟树突产生的一个突起,这个叫树突棘。这个突起在一般的神经细胞上面有成千上万个,至少几百个,这些突触就是表示说不同神经元来到轴突的输入,但不是都是有电活动,电活动加起来超过阈值,神经元整合就放电,就给下一个细胞发出信号。
这个结构很有意思,就是刚才说产生LTP长期强化现象之后培养的海马脑片切片。看它的活动就有很多树突棘,你看这个树突棘在LTP在上升,高频刺激,在这个刺激的区域发现有新的树突棘产生,在LTP产生之后几十分钟之内有新的构造出现,表示说这个电活动造成了突触的功能增强,可能包含了新生的突触、新生的连接,这是在发育过程中的现象。但是,又发现突触前的轴突的小泡跟突触后的树突棘这个可以长大和缩小,还可以萎缩,萎缩就是表示最后可能消失,表示又减弱,所以这个轴突跟树突之间产生的,构造可以改变,功能可以改变,改变传递效率,也可以产生新的突触增强功能。
最近实验室发现,在小鼠活体进行学习的过程中,几天之内会产生新的突触。比如说这里我们看到突触前,我们标记了突触前的轴突跟突触后的树突,学习之后突然产生了一个新的树突棘,有了树突棘在那里,突然产生了一个新的突触前的小泡产生,也是一个新的轴突接触点,这种新的突触的产生在成年小鼠的大脑里面也在出现,但是这个出现的频率是远小于发育过程中的。
赫伯假设可塑性的基础是强化,突触强化或者弱化同步活动造成的。赫伯岁感知记忆有一个假说,大脑里面由于感知信息来了之后,同步的电活动强化了一群神经元之间的联系。这个假说什么意思呢,就是储存记忆就储存在有脑活动的那些神经元里。这个假说很有意思,可以解释很多现象,比如我们对于一个圆圈的感知,每一个细胞都产生,每一段都产生一个神经元的激活,都是因为这个圆形刺激不断出现的时候,有同步活动,这个同步活动使它们之间连接增强,所以我们就建立了一个赫伯细胞群,这个细胞群建立之后就这个细胞群之间关系不一样,有交互作用,理解它们之间是相关的。在这之后只要部分信息刺激,你就可以通过这部分信息,使整个细胞群开始重新有活动。所以,部分信息可以提取记忆的过程是什么呢,就是部分的刺激造成了整体细胞群的活动。
简单的细胞群假说可以进一步扩充,我们每一个人都记得祖母的面孔,因为它的特征都在我们的大脑里面,所以细胞群建立之后,我们现在只要看到部分信息,比如看到祖母的眼睛,就能完全回忆起整个面孔。每一个细胞群相互之间可以建立一个超级细胞群,这个概念叫做细胞集群的集群,是一种嵌套的、可以编码、更复杂的感知信息、感知记忆。我们对祖母还有一个概念,我们记得她的面孔,对祖母还有各式各样的印象,包括名字、故事、穿的衣服,每一个都是一个超级细胞群,这些细胞群连在一起,因为祖母不断出现,超级细胞群之间也是同步激活,建立祖母的概念,整个概念就是一个祖母的概念。
这个假说就是代表概念各个成分的细胞集群是分布在一个脑区,概念的形成过程是细胞群之间同步放电造成长程环路之间的强化。这个概念怎么产生的——看到祖母的名字就想起祖母的面孔,想起其他的东西,部分的集群的放电就引起了整个概念的放电,造成整个超级细胞群的激活。这个是一个假说,目前还没有人证实,我们也在努力研究,检测的过程需要对大量神经元电活动进行观测、进行调控,检验这个假说到底是不是正确的。
赫伯的假说有一个转折,就像刚刚讲的人工智能发展一样,每隔一段时间就有一个转折,这个转折就说原来赫伯假说里面的学习法则,什么都是同步,两个放电顺序是怎样,时间是怎样,没有描述,所以在很多实验,包括实验室的实验,说明有赫伯学习假说应该修正,修正成为一个时序的假说,突触前跟突触后的神经元的先后,就是突触前要是比突触后先有电活动就是强化,就是LTP,假如反过来就是LTD,所以STDP就是这么来的。
我们实验室最大的贡献就是把这个时间窗口定下来了,就是突触前的活动必须在突触后的活动之前的20个毫秒之内产生,它就可以对突触后的激活有贡献,因为这是一个去极化,有贡献就造成LTP,假如突触后已经有了一个放电,然后输入才进来,这个突触没有贡献,就得到一个弱化。所以有贡献的强化,没有贡献的弱化,这样基本上颠覆了早期的同步强化、不同步才是不强化的概念。不同步要发生也就在这个地方,时间很远的没有作用。
这跟奥林匹克比赛一样,真正比赛的都是速度差不多的,速度差不多谁赢谁输有竞争,这一群竞争就是比其他的要快的,其他的快的就强化,比其他的弱就弱化,这是所有竞争性的现象,都是有这样的一个规则,大脑的突触改变也是这样子的。
这个赫伯集群有时序性的假说,这些细胞群都是连在一起开始,但是我们现在假如说给一个有序的刺激,这个刺激就是说从前到后是不断的,没有反向的,这个结果是什么呢,对这个朝下的连接都增强,因为朝下游的连接都是突触前发放,就是LTP,反过来都是LTD,有时序信息就有神经集群里面造成的一个有方向性的强化,这个强化结果之后就建立这个集群。有定向的集群之后呢,只要有部分信息,比如在起始区给一个信息,因为通过强化连接,就可以激活这一群细胞,比如做音乐学习,只要放前面几个音符,后面就出来了,学习音乐网络就是用的STDP,很快就可以出现,这个就是时序信息的好处。
在大脑里面也有这个机制,在小鼠大脑里面用电极进入皮层里面的细胞群的反应,有序的比如在上面在试验里面用一个圆圈的球扫过这些细胞群,使它们产生反应,这个细胞群的反应不断的产生,这些细胞群的反应是有序的,先被激活的先反应,每一个圆圈代表细胞群的电活动,不断训练之后,这些大脑里面的连接结果就是,只要给一个信号,比较起始初的信号,就会造成连续的放电,起始区跟重点区两边比较,哪一个造成放电,就在起始区造成放电,有序放电可以产生,所以这就是有序信息在大脑里面的储存,比如16个电极进入细胞群的电活动,开始训练之前一个闪光引起不了什么有序放电,训练过程中这个电极先激活先放电,后激活后放电,这就是有序细胞群放电,训练一段时间再用起始点刺激,很多情况下可以看到有序放电,比如这7个尝试之下有5个有序放电,有记忆了经过训练之后,这个细胞群大脑的细胞群已经记忆了时序信息,这个时序信息就是通过STDP这个方式来学习。
发育过程中的网络形成,很重要的一件事情,人的发育或者很多哺乳动物发育开始出生之后是没有什么网络的,神经元已经出生了,但是之间的网络是非常少的,所有的网络是我们关键所有认知行为的关键,都是在出生之后建立的,比如两个月之后人的网络,大量的神经网络产生,产生这么多干什么呢,就比成熟的网络还要复杂。为什么呢?要经过学习把变成有用的网络。
在发育过程中我们看到树突棘大量上升,刚出生的时候是不断的上升,然后开始慢慢下降,到青年期就开始下降,为什么下降了,下降就说你学习的过程中就是造成网络的修饰,开始的时候小孩子在地上爬都站不起来,所有的运动系统很复杂的网络造成的,通过什么样的强化,哪些东西是正确的网络,他就慢慢的学会站起来会走路了,这个网络就被巩固下来,这个是修饰过程,所以网络的修饰在发育期是很重要,这个发育期网络修饰有问题就产生各种问题,自闭症是网络修饰不够,精神分裂症是网络修饰太大,这是现在的假说。
网络的修饰事实上成年期跟发育期是不一样的,成年期有突触新生,但是数目很少,在发育期他可以产生大量的连接出现,修剪是非常重要的,成熟的时候大脑还是可以变,但是变的是有限,增加几个减少几个,通过学习,这为什么要这样子,要有两种不同的可塑性,这是演化的伟大的发现,你要修剪,修剪之后就不能再修剪,经验已经累积到一个程度,你还是要让他可塑性,只有少数的可塑性使他可以记忆学习,早期的经验不可以再修,再修以前学的都忘掉,这是演化过程中的一个出现的机制,就是网络形成过程中跟成熟期的可塑性有不同的规律。
现在讲人工网络,Hopfield人工网络就是把赫伯学习法则加进去了,每一个连接点是可以变的,还可以通过赫伯学习法则来调节,调节之后网络就可以记忆学习,一群突触就代表一种记忆,可以储存多种记忆。另外一个重大发现就是BP的出现,BP的出现就是很简单的,也是神经科学带来的一个信息,神经科学在运动学习的过程。我们为什么越学越准?学对了要调节小脑的网络,使它维持不动,有错误要修正,由于结果来反馈网络,其实就影响了BP的出现。所以我们说,这两个重大的突破都是脑科学一个非常简单的概念造成的。
在上世纪80年代的时候,我们常常看到会说话的网络,简单的三层网络里面输入各种英文单词,然后还有输出各种发音,你就让它不断地学,其实不需要很大量的学习,网络就会记住没有见过的字,就可以出现新的发音,就开始像小孩子一样。输出不对的时候就把输入改一点,对的就不变,一层一层往上改,最后改出来的突触造成网络非常准确有效的,像这种非常令人吃惊的人工智能发展,这个在上世纪80年代末期是达到高峰,在外面的输出有变的时候,要改变输入的效率,这个就是要从输出改变输入,信息是从输入到输出这个方向,怎么把输出的信息传到输入,用数学的算法来做这不合道理,神经系统没有这个机制。
我们在组织培养一群细胞,事先有连接,就记录四个细胞,它们之间有大量的连接,每一个都跟每一个几乎都有连接,有16个连接,但是这16个连接就有16个连接点,其实只有9个连接点是有电活动。现在,要把其中的一个连接点改变强度,看有没有影响其他的连接点,比如我们把这个连接E1到E2的连接增强,LTP出现了,突触电位增强。但是,观察了在9个连接里面,有4个其他的连接也增强了,这个连接增强也造成其他的连接增强,所以就有一个扩散。这是什么规则呢?我们就研究发现这个规则,写了一篇文章,发表在1997年的Nature杂志,这个文章就叫 Propagation LTD。
这个文章创了两个记录,第一个就是Nature长文,有10页纸长,另外一个记录就是这篇文章是引用率最低的文章,这为什么呢?我们做这个实验,没有人知道为什么做这个神经,神经科学的人看到这个,他不知道这个结果有什么用,人工智能不读生物科学的文章,所以引用率是最低的。到今年现在慢慢开始上升了,我希望大家对这个给予重视,花了10年功夫证实,LTP跟LTD反向跟侧向传播是存在的,比如说在这个结点,输入到输出,你发现LTP跟LTD的回头自己本身传递到输入,输出是错误的,是LTD输出是LTP,这个不会往下传?这个现象我觉得是相当有意思,是不是现在网络上自我学习就是这样的一个机制,就自己可以传递?
剩下最后几分钟,刚才讲的这些内容总结了一下。现在提出5个可以借鉴的特性,第一个特性,现在人工智能里面没有的就是种类,所有的单元都是一样的。但是,神经系统的关键就是抑制性的神经元,没有抑制性神经元很多功能不能出现,抑制性的跟兴奋性的神经元还有亚型,不是说每一个单元都是同样的性质,高频信号有些输出有反应,对低频没有反应,亚型有各种信号传递的特性,这是更进一步的分析,所以这就是未来人工智能可以加进去的。
现在都是顺向的网络,但是也有逆向的网络,也有侧向的网络,这都可以是抑制性也可以是兴奋性联接,局部网络里面最关键三种网络:一种是Feedback网络,神经元被激活之后,自己轴突输出到旁边的抑制性神经元回来抑制自己,所以有控制,不是无限制不断地高,是可以压制高幅度的电活动;也有Feed-forward,除了输入兴奋性神经元,同样的输入到旁边的抑制性神经元,通过延迟这个信号抑制神经元;还有旁侧的,把神经系统一连串的信息尖锐化,因为有一个抑制性延迟,所以开始的时候有信息,后面一连串的信息把后面消掉,所以时间更准确,可以强化中间这个被刺激的神经元,通过侧向的抑制,使旁边下降,这样子可以突出该强化的通路,不该强化的通路压下去,这些都是抑制性神经元造成的。
第三类,也是最重要的一类,可以借鉴的就是神经突触可塑性,有功能的可塑性,就是效率的增强或减低,LTP跟LTD,这是我们最常见的。但是,今天说到增强跟削弱的规律是什么,依赖突触前后电活动的频率决定LTP或LTD,但也可以依赖时序,就是突触前跟突触后的电发放顺序。还有一个就是结构可塑性,突触尤其在发育过程中有新生的有修剪,这个连接是可以变,现在是不可以变,只可以变突触权重,但不可以变联接,在计算所的实验室已经把这个联接可变性加入进去,发现有很大的功能。还有一个就是可塑性的传播,LTD的传播是我们的BP的来源,但是,LTP为什么不可以传播?传播为什么一定要指定?可以有自己的逆向传播、侧向传播,而且是可以自发的,不需要指令的神经元自己有序的传播来进行突触的变化。
第四类,记忆储存、提取与消退。记忆是怎么回事呢,就是突触群在感知记忆或者其他记忆激活的时候之间联接增强或者结构修剪,就是在进行处理的网络上的储存,这个储存的修饰在神经系统里面随时间消退,LTP、LTD不是长期的,你来一次的话过一阵子几十分钟之后就不见了,这是有道理的,不是所有的突触都可以强化,都可以弱化的,这样子的话没有意义的信息,所以他有遗忘,这个短期记忆长期记忆是同样的网络可以进行转化,这个短期记忆就是可以消退的,有规则的重复性有意义的信息他可以把这个网络之间突触之间的强化和弱化转化为长期的变化,结构上的变化,这就是神经系统的机制,记忆储存是什么,就是在这个网络使部分突触群的活动在线,就可以把这个记忆提取出来,最后我们强化学习,通过输出信息增强或减弱来修改跟这个功能相关的突触群的修饰,通常在神经系统里面,他的指令是什么,是另外一种神经元,现在是用算法来做这个强化,但事实上神经网络里面可以加入特别的神经单元来做这个功能。
最后就是赫伯神经元集群概念,嵌套的集群,可以用来做图像记忆、概念形成,这都是嵌套式集群,加入STDP之后可以变成时序,包括语言信息的储存也是嵌套的。集群怎么形成,就这个句子出现的时候产生的集群,这个集群跟另外一句话的集群不一样,同样的一个字、一个语句,在不同的句子里面意义不一样,就是因为不同的集群里面产生了连接。所以,这个集群可以把多成分、多模态的信息放在一起,视觉的、听觉的、嗅觉的,都可以连在一起,不同模态的信息在网络的不同区域处理。在神经网络里面、自然网络里面,怎样捆绑不同模态的信息呢?就是用同步活动,同步的活动震荡。这个同步的震荡在不同区域同时震荡,或者震荡有一个相差,一个先一个后,这也是同步来捆绑各种集群,输入信息。在神经系统很重要的是图谱,有些图谱结构已经用在人工网络里面已经开始使用了。
脑科学与类脑人工智能的协同发展是我们未来的前景,强调相互共同支撑、相互促进、共同发展,我是看到人工智能这个BP的出现,诱导了我在自然网络追寻有没有BP自然的出现,不需要指令的出现,发现有这个现象。现在那个现象发现之后,还没有回馈到人工网络,所以我说假如再回馈到人工网络,在人工网络里面也可以发现这个很有用,那就是脑科学跟人工智能结合的一个最好的例子。
脑科学的用在人工网络上,这个反应过来也是可以的,为了有效结合这两个领域,中国科学院去年成立脑科学智能技术卓越创新中心,这个中心跟一般的中心不一样,我们真的是在一起工作。未来哪一个国家的人工智能跟脑智能的融合协同发展进展最好,哪个国家就最有前途,希望大家未来关心脑智中心的发展。我今天就讲到这里,谢谢。
文章来源:新智元
欢迎加入本站公开兴趣群
高性能计算群
兴趣范围包括:并行计算,GPU计算,CUDA,MPI,OpenMP等各种流行计算框架,超级计算机,超级计算在气象,军事,航空,汽车设计,科学探索,生物,医药等各个领域里的应用
QQ群:326600878
-
标签: