忆海原识发布类脑计算平台,下一代 AI 突破口到来!

折纸鹤2022-09-28  25

忆海原识发布类脑计算平台,下一代 AI 突破口到来!

机器心脏报告

演讲:任化龙

编辑:杜威

近日,在2022 WAIC AI开发者日,易海源知识创始人兼CEO任化龙发表了题为“类脑计算的发展与关键技术”的主题演讲。在演讲中,他介绍了类脑智能的特点及其与传统技术的比较,以及益海袁志自主研发的海洋类脑计算平台。

以下为任化龙演讲内容。《机器之心》在不改变初衷的情况下进行了编辑整理:

忆海源知识专注于灵巧手和类脑智能,推动机器人产业赋能生活服务和工业生产,解放人类生产力。

回想海源知识团队起源于2007年,当时在开发灵巧手本体,后来发现智能是机器人最大的瓶颈。于是任化龙选择去斯坦福深造,却发现自己所学的传统智能技术存在明显的理论短板。

人工智能的突破口在哪里?答案就在人脑里,不用问外面。

深度学习遇到了瓶颈

不可否认,人工智能的发展到目前为止已经取得了令人瞩目的成就,在计算机视觉、计算机听觉、自然语言处理、自动驾驶等领域都有了商业化的应用,但是每个领域都还有很多不足。

在计算机视觉方面,深度学习是目前主要的方法。深度学习以数学优化为核心,需要大量的样本训练。它的概括能力弱,不能抽象地理解事物和情境。比如它不能理解左图中奥巴马的搞笑动作。

在计算机听觉方面,假设在一个非常嘈杂的鸡尾酒会上,很多人在说话,夹杂着酒杯的声音。那么,你是如何主动选择听哪个声音的呢?这是主动关注。还有用音色和音调说话唱歌的人,甚至说话过程中有音调,这些都是传统智能技术所忽略的。

至于服务机器人,目前缺少灵巧的手,没有办法灵巧操作。但是运动规划还是需要给出轨迹或者精确的目标坐标(x,y,z)。机器人不能自己做决定,也没有和人一样的情景记忆。

更不用说自动驾驶了。在封闭场景下还好,但在开放环境下仍然面临一系列挑战,包括可解释性和鲁棒性弱、复杂路况下适应性弱、大量重复训练但性能提升有限等。

可见,目前人工智能的感知能力有限,更不用说认知能力了。深度学习确实遇到了瓶颈

从生物脑到类脑计算

之前多次提到认知,那么什么是认知呢?我先问你一个问题。谁能记住最后演讲的所有内容,所有画面,甚至每一句话?你不应该记得,因为人不会像相机一样记录下每一个场景。

但是如果让你总结,有可能吗?比如你可以用不到10句话来概括,甚至进一步缩减到一句话。这就是认知。学习和记忆,抽象和归纳是人类的认知,对于机器人和计算机来说还是很难的

人脑的认知行为非常灵活。比如下图中五官的位置关系是怎样的?它出故障了吗?看它的音色和质感。和真人脸有区别吗?那么我们把它认作什么呢?

从这幅画的作者,我们知道这是毕加索的名画;从内容上,我们知道这是一张扭曲的脸。如果要鉴定是哪里扭曲了,可能是鼻子和眼睛的位置错乱了。因此,我们对任何给定输入的认知和理解取决于我们的认知需求。这种多元化的解读,就是人脑的认知所带来的灵活性,这是目前人工智能所不具备的

人工智能如何突破前述瓶颈?宇宙赋予我们人类,古人通过内心冥想发现人体有气脉,从而发展中医,而人脑是目前唯一的宇宙智能系统,所以大脑是最好的设计蓝图,我们应该从内部学习,而不是从外部寻求。

学习生物大脑的智能技术,可以用于各个维度,比如视觉、听觉、语言、理解、决策、运动控制等。,解决服务机器人和自动驾驶的关键瓶颈。从这个思路可以演化出很多相关的学科和技术路线,但是也有一些不同的学科和技术路线。

那么什么是类脑计算呢?它是一种受生物大脑启发的人工智能技术,强调实用性,不寻求模拟大脑中的每一个生物细节。具有广阔的应用前景。

脑模拟是一种精度很高的模拟。不一定追求实用性,更多的是探索生物物理的机理。

神经拟态芯片,利用数模混合信号实现人工神经元,集成在芯片中,大大节省了芯片的功耗。

计算神经科学可以视为类脑计算的前身。它用了很多数学方法来理解大脑机制,很多模型是抽象的,不一定实用。

脑机接口也是近年来兴起的领域,主要解决人与机器、脑与机器的交互。

下图提供了一个清晰的对比:类脑计算可以通过算法、软件、硬件实现;神经模拟芯片,如TrueNorthIBM的;脑仿真,如欧盟的人脑计划,对各种生物大脑中特定脑区的脑切片进行重建,获得脑仿真模型;计算神经科学,如经典脉冲神经元模型、传统脉冲神经网络;脑机接口比如Musk的Neuralink。

像计算这样的大脑是如何向大脑学习的?它有两个关键特性,一个是技术特性,一个是应用。在技术上,生物大脑中的关键生物机制被高度借鉴,比如不再使用深度神经元模型,而是使用脉冲神经元模型,甚至比脉冲神经元模型更复杂。

Brain like computing的学习机制不再依赖于数学优化,没有误差反向传播和梯度下降,而是主要利用可塑性进行训练,导致局部性更好,学习效率更高。有了生物大脑中特殊的神经回路,我们就可以快速的举一反三。类脑计算不再严格区分学习和推理,非常适合实时在线学习。由脉冲神经元构成微循环,再由微循环构成多脑网络,从而实现神经网络模型。

类脑计算的问题是更高级的认知任务,不是简单的识别分类。比如抽象和归纳、推理和决策、知识和常识都属于认知,而想象和创造、情感、移情、道德,甚至人的直觉和审美都属于高级认知现象。

回忆海原关于类脑计算系统的知识

类脑计算到底是做什么的?回顾海原知识的探索过程,我们是从机器人身体开始的,因为大脑包括视觉系统、记忆系统和运动控制系统。在发展和训练的过程中,离不开人体或机器人身体与外界的不断互动。后来逐渐积累了类脑智能的理论,在这些理论的指导下,逐渐实现了一系列类脑神经网络模型。后来发现这些模型的规模都比较大,计算效率成了新问题。于是,开发了-like brain acceleration platform,走了一条完整的技术链。

回顾深度学习的发展历史,其实也是如此。从理论上看,首先出现了多层神经网络,解决了训练问题,然后出现了一系列关键结构(如CNN、RNN、pooling),接着出现了Caffe、TensorFlow等深度学习加速平台。类脑计算的发展应该是循序渐进的。

类脑神经网络初探

神经网络是如何工作的?我们先来看一下人眼的视网膜。它是视觉神经通路的第一级,但往往被传统的计算机视觉所忽略

仔细看,视网膜内部结构非常丰富复杂,从第一层的感光细胞到后面的双极细胞、水平细胞、突起细胞、神经节细胞,分为几层,每层又有亚层。这些细胞之间充分的信息交流和相互作用可以产生多种重要的效果,包括但不限于调节对比度、锐化图像、边缘检测和形成初始色感。

其实,视觉的处理并不局限于视觉皮层,实际上是从视网膜开始的。下图是视网膜模型的处理效果。最左边部分是输入图像,中间部分是其提取的边缘,最右边部分形成初步的色感(形成三种不同的主色调)。

在这里,我们只能从视网膜内部的生物机制来学习。不需要数学优化,误差反向传播和大量训练,效果还是很好的

再来看更高级的部分“视觉皮层”。视觉神经系统具有丰富而发达的机制,其神经通路与其他脑区高度互联。比如视觉皮层可以连接到运动皮层,运动皮层与空间感觉有关;它还与颞叶相连,以识别物体;它还与中颞叶结构(包括海马)相连,形成情景记忆。对场景的记忆可以进行抽象和总结,然后反馈视觉皮层的训练,使得视觉训练非常高效。

举个例子,得益于广泛的神经通路,视觉系统可以进行丰富灵活的信息处理。下面最左边的图给你一种立体感(有视错觉);画面中间有三个ABC的位置,特别是A和B在亮度上是同一个色标,但在不同的阴影照度和对比度下,可能被人眼识别为不同的结果;右图中的螺旋有多少种颜色?实际上,如果去掉背景干扰信息,可以发现它的螺旋线只有绿色。

也就是说,人脑对立体感、亮度、色彩感等感官具有相对性和整体性,可以在丰富的信息空中灵活处理,处理方式和结果取决于认知需要和比较。

下图可以看到远山之间有层次感,可以区分近景和远景。在这类图像中,可以结合视觉注意来选择注意的对象(即主动注意)。一般人的视觉只密切关注视网膜中央凹(即中间部分)的位置,所以分辨率高,周边部分模糊。

人眼可以选择聚焦远山,也可以选择聚焦近景,这都是由认知需求决定的。这些在传统人工智能中没有很好的实现,所以不够灵活,无法适应会变化纷繁复杂的复杂场景

如下图所示,它倾向于识别问题。图中的物体是牛还是鲨鱼?如果使用深度神经网络,可能只能识别出一个确定的结果,要么是某条鲨鱼,要么是其他结果。为什么?因为它是端到端的单输入单输出系统。

但是对于人脑来说,认知是极其灵活的,思维是多维度存在的。头脑可以告诉你,如果你现在专注于前景,虽然看起来像鲨鱼的轮廓,但从纹理上看,它是牛的皮肤。如果你看它的头和身体的关系,它是一个牛头人鲨鱼的身体(你可能已经注意到这里有经验/逻辑的冲突)。如果你现在专注于远景,你的头脑会告诉你,远景是一座遥远的山峰。

可以说视觉系统具有丰富灵活的认知机制,并不是深度学习那样端到端的单一输入输出系统。

类似海洋大脑的计算平台

问题来了,如何才能对如此庞大复杂的神经系统进行建模

1.我们发现建模过程非常繁琐,需要工具来简化建模过程。

2.神经系统分为许多复杂的层次,顶层是系统层,环路层向下,神经元和突触层向下,分子和蛋白质层向下。每一个层次都有助于整体的认知需要和实现其信息处理过程的需要。所以,需要一个可以建模所有级别的工具

3.另外,神经网络往往很大,包括几千万甚至上亿个参数。如何在通用计算硬件上操作?这也需要一个计算效率高的工具。

海洋大脑这样的计算平台应运而生。本来是作为我们内部使用的工具,现在隆重推出来推广给你。

海洋大脑类计算平台分为前端、核心和后端,将建模和硬件管理解耦。这样,神经科学家和建模者就不必关心硬件的底层细节,而只需专注于神经网络的建模。

平台提供了丰富的基础模型和神经机制,包括各种类型的神经元、突触和可塑性机制,以及前馈、反馈、循环和侧抑制等常见的环路结构,简化了用户建模的过程,同时支持用户自定义模型和扩展功能。该平台可以支持从最小单位的神经元、突触、树突、环路、细胞核到大脑区域的全尺度建模。

该平台还可以支持大规模神经网络的运行,通过调度和管理硬件设备保证较高的运行效率。该平台可以运行在异构计算设备上,支持CPU、GPU等异构计算设备。该平台可以部署在个人电脑、云服务器和嵌入式设备上,为其应用和推广提供了可能,满足了从RD到应用部署的全链条需求

神经系统建模有什么特点?我们发现:第一,生物神经元的特征远比传统的脉冲神经元丰富;第二,生物大脑的机制远比传统的人工神经网络丰富。这样理论、算法、模型就会不断快速变化,成为常态

所以Ocean需要满足灵活建模的需求

比如左上图是一个生物神经元,大致可以分为突触、树突、细胞体、轴突等部分。与模型相对应的是,每个部分都可以发生非常复杂的机制,每个机制都对最终的宏观认知效果起着重要的作用

为了满足灵活建模的需要,Ocean还将神经元模型分为突触、树突、胞体等结构(还可以进一步细分和扩展)。其中,突触也可以独立建模。

再看突触和突触可塑性,二者在生物层面有很强的相关性,但又相对独立。因此,海洋将两者解耦,突触和突触可塑性可以分别建模,同时允许两者灵活组合。

在上述基础上,Ocean将神经元和突触进行分组,并提供了两种基本的模型描述范式:容器模型描述范式和端口模型描述范式,以实现模型/代码的高效运行和轻松管理。

下面重点介绍端口模型的描述范例。端口模型包括模型主体和一个或多个端口。其中,模型体包括若干变量,用于表达模块/模型的状态(如神经元的膜电位);端口表达模块/模型与其他模块/模型之间的信息交互(可以用来实现突触连接)。通过端口机制,可以清晰地描述神经网络丰富复杂的拓扑结构。

基本型号提供了以下端口(可按需扩展):

输入-输入端口,接受输入;

输出-输出端口,产生输出;

引用-引用端口,允许模块/模型引用其他模块/模型的变量;

连接-连接端口,可用于实现连接权重矩阵等功能;

如下图所示:

Ocean提供了常用的神经元类型、突触类型、树突结构、可塑性机制等。,并分别提供相应的端口型号/容器组。

再者,为了提高模型的组织能力,更灵活地管理模块,Ocean还提出了抽象模块。抽象模块可以封装模型,通过ProxyInput端口、ProxyOutput端口等高级端口提供统一的输入输出接口。抽象模块可以级联和嵌套,形成横向组织、树形结构、多级结构等。,为模型组织提供了灵活的管理和扩展能力,方便了RD人员之间的分工合作,将他们设计的模型组装成更大的模型。

以下是神经环路拓扑的一些经典示例:

1.神经元-突触-神经元-突触可塑性(上游和下游神经元群之间的一对一)

2.神经元-突触-神经元-突触可塑性(上游和下游神经元群多对一)

3.神经元-突触-树突-神经元-突触可塑性

4.模块嵌套和重用

这是一个海洋建模的例子。下图是使用神经网络对MNIST手写字体的识别。该模型不使用误差反向传播和梯度下降,只使用某种神经回路拓扑结合可塑性进行学习,可以达到很好的识别效果

我们也有更多的神经网络模型和应用案例,会在以后的发布会上介绍给大家。

回想海源知识,作为类脑计算和机器人生态的一员,希望能和大家一起推动这一领域的发展,也希望大家能持续关注。谢谢大家!

海洋类脑计算平台:ocean.yihaiyuanshi.com

公司:https://www.yihaiyuanshi.com/,官网

特别感谢:天安云谷、奇迹成就创造坛、x战警加速营、英伟达盗梦空间计划

剧终

授权请联系本微信官方账号。

投稿或寻求报道:content@jiqizhixin.com

转载请注明原文地址:https://juke.outofmemory.cn/read/1817152.html

最新回复(0)