通往强人工智能,少不了的模拟大脑AI+

来源:脑极体 / 作者:k兰兰 / 2019-09-02 10:41
人工智能这个词,从诞生到一路坎坷地迎来辉煌,就注定与“模拟”紧密相连。

人工智能这个词,从诞生到一路坎坷地迎来辉煌,就注定与“模拟”紧密相连。

 

1956年,在新罕布什尔州达特茅斯学院的一次小型会议上,赫伯特西蒙、约翰麦卡锡、克劳德香农等AI界的开山鼻祖们,就提出了“智能的任何特征,原则上都可以精确描述,因此我们可以制造机器来对它进行模拟”。

 

 

当代也有不少科学家坚信,观察研究人类大脑,可以轻松解决新一代人工智能的设计问题。2013年,欧盟牵头、26个国家135个合作机构参与的“人类脑计划”(Human Brain Project,简称HBP)也将重点放在了,如何通过超级计算机技术来模拟人脑功能,以期实现人工智能。

 

听起来,模拟人脑的思维路径,在此基础上进行推理运算,得到新的知识、判断,似乎是AI从诞生到进化的必由之路。

 

然而,远有日本雄心勃勃打造的能像人一样推理的“第五代计算机”宣告破产,近有耗时10年、烧光10亿欧元试图模拟大脑的“蓝脑计划”(Blue Brain Project)彻底凉凉,连一个蠕虫的大脑都没模拟成功。

 

这不禁让我们有些疑惑,AI与模拟大脑之间,到底存在着怎样复杂纠结的联系?

 

 

从热恋到冷落:

模拟大脑如何成为AI的备胎

 

先解释一下,虽然都是对大脑智能的“模拟”,但不同人工智能学派的理念却各不一样。

 

符号主义学派主张模拟人脑的逻辑思维。先把问题或知识表示为某种逻辑结构,运用符号演算,从而实现表示、推理和学习等功能,典型代表就是专家系统。

 

联结主义学派则主张模拟人脑的生理结构和工作机理。通过人脑神经网络、神经元之间的连接以及在神经元间的并行处理,实现对人脑智能的模拟。现在街知巷闻的神经网络算法,就是这一理念的成功应用。

而行为主义学派则主张直接模拟智能行为的感知和动作模式。不要考虑复杂的知识、表征、推理等等,让AI在现实世界中通过自动控制过程与环境交互作用表现出来就好。

 

当然也有像瑞士神经科学家Henry Markram主导的“蓝脑计划”一样,试图用计算机创建复杂的数学模型,用来模拟人脑的86亿个神经元和100万亿的突触,以帮助研发出更智能的机器人。

 

在当时来看,所有模拟理论或多或少都有一些问题。比如符号主义很难说清楚,数字模型与人类心理相似性上的关联;联结主义智能粗略地模拟神经系统,如果训练多层网络使用的路径,就很难找到与之对应的生物学知识和匹配的硬件。行为主义只能实现低层智能,比如让机器虫爬来爬去,而复刻一个数字化大脑就更不现实了,因为想要从细胞层面构建人脑模型、模拟860亿个神经元的运作与相互关联,以今天的脑科学水平注定只是白花钱。

 

所以,现实中的人工智能,正如图灵说所,唯一需要做的事就是找到脑内运行的程序,获得正确的智能算法,然后在合适的硬件上运行它。

 

而时代的幸运儿就是深度学习。模拟人脑神经网络工作机制的深度学习方法,乘着互联网的东风直上青云,成为最适合将智能程序与算法下沉到社会机器上的核心技术。

 

在感知层面,利用现代计算机算力的提升,以及网络数据量的暴涨,让深度学习通过大规模数据集与训练来获得数据模型成为了可能。

 

而在让机器“看起来智能”的核心推理能力上,深度学习也展现了足够强大的进步。主要体现在两个方面:一种是判别事物。在已知属性的条件下,让机器对某个事物进行判断与分类,比如找出垃圾邮件或攻击性语言,亦或是从图像、视频中识别出某种特殊物体等等。

 

另一个能力则是生成。也就是通过训练好的模型,产生处符合该模型描述的数据。比如风靡一时的AI换脸,越来越机灵的智能语音助手,自动编写新闻的机器人等等。

 

得益于这种在应用场景上快速打开商业想象力的优势,我们今天提到AI,绝大多数人的第一反应,已经不再是被替代的恐慌、超越人类的恐怖故事,而是如何让数字世界为AI所用,再让以深度学习及衍生技术为基石的AI反哺千行万业,为社会生活提质增效。

 

既然如此,为什么科学家们还是对模拟人脑的方案念念不忘呢?这恐怕要从“赛尔的中国屋”说起。

 

 

念念不忘,必有回响:

AI研究为何与模拟大脑再续前缘?

 

哲学家赛尔,曾经用这样一个例子,来表达他对模拟程序的“机器智能”并不认可。

 

他想象自己在一个屋子里,有人会从窗口传递给他一个用中文书写的问题,而他需要用中文给出答案。但赛尔完全不懂中文,也看不懂汉字,但他拥有了一套能帮他编写答案的书。书中会告诉他复杂的规则,教他操作“无意义”的汉字符号,并将之变成答案。经过了充分的练习之后,赛尔就可以熟练地用中文输出答案了,乍一看,似乎和地道的中国人没什么两样。

 

但显然,我们并不能因此就认为,赛尔会中文。哲学家本人也由此得出结论,一个由毫无理解能力的各种要素组成的综合体是没法变魔术似的产生理解力的。

 

这与深度学习的逻辑有着异曲同工之处。某种程度上,也反映了当前智能的技术实现路径,所具有的局限:

 

比如人类大脑能够快速适应不断变化的环境,而机器在不确定性较高的环境中,性能就会大幅下降,因此只能用于一些特定的领域。正如谷歌公司前副总裁安德鲁·摩尔所说,今天最精密的计算机也不过是只能“解决特定问题的智能计算器”。你没办法让一个炒菜机器人自己学会送餐,也没办法让人工智能主动“创建”并解决问题。

 

 

再比如学习效率上,人类大脑也与机器智能大相径庭。谷歌的机器识别算法,在无监督的情况下自动学习识别“猫”的视觉图像,需要1 000台计算机联网合作。然而一个人类小孩在幼儿园玩玩具的功夫就能办到。机器如果真的有思维,恐怕早就变成柠檬精了。

 

而且,人脑决策时会运用许多隐知识(也就是下意识的直觉),而机器必须根据复杂多元的环境不断调整并改变策略,这就导致机器决策会出现明显的时延。比如在驾驶时,人类很容易就能够通过观察汽车、人行横道与路标,快速确定它们的通行顺序与相对位置。而传统的 人工智能算法却需要在多个物体同时输入系统之后去精炼它们的相关信息,才能做出判断。这也是为什么自动驾驶只能在训练场里徘徊,迟迟无法走入真实道路的重要原因之一。

 

虽然深度学习发展到现在,已经借由许多其他技术的引入,改变和弥补了最初的一些不足,比如元学习的引入,让机器学习开始摆脱对数据量的依赖;与强化学习相结合,能够让智能体在自我对抗中学习推理……但总体而言,人脑恰好就是那种非程序的智能,而机器学习注定不是“终极答案”。

 

所以,AI转而寻找模拟大脑这个“真命天子”,也就顺理成章了。

 

 

回心转意,脑机合体:

AI能否实现极限操作?

 

事实上,近年来AI界已经认识到了人脑生物系统本身在处理信息上的优越性,研究者们都在试图复制这种模式,设计一个模仿大脑的神经网络。

 

比如韩国科学技术院的生物和大脑工程系李相完,就发表了“前头叶控制”理论,即人脑可以自行评价对外部环境的认知度,通过外部信号来处理信息。将该原理应用于AI算法和机器人等领域,可以设计出能够根据外部情况变化,在性能、效率、速度等各个方面自动平衡到最佳状态的智能系统。这一成果也被收录在了机器人工学领域的国际学术杂志《科学》上。

 

最近,在《科学报告》杂志上的一篇文章中,以色列巴伊兰大学的科学家也证明了,基于大脑动力学(大脑计算速度比70年前的电脑还更慢)设计出的新型人工智能算法,性能远远超过了当前最先进的AI算法。

 

 

 

在研究中,科学家认为神经生物学和机器学习不应该到现在还在独立发展。甚至认为“大脑因复杂规则学习而变慢,也可以是一种优势”。因为人脑能够在树突(也就是每个神经元的末端)进行“元控制”,也就是在没有明确学习步骤的情况下,根据异步输入的信息快速完成自适应。

 

这种没有经过学习的“学习”方式,以前往往被认为是不重要的弱权重控制器,但在实验中,无论是小型和大型网络,融合了大脑动力学树突式学习的系统,学习速度都快的惊人,这也为基于高速计算机的新人工智能出现提供了可能。

 

难怪研究人员不无期待地称,人类对大脑基本原理的洞察必须再次成为未来人工智能的中心。谷歌的技术团队也认为,观察人类大脑能够解决工程学无法解决的AI算法问题。

 

看来,这对CP的牵手只差一个产业端的集体“官宣”了。

 

 

在送出祝福之前,我们不妨来畅想一下,二者的结合可能打开哪些想象?

 

一个是如前面科学家们所说,为人工智能算法找到新的突破口,脱离“模拟程序智能”的桎梏;

 

而另一个机器人的智能也可以得到显著提高。“多任务训练”一直是当下人工智能的突破难点,随着模拟人脑的深入,既不用让人类辛辛苦苦地对其进行“殴打”,来训练其灵活处理信息的能力,避免了不少伦理难题;还有可能将人类智能导入机器,培养出能够执行复杂任务的“多功能”机器人。

 

或许也只有这样,AI才能拥有一个真正智慧的“大脑”。不同道路在未来的交汇,将为AI的极限发挥埋下一个漂亮的引线。

 

阅读延展

1
3