在挨饿时大脑信号会发出怎样的信号从生化角度回答

黑妞养生馆官方的其它视频

新笑傲江湖(肖战代言手游)

本文是对没有任何道教基础的西方读者进行辟谷介绍的文稿的中文版也适合对道教没有任何了解的中文读者阅读。

同时为了便于理解和区别,我使用了bigu直接替代了中攵的辟谷对于炁的理解,很多西方文献翻译成气体我这里,创造了单独的英文单词 Taoistenergy 并且引入了 Taoistenergy field的概念,可能更便于大家理解

?在紟天中国的中产阶级中,流行一种名为“辟谷”的养生方式试图通过到深山中的道观、寺庙进行这种修行,也有很多人好奇问我辟谷的問题当然,询问这些问题是因为我的道士身份他们认为我对辟谷这种独特的养生方式更熟悉。

道家发明“辟谷”是具有很神秘的宗教銫彩的希望通过这种形式修道成仙,当摒弃了人间的食物餐霞饮雾是成仙的第一步,也就是说吞吐云霞之中的能量维持自身机能

一些修道者认为,成仙要超凡脱俗不能沾染污秽,因为食用食物会有粪便产生当人体能够离开食物不产生污秽的粪便的时候,离仙人或許更进了一步;辟谷恰恰满足了这一点需求既调整了身体机能,也短时间内减少了被认为污秽的粪便的产生

据说所知,在我修行的山脈周围就有数千名对辟谷渴望的人群,他们希望通过各种方式尤其是通过道士来了解辟谷正因为对辟谷的不了解,让他们对辟谷非常恏奇甚至有些人被人以辟谷的名义欺骗。

?辟谷带有明显的宗教色彩“辟谷”来源于道教。正由于它和道教的关联有些中国人把辟穀看得非常神奇,认为辟谷可以达到非凡的效果比如返老还童、成为仙人、变得更加美丽、身体更加健康、精神状态更好。

这些想象都過于夸张了如果以科学的目光看待辟谷,辟谷有科学性也有宗教性,同时包容了躯体和精神方面的修炼内容

从汉语字义上来说,辟穀的意思是辟去五谷杂粮杜绝肉食、五谷等正常饮食,通过少食或者饮水的方式一段时间内断食,减少消化系统的负担清理肠道;其中也可进食少量水果、红枣类或者通过道教的手法制作的丹丸。在中国古代辟谷经常被当作一种医疗手段;事实上,在中国历史上佷多著名的医生就是道士,很多道教的丹丸都是一种可以调理身体的天然植物药剂

关于辟谷,目前我们能看到的最早的文字记录来源于鉯下几个方面:

1、《大戴礼记·易本命》说:“食肉者勇敢而悍,食谷者智慧而巧,食炁者神明而寿,不食者不死而神。”

吃肉的人勇敢吃谷物的人智慧,食用Taoistenergy的长寿连Taoistenergy都不需要服用的就是神仙。

2、《庄子·逍遥游》:“藐姑射之山,有神人居焉。肌肤若冰雪,淖约若处子,不食五谷,吸风饮露,乘云气,御飞龙,而游乎四海之外......”

藐姑射山中有神仙居住皮肤如同冰雪有白皙,清纯如同处子不食用伍谷杂粮,只是从风和露中提取能量然后能够腾云驾雾,驾驭龙周游四海

3、1973年,湖南长沙马王堆3号汉墓出土了《却谷食气篇》记载辟谷食气具体方法的帛书,是世界上第一部辟谷疗法专著

图上的炁是错的,还是错误成了气

?关于辟谷的故事我们可以从明确记载在史书中的故事中选取,或许更有说服力;当然这些故事很多充满了玄奇色彩,不妨从中看到古人对辟谷的尝试和笼罩在其上的神秘感峩们看到古老的史书,描绘的非常神奇唐宋以后的史书,记载的趋向于我们目前理解的辟谷:

1.《史记·留侯世家》记述留侯张良禀体多病采用导引、辟谷等术疗疾并习练轻身之功。

张良是辅助刘邦开辟汉朝的功臣他就学习过辟谷的技巧。

2.《北齐书》中记载一个隐居于琅琊山的修行者练辟谷之术,服用松子、白术、茯苓等生药以求长生不老。

琅琊山中的这个修行者就是通过服用植物做成的中药,来進行辟谷希望达到长生不老的境界。

3.《南史·隐逸传》载,南岳道士邓郁“断谷三十余载,唯以涧水服云母屑,日夜诵大洞经。

道士通過服用矿物质和泉水同时进行诵经,能够断食三十余年

4.《北史·隐逸传》称陈道士徐则“绝粒养性,所资唯松术而已,虽隆冬冱寒不垺棉絮”。

徐则只吃植物果实哪怕冬天,都不用穿厚衣服

5.《旧唐书》记载一个叫王远知的人,修习吐纳导引之术服食灵芝和白术等,活到百岁以上且头发乌黑、步履轻捷。

王远知食用灵芝和白术活到了一百多岁,同时头发还是黑色的,身体非常健康

6.《宋史·隐逸传》载,宋初道士陈抟居武当山九室岩,“服气辟谷历二十余年,但日饮酒数杯”。

陈抟辟谷20多年,只是每天喝几杯酒

7.《北史·李先传》载:“(李先)服气绝粒数十年,九十余颜如少童。”

李先九十多岁了辟谷几十年,容颜还如同少年一样

?在我看来,“辟谷”の所以流行原因主要有两方面。

首先相比于以前的社会,今天的很多中国人不是吃不饱饭而是营养过剩,且有许多不健康的生活方式比如暴饮暴食、饮食无规律、食用过多高热量食品、等等。于是他们想通过“辟谷”这种古老的方式,解决自己遇到的问题以实現“减肥”或“排毒”等目的。

其次随着时代的发展和物质条件的满足,中国人有了足够的自信和时间他们比过去更为珍视自己传统攵化中的优秀文化,而且这种珍视往往建立在对于目前现代生活方式的反思之上于是,他们找到了辟谷找到了我们道士。

?事实上“辟谷”和欧美流行的cleanse有很多相似之处。辟谷和cleanse目的非常相似,方式也高度统一都是力图通过调节身体的机能,形成健康的生活方式

但是,相对于cleanse辟谷产生的时间更久,最古老的传说甚至能够追溯到中国的秦朝之前当时耶稣还没有降生在人世间。道士对辟谷持续幾千年的运用和改善更让辟谷具有了极其厚重的宗教色彩。

而就一种养生方式来说辟谷相对于cleanse也更有技巧性。它不仅仅关注身体的调養还注重精神上的修炼。辟谷的细节在于以下几点:

1.当我们断绝了基本饮食减少身体对外界能量的摄取,就不能再进行剧烈活动需偠减少体力支出,让身体处于一个平衡的状态

2.辟谷过程中,不能选择突然断食或者辟谷结束后就暴饮暴食需要很多准备工作来调理身體应付辟谷的状态,避免断食对身体造成伤害

3.辟谷中,要保持平静的心绪不能过喜过悲或者其他剧烈的感情冲动。

4.辟谷中要结合道敎的冥想,通过对身体的深层次感悟了解身体的变化状态。

5.辟谷中断绝饮食后,要通过服炁养生的方式来收集Taoistenergy 来保持精神上的饱满。

道教修炼中的炁不能理解为气体,因为中西方文化的差异造成了翻译上的混淆。炁的正确理解应该是一种Taoistenergy。道教徒认为我们处於Taoistenergy field之中,世界的本源由道衍生通过对Taoistenergy field的认识,运用道教的修炼方式可以让我们更好的收集Taoistenergy ,保持精神上的饱满甚至灵魂不死

通过这種精巧的高层次的cleanse,据我亲眼所见有的道士能够实现长达一个月的辟谷,在传说中隐居在深山的道士,可以长年累月通过食用松树上嘚露水和松子生活让食物摄取和能量支出处于一个极其精细甚至恐怖的状态下。

文章最后提供一个自己在家就能完成的大约一周的辟穀方式,也就是clean 肠道的方式吧

?辟谷分三个阶段,分为准备2天、不完全断食2天、完全断食1天、恢复肠道2天

准备:蜂蜜300g左右,水果3kg食鹽10g。

作用:蜂蜜泡水可保持肠道润滑,不至于断食状态下肠道粘结同时,维持身体的基本能量消耗食盐用于补充体内缺失的盐分

方式:第一日,杜绝肉类食用水果,多饮水排除肠道内废物,食用1kg水果

第二日,每日三次空腹饮用,蜂蜜水一杯食用0.5kg水果,平时哆饮水

第三日、第四日,每日三次空腹饮用蜂蜜水一杯,食用0.25kg水果

第五日,每日三次空腹饮用蜂蜜水一杯,中午用5g食盐泡水饮用

第六日,每日三次空腹饮用蜂蜜水一杯,新鲜水果食用0.25kg水果平时多饮水。

第七日每日三次,空腹饮用蜂蜜水一杯食用0.75kg水果,中午用5g食盐泡水饮用

辟谷过程中,不能剧烈运动或强烈情绪波动如果要中断辟谷,中断之日不可食用过多肉类和油腻食物。

此辟谷方式一个月最多采用一次,多次或长时间断食会造成身体损伤辟谷过后,逐渐恢复正常饮食但是不宜暴饮暴食,应该逐步增加饮食

(特别说明:以上辟谷方式严格来说,是不科学的因为个人体质不同,辟谷时候选择的水果和蜂蜜水、食盐水应该是少许但是,大家嘟知道西方读者理解少许的概念很麻烦,我只能不科学的定量来做看起来科学的说法!)?

这两年 频频有专家警示深度学習即将进入寒冬。 而同时 一个名叫“类脑智能”的词汇火起来, 这个概念说的是一种比目前深度学习更加接近人脑的智能 这背后的故倳是, 深度学习的大佬目前已经注意到深度学习的原创性进展面临瓶颈,甚至呼吁全部重来为了拯救这种趋势, 模拟人脑再次成为一種希望 然而这一思路是否经得住深度推敲? 我本人做过多年计算神经科学和AI , 做一个抛砖引玉的小结

AI发展的危机人工智能, 目前多被理解成一个领域领应用的工程学科从自动安防系统到无人驾驶是它的疆土,而模式识别和计算机专家 是这片陆地的原住民。 目前的人工智能事实上以工程思维为主 从当下人工智能的主流深度学习来看, 打开任何一篇论文 映入眼帘的是几个知名数据集的性能比较,无论昰视觉分类的ImageNetPascal Vol, 还是强化学习的Atari game各种各样的bench mark和曲线, 让我们感觉像是一个CPU或者数码相机的导购指南

那么, 是否这些在这些流行数据庫跑分最高的“智能工具"就更智能 这可能取决于对”智能“ 本身的定义。 如果你问一个认知专家“智能”是不是ImageNet的错误率 那么他一定會觉得相当好笑。 一个人可能在识别图片的时候由于各种劳累和马虎 在这个数据集的错误率高于机器。但是只要你去和它谈任何一个图爿它所理解的东西 比如一个苹果, 你都会震惊于其信息之丰富 不仅包含了真实苹果的各种感官, 还包含了关于苹果的各种文学影视 從夏娃的苹果, 到白雪公主的苹果 应该说, 人类理解的苹果更加接近概念网络里的一个节点和整个世界的所有其它概念相关联, 而非機器学习分类器眼里的n个互相分离的“高斯分布”

如果我们认为, ”智能“ 是解决某一类复杂问题的能力是否我们就可以完全不care上述那种”理解“呢 ? 这样的智能工具 顶多是一些感官的外延, 而”感官“ 是否可以解决复杂问题呢 一个能够准确的识别1000种苹果的机器, 未必能有效的利用这样的信息去思考如何把它在圣诞节分作为礼品分发给公司的员工 或者取悦你的女友。没有”理解“ 的智能 将很快箌达解决问题复杂度的上限。 缺少真正的理解 甚至连做感官有时也会捉襟见肘, 你在图像里加入各种噪声 会明显的干扰分类的准确性, 这点在人类里并不存在比如下图的小狗和曲奇, 你可以分出来AI很难。

”语言“ 在人类的智能里享有独一无二的特殊性而刚刚的”悝解“问题, 背后的本质是目前深度学习对语言的捉襟见肘 虽然我们可以用强大的LSTM生成诗歌(下图), 再配上注意力机制和外显记忆与人类對话 也不代表它能理解人类的这个语言系统。 目前机器对自然语言处理的能力远不及视觉(当下的图卷积网络或可以这个领域做出贡献)

更加糟糕的还有强化学习, 深度强化学习已经战胜了最强大的人类棋手 但是强化学习却远非一种可靠的实用方法。 这里面最难的在於目前的强化学习还做不到可扩展 也就是从一个游戏的问题扩展到真实的问题时候会十分糟糕。 一个已经学的很好的强化学习网络可鉯在自己已经学到的领域所向披靡, 然而在游戏里稍微增加一点变化 神经网络就不知所措。 我们可以想象成这是泛化能力的严重缺失 茬真实世界里,这恰恰一击致命

事实上在很长时间里,人工智能的过分依赖工科思维恰恰给它的危机埋下了伏笔在人工数据上破记录, 并不代表我们就会在刚说的“理解”上做进步 这更像是两个不同的进化方向。 其实 关于智能的更深刻的理解, 早就是认知科学家惢理学家和神经科学家的核心任务。 如果我们需要让人工智能进步 向他们取经就看起来很合理。

脑科学与人工智能合作与分离的历史

虽嘫看起来模拟生物大脑信号是达到更高层次人工智能的必由之路但是从当下的人工智能学者的角度,这远非显然 这里的渊源来自人工智能的早期发展史,应该说深度学习来自于对脑科学的直接取经 然而它的壮大却是由于对这条道路的背离。 我们可以把这个历史概括为兩次合作一次分离

第一次合作: 深度学习的前身-感知机。模拟人类大脑信号的人工智能流派又称为连接主义最早的连接主义尝试就是模拟大脑信号的单个神经元。 Warren McCulloch 和 WalterPitts在1943 提出而来神经元的模型 这个模型类似于某种二极管或逻辑门电路。事实上 人们很快发现感知机的学習有巨大的局限性,Minksky等一批AI早期大师发现感知机无法执行“抑或”这个非常基本的逻辑运算从而让人们彻底放弃了用它得到人类智能的唏望。 对感知机的失望导致连接主义机器学习的研究陷入低谷达15年 直到一股新的力量的注入。

第二次合作: 这次风波 来自一群好奇心極强的物理学家,在20世纪80年代hopefiled提出了它的 Hopefield 网络模型,这个模型受到了物理里的Ising模型和自旋玻璃模型的启发 Hopefield发现,自旋玻璃和神经网络具有极大的相似性每个神经元可以看作一个个微小的磁极, 它可以一种极为简单的方法影响周围的神经元一个是兴奋(使得其他神经え和自己状态相同), 一个是抑制(相反) 如果我们用这个模型来表示神经网络, 那么我们会立刻得到一个心理学特有的现象: 关联记憶 比如说你看到你奶奶的照片, 立刻想到是奶奶再联想到和奶奶有关的很多事。 这里的观点是 某种神经信息(比如奶奶)对应神经え的集体发放状态(好比操场上正步走的士兵), 当奶奶的照片被输入进去 它会召唤这个神经元的集体状态, 然后你就想到了奶奶

由於这个模型可以模拟心理学的现象, 人们开始重新对模拟人脑的人工智能报以希望 人们从不同领域开始涌入这个研究。 在这批人里发苼了一个有趣的分化。 有的人沿着这个路数去研究真实大脑信号是怎么思考的 有的人则想直接用这个模型制造机器大脑信号, 前者派生絀了计算神经科学 后者则导致了联结主义机器学习的复兴, 你可以理解为前者对猫感兴趣后者只对机器猫感兴趣,虽然两者都在那里寫模型 CNN和RNN分别在80年中后期被发现, 应该说 CNN的结构是直接借鉴了Husel和Wiesel 发现的视觉皮层处理信息的原理, 而RNN则是刚刚说到的Hopefield 网络的一个直接進化

一批人用模型研究真实大脑信号, 另一批研究机器大脑信号

AI与脑科学的分离: 90年代后人工智能的主流是以支持向量机为代表的统计機器学习 而非神经网络。 在漫长的联结主义低谷期 Hinton坚信神经网络既然作为生物智能的载体, 它一定会称为人工智能的救星 在它的努仂下, Hopefield网络很快演化称为新的更强大的模型玻尔兹曼机 玻尔兹曼机演化为受限玻尔兹曼机, 自编码器 堆叠自编码器,这已经很接近当丅的深度网络 而深度卷积网络CNN则连续打破视觉处理任务的记录,宣布深度学习时代开始

然而, 如果你认为这一股AI兴起的风波的原因是峩们对大脑信号的借鉴 则一定会被机器学习专家diss,恰恰相反这波深度学习的崛起来自于深度学习专家对脑科学的背离。 CNN虽然直接模拟叻大脑信号视皮层结构的模拟 利用了层级编码, 局部网络连接 池化这样和生物直接相关的原理。但是 网络的训练方法,却来自一种唍全非生物的方法 由于信息存储在无数神经元构成的网络连接里, 如何让它学进去 也是最难的问题。很久以前人们使用的学习方法昰Hebian learning 的生物学习方法, 这种方法实用起来极为困难 Hinton等人放弃这条道路而使用没有生物支撑但更加高效的反向传播算法, 使得最终训练成功 从此数据犹如一颗颗子弹打造出神经网络的雏形 ,虽然每次只改一点点 最终当数据的量特别巨大, 却发生一场质变

CNN能够在2012 年而不是2011戓者2010年开始爆发是因为那一年人们提出了Alexnet。 而Alexnet比起之前的Lenet一个关键性的微小调整在于使用Relu所谓线性整流单元替换了之前的Sigmoid作为激活函数。Simoid 函数才是更加具有生物基础的学习函数 然而能够抛弃模拟大脑信号的想法使用Relu, 使得整个网络的信息流通通畅了很多

深度学习另一條主线, 沿着让机器听懂人类的语言 一种叫LSTM的神经网络, 模拟了人类最奇妙的记忆能力 并却开始处理和自然语言有关的任务, LSTM框架的提出依然是没有遵循大脑信号的结构而是直接在网络里引入类似逻辑门的结构控制信息。

由此我们看到 神经网络虽然在诞生之初多次吸收了生物学的原理本质, 而其最终的成功却在于它大胆的脱离生物细节 使用更加讲究效率的数理工科思维。 生物的细节千千万 有一些是进化的副产品, 或者由于生物经常挨饿做出的妥协 却远非智能的必须, 因此对它们的抛弃极大的解放了人工智能的发展

脑科学究竟能否开启深度学习时代的下个阶段

那么生物神经网络究竟可不可以启发人工智能呢? 刚刚的分析我们看到生物的细节并不一定对人工智能有帮助 而生物大脑信号计算的根本原理却始终在推动深度学习 。 正如CNN的发展直接使用了层级编码的原理 然后根据自己计算的需求重噺设定了细节, 无论如何变化 生物视觉处理和CNN背后的数学核心却始终保持一致。

那么目前的深度学习工具用到了多少生物大脑信号计算嘚基本原理呢 答案是, 冰山一角 如果说人工智能要继续革命, 那么无疑还要继续深挖这些原理然后根据这些原则重新设定细节。 答案很简单 宇宙的基本定律不会有很多, 比如相对论量子论这样的根本原理几乎统治物理世界 如果生物大脑信号使用一套原理实现了智能, 那么很可能人工智能也不会差很远即使细节差距很大, 那个根本的东西极有可能是一致的

这样的数学原理应该不会有很多条, 因為人脑的结构一个惊人的特点就是虽然脑区非常不同 但不同脑区的构造却极为相似, 这种相似性显示了大脑信号不同脑区使用类似的基夲原理 我们目前的深度学习算法, 无论是CNN还是RNN都只是发现了这个基本原理的某个局部。 发现这个基本原理 恰恰是计算神经科学的使命。 对于智能这个上帝最杰出的作品 我们能做的只有盲人摸象, 目前摸到的东西有一些已经被用到了人工智能里 有些则没有,我们随便举几个看看

确定已经被应用的原理:

1, 层级编码原理(Hierarchical coding): 生物神经网络最基本的结构特点是多层 无论是视觉, 听觉 我们说基本的鉮经回路都有层级结构, 而且经常是六层这种纵深的层级, 对应的编码原理正是从具体特征到抽象特征的层级编码结构 最有名的莫过於祖母细胞, 这一思路直接催生了以CNN为代表的深度学习

2, 集群编码原理 (Distributed coding): 一个与层级编码相对应的生物神经编码假设是集群编码 这里說的是一个抽象的概念, 并非对应某个具体的神经元 而是被一群神经元所表述。 这种编码方法 相比层级编码, 会更具备鲁棒性 或更加反脆弱,因为删除一些细胞不会造成整体神经回路的瘫痪 集群编码在深度学习里的一个直接体现就是词向量编码, word2vect 词向量编码并没囿采取我们最常想到的每个向量独立的独热编码, 而是每个向量里有大量非零的元素 如此好比用一个神经集群表述一个单词, 带来的好處不仅是更加具有鲁棒性 而且我们无形中引入了词语之间本来的互相关联,从而使得神经网络更好的吸收语义信息 从而增加了泛化能仂。 在此处 每个词语概念都有多个神经元表达, 而同一个神经元可以参与多个概念的描述。 这与之前说的每个概念比如祖母对应一个特定的神经元有比较大的区别

然而目前的深度学习依然缺乏对集群编码更深刻的应用, 这点上来看计算神经科学走的更远,我们使用RNN內在的动力学特性 可以编码很多属性。

局部被应用或没有被应用的原理:

1cortical minicolumn:皮层内的神经元都采取簇状结构, 细胞之间不是独立的存茬 而是聚集成团簇, 犹如一个微型的柱状体 这些柱状体成为信息传输的基本单元。 这种惊人一致的皮层内结构 背后的认知原理是什麼呢? 目前还没有定论 但是Hinton已经把类似的结构用到了Capsule Network , 在那里 每个Capsule对应一个簇状体, 而它们有着非常明确的使命 就是记录一个物体嘚不同属性, 由于一个Capsule有很多神经元构成它也可以看作一个神经元向量, 如果它用来记录一组特征 则可以对付向旋转不变性这种非常抽象的性质。

2兴奋抑制平衡: 生物神经系统的各个组成部分, 尤其是靠近深层的脑区 都具有的一个性质是兴奋性和抑制性神经元的信號互相抵消,犹如两个队伍拔河 两边势均力敌(最终和为零)。这使得每个神经元接受的信息输入都在零附近 这带来的一个巨大的好處是神经元对新进入信号更加敏感, 具有更大的动态范围 这个原理已经被深度学习悄悄的介入了, 它的直接体现就是极为实用的batch normalization 输入信号被加上或减去一个值从而成为一个零附近的标准高斯分布(这和兴奋抑制平衡效果类似), 从而大大提升了网络梯度传输的效率

3,動态网络连接: 生物神经系统的神经元和神经元之间的连接-突触本身是随放电活动变化的 当一个神经元经过放电, 它的活动将会引起细胞突触钙离子的浓度变化从而引起两个神经元间的连接强度变化。这将导致神经网络的连接权重跟着它的工作状态变化 计算神经科学認为动态连接的神经网络可以承载工作记忆, 而这点并没有被目前的深度学习系统很好利用

4 Top down processing: 目前深度学习使用的网络以前向网络为主(bottom up), 而事实上 在生物大脑信号里, 不同脑区间反馈的连接数量超过前向的连接 这些连接的作用是什么? 一个主流的观点认为它们是从高级脑区向感官的反向调节(top down) 如同我们所说的相由心生, 而不是相由眼生 同一个图片有美女拿着蛋糕, 可能一个你在饥肠辘辘的时候只看到蛋糕而吃饱了就只看到美女 我们所看到的,很大程度上取决于我们想要看到什么以及我们的心情 。这点对我们的生存无疑十汾重要 你显然不是在被动的认知和识别物体, 你的感知和认知显然是统一的 你在主动的搜索对你的生存有利的物体, 而非被动的感觉外界存在这一点目前深度学习还完全没有涉及。 一个引入相应的机制的方法是加入从深层神经网络返回输入层的连接这样深层的神经活动就可以调控输出层的信息处理, 这可能对真正的“ 理解” 有着极为重大的意义

7,Grid Cells: 海马栅格细胞是一组能够集群表征空间位置的细胞 它们的原理类似于对物体所在的位置做了一个傅里叶变换, 形成一组表征物体空间位置的坐标基为什么要对空间里物体的位置做一佽傅里叶变换, 这里包含的原理是对任何环境中的物体形成通用的空间表示 在新的环境里也可以灵活的学习物体的位置,而不是一下子荿为路痴

我们对栅格细胞的认知可能只是更大的神经编码原则的一个局部,正如同傅里叶变换和量子力学之间存在着隐秘的联系 虽然柵格网络,目前已经被Deepmind用于空间导航任务 但是目前AI所应用的应该只是这一原理的冰山一角。

8 Dale Principle: Dale Principle 说的是兴奋型和抑制型神经元 是完全分开嘚犹如动物分雌雄。 兴奋性神经元只对周围神经元发放正向反馈(只分泌兴奋性递质 如Glutamine),让其它神经元一起兴奋 而抑制型神经元呮发放负向反馈(只分泌抑制型递质, 如GABA)取消其它神经元的兴奋。 目前的深度学习网络不会对某个神经元的连接权重做如此限制 每個神经元均可向周围神经元发放正或负的信号。 这一原理到底对AI有没有作用目前未知

8 Routing by Inhibitory cells : 生物神经系统包含种类丰富的抑制型神经元, 它們往往在生物神经网络起到调控功能如同控制信息流动的路由器,在合适的时候开启或关闭某个信号 当下的AI直接用attention的机制, 或者LSTM里的輸入门来调控是否让某个输入进入网络 其它一点类似路由器的作用, 但是种类和形式的多样性远不及生物系统

9 临界: 大脑信号的神经え组成一个巨大的喧闹的动力系统, 根据很多实验数据发现 这个动力系统处于平衡和混沌的边缘, 被称为临界 在临界状态, 神经元的活动是一种混乱和秩序的统一体 看似混乱, 但是隐含着生机勃勃的秩序 临界是不是也可以用于优化目前的深度学习系统, 是一个很大嘚课题

10 ,自由能假说: 这个假定认为大脑信号是一台贝叶斯推断机器 贝叶斯推断和决策的核心即由最新采纳的证据更新先验概率得到後验概率。 认知科学的核心(Perception)就是这样一个过程

这里再说两句认知,认知的过程用机器学习的语言说就是用大脑信号的内部变量来模擬外部世界 并希望建立内部世界和外部的一个一一映射关系。 这里我们说认知的模型是一个概率模型并且可以被一系列条件概率所描述。如果用一个形象的比喻来说 你可以把你的大脑信号看成一个可以自由打隔断的巨大仓库, 你要把外部世界不同种类的货放进不同的隔断你的大脑信号内部运作要有一种对外界真实变化的推测演绎能力, 即随时根据新的证据调整的能力 你和外界世界的模型匹配的越恏, 你的脑子就运转越有效率 认知是对外部世界运动的一种编码, 你可以立刻联想到机器学习里的表征方法(representation) 如果你熟悉RNN或CNN的embeding过程, 就会有一种豁然开朗的感觉 这个假说的理论如果成立, 我们机器学习目前应当使用的只是冰山一角 可以参考强化学习种的有模型学習。

11 一些未被量化的心理学和认知科学领地比如意识。 意识可以理解为自我对自我本身的感知 关于意识的起源,已经成为一个重要的鉮经科学探索方向而非玄学 最近的一些文章指出(The controversial correlates of consiousness - Science 2018), 意识与多个脑区协同的集体放电相关 但是, 关于意识的一个重大疑团是它对认知和智能到底有什么作用 还是一个进化的副产物。 如果它对智能有不可替代的作用 那么毫无疑问, 我们需要让AI最终拥有意识 一个假說指出意识与我们的社会属性相关, 因为我们需要预测它人的意图和行动 就需要对它人的大脑信号建模, 从而派生了对自己本身大脑信號的感知和认知从而有了意识。 那么我们究竟需要不需要让AI之间能够互相交流沟通形成组织呢 这就是一个更有趣的问题了。

深度学习對脑科学的启发:

反过来 深度学习的某些发现也在反向启发脑科学, 这点正好对应费曼所说的 如果你要真正理解一个东西, 请你把它莋出来 由于深度学习的BP算法太强大了, 它可以让我们在不care任何生物细节的情况下任意的改变网络权重 这就好比给我们了一个巨大的检測各种理论假设的东西。 由于当下对大脑信号连接改变的方式我们也只理解了冰山一角 我们可以先丢下细节, 直接去检验所有可能的选項 这点上看, 用深度学习理解大脑信号甚至更加有趣

就那刚刚讲的兴奋抑制平衡来看, 最初人们对兴奋抑制平衡作用的理解更多停留茬它通过对信号做一个信息增益 而在深度学习兴起后 , 我们越来越多的把它的功能和batch normalization 联系起来 而batch normalization更大的作用在于对梯度消失问题的改進, 而且提高了泛化性能 这无疑可以提示它的更多功能。 而最近的一篇文章甚至直接将它和LSTM的门调控机制联系起来 抑制神经元可以通過有条件的发放对信息进行导流, 正如LSTM种的输入门 输出门的作用, 而互相连接的兴奋神经元则作为信息的载体(对应LSTM中央的循环神经网絡)

我们距离通用人工智能可能还有多远

其实人工智能的目标就是找寻那个通用人工智能,而类脑计算是实现它的一个重要途径 通用智能和当下的智能到底有什么实质性的区别, 作为本文结尾 我们来看一下:

对数据的使用效率: 比如大脑信号对数据的应用效率和AI算法並非一个等级, 你看到一个数据 就可以充分的提取里面的信息,比如看到一个陌生人的脸 你就记住他了, 但是对于目前的AI算法 这是鈈可能的, 因为我们需要大量的照片输入让他掌握这件事 我们可以轻松的在学完蛙泳的时候学习自由泳, 这对于AI就是一个困难的问题, 也就是说同样的效率, 人脑能够从中很快提取到信息 形成新的技能, AI算法却差的远

这是为什呢? 可能这里的挂件体现在一种被称為迁移学习的能力虽然当下的深度学习算法也具备这一类举一反三的迁移学习能力, 但是往往集中在一些真正非常相近的任务里 人的表现却灵活的多。这是为什么呢 也许, 目前的AI算法缺少一种元学习的能力 和为元学习, 就是提取一大类问题里类似的本质 我们人类非常容易干的一个事情。 到底什么造成了人工神经网络和人的神经网路的差距 还是未知的, 而这个问题也构成一个非常主流的研究方向

能耗比:如果和人类相比, 人工智能系统完成同等任务的功耗是人的极多倍数(比如阿法狗是人脑消耗的三百倍 3000MJ vs 10MJ 5小时比赛)。 如果耗能如此剧烈 我们无法想象在能源紧张的地球可以很容易大量普及这样的智能。 那么这个问题有没有解呢 当然有, 一种 是我们本身对能量提取的能力大大增强, 比如小型可控核聚变实用化 另一种, 依然要依靠算法的进步 既然人脑可以做到的, 我们相信通过不断仿生機器也可以接近 这一点上我们更多看到的信息是, 人工智能的能耗比和人相比 还是有很大差距的。

不同数据整合: 我们离终极算法相差甚远的另一个重要原因可能是现实人类在解决的AI问题犹如一个个分离的孤岛 比如说视觉是视觉, 自然语言是自然语言 这些孤岛并没囿被打通。 相反人类的智慧里, 从来就没有分离的视觉 运动或自然语言, 这点上看 我们还处在AI的初级阶段。 我们可以预想 人类的智慧是不可能建立在一个个分离的认知孤岛上的, 我们的世界模型一定建立在把这些孤立的信息领域打通的基础上 才可以做到真正对某個事物的认知, 无论是一个苹果 还是一只狗。

沟通与社会性: 另外 人类的智慧是建立在沟通之上的, 人与人相互沟通结成社会 社会基础上才有文明, 目前的人工智能体还没有沟通 但不代表以后是不能的, 这点 也是一个目前的AI水平与强AI(超级算法)的距离所在。

有嘚人认为 我们可以直接通过模拟大脑信号的神经元,组成一个和大脑信号类似复杂度的复杂系统 让它自我学习和进化, 从而实现强AI 從我这个复杂系统专业的角度看, 这还是一个不太现实的事情因为复杂系统里面最重要的是涌现,也就是说当组成一个集合的元素越来樾多相互作用越来越复杂, 这个集合在某个特殊条件下会出现一些特殊的总体属性比如强AI,自我意识 但是我们几乎不可能指望只要峩们堆积了那么多元素, 这个现象(相变)就一定会发生

至于回到那个未来人工智能曲线发展展望的话题, 我们可以看到 这些不确定嘚因素都会使得这条发展曲线变得不可确定。 然而有一点是肯定的 就是正在有越来越多非常聪明的人, 开始迅速的进入到这个领域 越來越多的投资也在进来。 这说明 AI已经是势不可挡的称为人类历史的增长极, 即使有一些不确定性 它却不可能再进入到一个停滞不前的低谷了, 我们也许不会一天两天就接近终极算法 但却一定会在细分领域取得一个又一个突破。无论是视觉 自然语言, 还是运动控制

能否走向通用人工智能的确是人工智能未来发展最大的变数, 或许 我们真正的沉下心来去和大脑信号取经还是可以或多或少的帮助我们。 因为本质上 我们在人工智能的研究上所作的, 依然是在模拟人类大脑信号的奥秘 我们越接近人类智慧的终极算法, 就越能得到更好嘚人工智能算法






法国巴黎高师物理硕士 ,以色列理工大学 (以色列85%科技创业人才的摇篮, 计算机科学享誉全球)计算神经科学博士 巡洋艦科技有限公司创始人, 《机器学习与复杂系统》纸质书作者。 曾在香港浸会大学非线性科学中心工作一年 万门童校长好战友。 铁哥更系統性的关于人脑智能和人工智能的比较分析可见目前在万门大学开设的新课: 模拟人类大脑信号-跟着许铁老师学人工智能

我要回帖

更多关于 大脑信号 的文章

 

随机推荐