应用办公生活信息教育商业
投稿投诉
商业财经
汽车智能
教育国际
房产环球
信息数码
热点科技
生活手机
晨报新闻
办公软件
科学动态
应用生物
体育时事

神经网络的发展历程

  神经网络的发展,迄今经历了三个周期,包括三次高潮和两次低谷。第一个周期(19431986),感知器时代。
  从1943年McCullochPitts(MP)模型作为开端、1957年感知器的提出为标志性高潮起点,到1969年Minsky的《感知器》一书提出批判进入低谷,酝酿期14年,高潮期12年,之后低谷期17年。第二个周期(19862012),BP算法时代。
  以1986年误差反向传播(BP)算法为标志性高潮起点,并没有明确进入低谷的标志性事件,一般认为在1995年前后进入低谷。高潮期是9年,之后低谷期也是17年真是一种历史的巧合。第三个周期(2012年至今),深度学习时代。
  以2012年深度学习在ImageNet竞赛大获全胜为标志性高潮起点,到现在还在高潮期中,尚未进入低谷。
  (以上的周期年份,主要是对于美国的学术界而言,而在中国,以前会滞后几年,不过在最近一个周期里,中美两国已经基本同步发展了。)
  神经网络的发展史上,反复出现极高的期待极度的怀疑这种震荡。
  在1991年(第二个高潮的巅峰)《终结者2》电影中,施瓦辛格扮演的终结者机器人也说:我的CPU是一个神经网络处理器,一个会学习的计算机。(MyCPUisaneuralnetprocessor。。。alearningcomputer。)那时候没人能想到,仅仅4年之后这个领域就凉了,神经网络遇到了自己的终结者。
  《终结者2:审判日》电影海报第一代终结者:异或问题
  1969年,人工智能之父Minsky(和SeymourPapert)在《感知器》(Perceptrons)一书里给感知器判了死刑。Minsky的逻辑是:
  (1)一层感知器只能解决线性问题;
  (2)要解决非线性问题(包括分段线性问题),比如异或(XOR)问题,我们需要多层感知器(MLP);
  (3)但是,我们没有MLP可用的训练算法。
  (4)所以,神经网络是不够实用的。
  1969年,Minsky和Papert发表Perceptrons,其狭义科学分析通过广义文学语言的描述封杀了神经网络研究十余年,将人工智能研究推入第二个冬天。
  这是一本非常严谨的专著,影响力很大。一般的读者未必能理解书中的推理及其前提限制,可能就会得到一个简单的结论:神经网络都是骗人的。
  这并不意味着Minsky本人看衰人工智能领域,实际上1967年他说:
  一代人内创建人工智能的问题就会被事实上解决掉。
  MarvinLeeMinsky(1927年8月9日2016年1月24日),美国科学家,专长于认知科学与人工智能领域,1969年,因为在人工智能领域的贡献获得图灵奖。图片来源:维基百科,拍摄者:Sethwoodworth
  这里可能还有另外一个因素:在那个时候,他是很看好与神经网络竞争的符号主义和行为主义的方法的,比如框架方法、微世界方法等,他后面也转向心智与主体理论的研究,所以《感知器》这本书观点的形成可能也有路线之间竞争的因素。
  但很不幸的是,无论是1967年他对AI过于乐观的展望,还是1969年他(事后看)对连接主义方法过于悲观的判断,都对1973年AI进入全面的冬天起到了推波助澜的作用。这是极高的期待导致极度的怀疑的第一次案例当然并不是最后一次。
  说1969年《感知器》的观点事后看过于悲观,是因为在Minsky写这本书的时候,问题的答案误差反向传播(BP)算法其实已经出现了,虽然直到1974年PaulWerbos在博士论文中才把它引入了神经网络。只是要再等十几年,这个算法才被几个小组再次独立发现并广为人知。
  无独有偶,1995年前后神经网络再次进入低谷的时候,后来深度学习的那些雏形在20世纪80年代末其实已经出现了,也同样需要再花二十年才能被主流认知。
  不管是不是合理,神经网络与它的其他AI难兄难弟一起,进入了一个漫长的冬天。当时研究经费的主要来源是政府,但这之后十几年几乎没有政府资助再投入神经网络。20世纪70年代到80年代初,AI退守的阵地主要是符号主义的专家系统。第二周期的复兴:BP算法
  1986年,DavidRumelhart、GeoffreyHinton和RonaldWilliams发表了著名的文章Learningrepresentationsbybackpropagatingerrors(《通过误差反向传播进行表示学习》),回应了Minsky在1969年发出的挑战。尽管不是唯一得到这个发现的小组(其他人包括Parker,1985;LeCun,1985),但是这篇文章本身得益于其清晰的描述,开启了神经网络新一轮的高潮。
  BP算法是基于一种简单的思路:不是(如感知器那样)用误差本身去调整权重,而是用误差的导数(梯度)。
  如果我们有多层神经元(如非线性划分问题要求的),那只要逐层地做误差的反向传播,一层层求导,就可以把误差按权重分配到不同的连接上,这也即链式求导。为了能链式求导,神经元的输出要采用可微分的函数,如s形函数(sigmoid)。
  在20世纪80年代的时候,一批新的生力军物理学家也加入了神经网络的研究阵地,如JohnHopfield、HermannHaken等。在计算机科学家已经不怎么搞神经网络的20世纪80年代早期,这些物理学家反而更有热情。
  与第一周期中常见的生物学背景的科学家不同,物理学家给这些数学方法带来了新的物理学风格的解释,如能量势函数吸引子吸引域等。对于上述链式求导的梯度下降算法,物理学的解释是在一个误差构成的能量函数地形图上,我们沿着山坡最陡峭的路线下行,直到达到一个稳定的极小值,也即收敛点。
  梯度下降法可以找到局部最小值
  图片来源:https:commons。wikimedia。orgwindex。php?curid2276449,作者:KSmrq
  1989年,GeorgeCybenko证明了万能近似定理(universalapproximationtheorem),从表达力的角度证明了,多层前馈网络可以近似任意函数(此处表述忽略了一些严谨的前提细节)。进一步的理论工作证明了,多层感知器是图灵完备的,即表达力和图灵机等价。这就从根本上消除了Minsky对神经网络表达力的质疑。后续的工作甚至表明,假如允许网络的权重是所谓不可计算实数的话,多层前馈网络还可以成为超图灵机虽然这没有现实工程意义,不过足以说明神经网络强大的表达力。
  BP算法大获成功,引起了人们对连接主义方法的极大兴趣。数以百计的新模型被提出来,比如Hopfield网络、自组织特征映射(SOM)网络、双向联想记忆(BAM)、卷积神经网络、循环神经网络、玻尔兹曼机等。物理学家也带来了很多新方法和新概念,如协同学、模拟退火、随机场、平均场和各种从统计物理学中借鉴过来的概念。其实后来深度学习复兴时代的很多算法,都是在那时候就已经被提出来了。
  回看20世纪80年代,你也许会发现今天探索过的很多想法当时都探索过,诸如自动控制、股市预测、癌症诊断、支票识别、蛋白质分类、飞机识别,以及非常多的军事应用等,都有成功的案例这是20世纪60年代那一波未曾见的。因为有了这些可商业落地的应用,大量风险投资也加入进来,从而摆脱了单纯依靠政府资助发展的模式。
  可以说,在那个时代,神经网络已经是大数据驱动的了。相比美好的承诺,新一代神经网络速度慢的缺点(这来自于大量的求导计算)也就不算什么了。而且出现了大量用硬件加速的神经网络正如今天专用于深度学习的AI芯片。
  Google专为深度学习框架TensorFlow设计的AI芯片专用集成电路(TPU3。0),拍摄者:Zinskauf
  大量的公司去设计并行计算的神经网络,IBM、TI都推出了并行神经计算机,还有ANZA、Odyssey、Delta等神经计算协处理器,基于光计算的光学神经网络,等等。甚至Minsky本人都创办了一家并行计算人工智能公司ThinkingMachines,产品名也充满暗示地叫连接机(蹭连接主义的名气)。和今天一样,也几乎每天都有头条,每一天都看起来更加激动人心,眼前的困难都可以被克服。
  短短几年之内,极度的怀疑反转为(又一次的)极高的期待,以至于在之前引用的《科学家》1988年文章神经网络初创企业在美国激增中也表达了对这种期待的担心:
  神经网络在金融领域如此之热,以至于有些科学家担心人们会上当。斯坦福大学教授、有三十年神经网络经验的BernardWidrow说:一些商业神经网络公司的信誓旦旦可能会把这个行业带入另一个黑暗时代。
  Widrow也是在Minsky的影响下进入AI领域的,后来加入斯坦福大学任教。他在1960年提出了自适应线性单元(Adaline),一种和感知器类似的单层神经网络,用求导数方法来调整权重,所以说有三十年神经网络经验并不为过。不过,当时他认为神经网络乃至整个人工智能领域风险有点高,于是他转向了更稳妥的自适应滤波和自适应模式识别研究。
  顺便说一句,自适应滤波的很多方法在数学上和神经网络方法是相通的,甚至只是换了个名字,比如Widrow著名的最小均方误差(LMS)方法在后来的神经网络研究中也广为应用。我们在神经网络的起起伏伏中经常看到这样的现象(后面还会举更多的例子):
  当领域进入低谷,研究人员换了个名字继续进行研究。甚至1986年神经网络复兴的时候,Rumelhart编的那本论文集并没有叫神经网络,而是并行分布式处理(ParallelDistributedProcessing)这个低调的名字。
  当领域进入高潮,那些潜伏的研究再次回归本宗当然,很多原本不在其中的方法也会来搭便车。例如,支持向量机(SVM)方法虽然在20世纪60年代就有了,在20世纪90年代复兴的时候,采用的名字却是SupportVectorNetwork,以神经网络的面貌出现,直到神经网络进入低谷才把Network去掉。
  回到19861995年这段时间,什么都要和神经网络沾边才好发表。比如,那时候CNN不是指卷积神经网络(ConvolutionalNeuralNetwork),而是细胞神经网络(CellularNeuralNetwork)一种并行硬件实现的细胞自动机,尽管这种算法本来和神经网络没有太大关系。顺便提一句,它的发明人是虎妈(蔡美儿)的父亲蔡少棠。第二代终结者:收敛速度与泛化问题
  神经网络从飞龙在天到亢龙有悔,也只花了几年时间,就又遇到了第二代终结者。有趣的是,第二代终结者的出现本身又是为了解决第一代终结者问题而导致的。
  异或问题本质上是线性不可分问题。为了解决这个问题,在网络里引入非线性,以及将这些非线性函数组合的参数化学习方法(BP算法等)。但是这样复杂的高维非线性模型,在计算上遇到了很多挑战,基本上都是和链式求导的梯度算法相关的。
  首先就是慢。训练一个规模不算很大的神经网络花上几天时间是很正常的,在中国就更艰苦了。1998年在读研究生时我得到的第一台计算机是一台486,在那上面运行MATLAB的神经网络程序,隐藏层节点都不敢超过20个。
  为什么这么慢呢?全连接的前馈网络,参数空间维数大幅增加,导致了维度灾难(TheCurseofDimensionality),参数组合的数量呈指数增长,而预测的精度与空间维数的增加反向相关,在20世纪90年代有限的算力支持下,规模稍大的问题就解决不了了。
  万能近似定理虽然说明了我们可以逼近任意函数,但是并不保证有一个训练算法能够学习到这个函数。虽然后来我们知道,同样的神经元数量,多隐层会比单隐层收敛得更快(虽然单隐层和多隐层在表达力上对于连续函数没区别),但是那时候由于不能解决梯度消失的问题(后面还会讲到),很少人会用多隐层。所以,神经网络内在的结构性是不好的。那时候也有很多打补丁的方法,比如,通过进化神经网络来寻找最优节点结构,或者自适应步长迭代,等等,但事后看,都是些治标不治本的方法。
  维度灾难的另一个后果是泛化问题。比如训练一个手写数字识别器,稍微变化一下图像可能就识别不了了。这个问题的原因是误差求导是在一个高维空间里,目标函数是一个多峰值和谷底的非线性函数,这就导致了梯度下降迭代终点(吸引子)往往不一定是希望找到的结果(全局最优解)。甚至,有些迭代终点根本不是任何目标模式,称为伪模式或者伪状态。
  Hinton在2015年的一个教程里也总结了基于BP的前馈网络的问题。
  (1)数据:带标签的数据集很小,只有现在(2015)的千分之一。
  (2)算力:计算性能很低,只有现在(2015)的百万分之一。
  (3)算法:权重的初始化方式和非线性模型错误。
  后来,数据问题和算力问题被时间解决了,而算法问题早在2006年前后就被解决了(即深度学习革命)。
  回到1995年,那时大家并没有Hinton在20年后的这些洞见,但是也能意识到神经网络的这些问题很难解决。再一次,极高的期待导致极度的怀疑,未能兑现的承诺导致了资金的快速撤离和学术热情的大幅下降。几乎所有的神经网络公司都关门了至少有300家AI公司,包括Minsky的ThinkingMachines(1994)也关门了。
  陈列在美国国家密码博物馆的ThinkingMachinesCorporation宣传海报
  这时候恰好出现了基于统计机器学习的其他竞争方法,导致大家逐渐抛弃了神经网络而转向统计机器学习,如支持向量机(SVM)、条件随机场(CRF)、逻辑回归(LR回归)等。其实这些方法也都和神经网络有千丝万缕的联系,可以证明与某些特定的网络等价,但是相对简单、快速,加上出现了一些成熟的工具,到20世纪90年代后期在美国就成为主流了。
  这里只对SVM做一下分析。1963年SVM刚出现的时候,和单层感知器一样,都只能处理线性分类问题。两者后来能处理非线性问题,本质都是对原始的数据进行了一个空间变换,使其可以被线性分类,这样就又可以用线性分类器了,只是两者对如何做空间变换途径不同:对于神经网络,是用隐藏层的矩阵运算,使得数据的原始坐标空间从线性不可分转换成了线性可分;对于SVM,是利用核函数来完成这个转换的。
  1995年,由VladimirVapnik(LeCun在贝尔实验室的同事)等人以SupportVectorNetwork的名义发布了改进后的SVM,很快就在多方面体现出了相较于神经网络的优势:无需调参,速度快,全局最优解,比较好地解决了上述BP算法的问题,很快就在算法竞争中胜出。因此,虽然第二次神经网络进入低谷没有一个标志性事件,但是一般认为Vapnik发表SupportVectorNetwork这篇文章的1995年可以算转折点。
  SVM到底算不算神经网络的一种呢?其实线性的SVM和线性的感知器是等价的。两者都是从线性模型到深度学习之间过渡,即:线性模型;线性SVM单层感知器;非线性核SVM多层感知器;深度学习。
  只是,SVM以牺牲了一点表达力灵活性(通常核函数不是任意的)为代价,换来了实践上的诸多方便。而神经网络在之后的17年里,逐渐从主流学术界消失了,直到跌到了鄙视链的最下面。据说Hinton从20世纪90年代到2006年大部分投稿都被会议拒掉,因为数学(相比统计机器学习)看起来不够fancy(新潮)。
  20世纪90年代中期到2010年左右在整体上被认为是第二个AI冬天,神经网络无疑是其中最冷的一个分支。值得一提的是,这段时间内互联网兴起,连带导致机器学习方法和语义网方法的兴起,算是这个寒冬里两个小的局部春天。不过在这个神经网络潜龙勿用的第二个蛰伏期,有些学者依然顽强坚持着,转机又在慢慢酝酿。第三周期的复兴:深度学习
  GeoffreyHinton、YoshuaBengio和YannLeCun获得2018年图灵奖是众望所归。
  GeoffreyHinton,YoshuaBengio,YannLeCun(从左至右),拍摄者:EviatarBach,JrmyBarande
  在那漫长的神经网络的第二个冬天里,正是他们的坚持才迎来了第三周期的复兴,而且势头远远大于前面两次。其中,Hinton是1986年和2006年两次里程碑式论文的作者,也是BP算法和玻尔兹曼机的提出者;Bengio在词嵌入与注意力机制、生成式对抗网络、序列概率模型上有贡献;LeCun独立发现并改进了BP算法,发明了卷积神经网络。
  下篇
  《神经网络简史(下)会有第三代(深度学习)终结者吗?》
  本文为文因互联CEO鲍捷为《深度学习导论》一书作序
  作者:〔美〕尤金查尔尼克(EugeneCharniak)人工智能经典入门书美国常青藤名校经典教材理论与实战结合的良好典范附带习题和答案
  本书讲述了前馈神经网络、Tensorflow、卷积神经网络、词嵌入与循环神经网络、序列到序列学习、深度强化学习、无监督神经网络模型等深度学习领域的基本概念和技术,通过一系列的编程任务,向读者介绍了热门的人工智能应用,包括计算机视觉和自然语言处理等。
  本书编写简明扼要,理论联系实践,每一章都包含习题以及补充阅读的参考文献。
  本书既可作为高校人工智能课程的教学用书,也可供从业者入门参考。
  神经网络今日头条小助手头条创作挑战赛让AI触手可及

一年卖20万条的秘制烤羊腿制作配方(全套流程)烤羊腿这个品相还是很具备市场竞争力的。最起码出餐就打败了很多小烧烤,所以,这个菜还是很具备下啤酒的潜力的。今天给熊猫带来的是一家在东北年售二十万条的爆款烤羊腿配方。……超模顶流,曾连续15年成为世界上收入最高的模特头条创作挑战赛2016年里约奥运会,作为巴西国宝超模出场的吉赛尔邦辰,她的出现就像是天神下凡,独自一人走完了长长的一百米,吸引了全世界的目光!说起吉娘娘吉赛尔邦辰,她无疑……城投四大天王东镇江西遵义南湘潭北大连凡是搞信用债的,没有人不知道城投;凡是搞城投的,没有人不知道城投四大天王。东镇江、西遵义、南湘潭、北大连,城投四大天王威震信用债江湖,胆小的避而远之,胆大的赚得盆满钵满!……人保财险邹平支公司荣获服务企业贡献奖6月16日,邹平市委、市政府举行首届邹平市企业家大会暨邹平市优秀企业旗帜广场升旗仪式,经过综合评价,人保财险滨州邹平支公司荣获服务企业贡献奖,是唯一一家保险单位获此殊荣。……好货不怕晚,4999元起步,GPDWIN4这配置够顶,你会蹲近日,玩家们所关心的GPDWIN4又放出了延迟的消息。前期WIN4预售时间定在了12月底,计划预售时间为45天,原本可以做到年前预售和发货,保证用户春节前能拿到手,但基于当前疫……开始反噬美企,美芯片巨头无奈宣布,外媒华为这步走对了头条创作挑战赛阅读下面文章之前,希望您能够在上方点个免费的关注!接下来您每天都能够收到免费的国际资讯哟!您的关注是我的动力多多支持下嘛!!美国过度管控芯片的后果来了……有哪些瞬间,让你感受到孩子很爱很爱你?在某平台上看到这样的一个问题:有哪些瞬间,让你感受到孩子很爱很爱你?作为一个家有3岁的男宝星仔的妈妈,看到这个题目忍不住回想生活的点滴。不到3岁的孩子,会向我们表达爱了吗?答案……亚洲三雄一个比一个惊喜!快速进步原因何在?我们到底错在哪?韩国0比0乌拉圭,亚洲球队都在进步,可喜可喜!沙特把阿根廷打得没了脾气,日本让德国颜面扫地,韩国逼平乌拉圭虽有运气,但已能正面对抗,进步名副其实!悄然间我们已落后太多!1……76人飙10记三分,一度领先19分!哈登7中1低迷,里弗斯变北京时间10月30日,NBA常规赛继续展开,76人背靠背客场挑战公牛。上一场缺少恩比德,76人客场大胜猛龙,势头上还是非常不错的。这次一上来就占据着场上主动,一度建立起19分的……喜迎二十大我们的新时代丨把幼儿园建到百姓家门口于先生一家5年前搬到长春净月高新区,小区周边配套设施齐全,唯独缺少幼儿园。去年,离家200米远的天泽幼儿园开园,这可把他乐坏了。幼儿园是公立的,老师和保育员都有丰富的工作经验,……北京五日游,自由行(经验攻略)之第四天北京旅游D4颐和园和圆明园、国贸大厦一、颐和园:1、出发安排:早晨6点16分起床、7点宾馆早餐、7点半出发。宾馆到车站的路上,找家便利店买好干粮(午餐)……地球内部能量逐渐消失?科学家地球内核正加速冷却,出乎意料和人类一样,宇宙中任何星球都是拥有一定的寿命,这也是为什么会有人担心地球未来的主要原因。地球年龄逐渐增加,如今已是46亿高龄的小孩了,对于星球来说,亿年生命都是短暂的,所以地球……
两情若是长久时,又岂在朝朝暮暮人生的路上,我们遇见过很多人,也曾感受过所有的人。有时候,觉得两个人在一起很幸福,像是两个世界都是他喜欢的模样;有时也觉得自己的另一半有些矫情。两个人相处了很久以后,我们会发现……国庆怎么玩?这份有福之州畅享攻略请收下国庆节将至,在做好疫情防控工作的前提下,全市文旅部门联动相关文旅企业,以有福之州畅享国庆为主题,策划推出欢乐榕城艺趣榕城惠享榕城畅游榕城四大文旅板块,为市民和游客的假期文旅生活……工信部加快突破智能语音关键核心技术做大做强中国声谷【工信部:加快突破智能语音关键核心技术做大做强中国声谷】财联社9月23日电,近日,工业和信息化部、安徽省人民政府在合肥市召开部省共同推进安徽智能语音产业发展领导小组会议。会议表……锐龙7000的御驾,谁把B650做得比X670E还奢华,只此对于玩家来说,谁都没想到这两天处理器、显卡市场会如此的天翻地覆,先是AMD首先放大招,一招台积电5nm工艺的AM5率先冲上前台,为了方便大家对AM5锐龙97900X和锐龙777……买手机选苹果还是华为?听听内行人的建议,答案果不其然手机已经是生活中必备的通讯和娱乐工具,很多年轻用户选购手机时都会选择高端机,运行游戏流畅、出门拍照清晰,同时还可以在朋友面前逼格一把,国内高端手机品牌中,苹果和华为成为很多朋友……总有人三十多岁了,还在惦记着十六七岁时遇见的人头条创作挑战赛你有没有遇到这样一个人贯穿着整个青春岁月从此年年岁岁不能忘01hr自你之后,再也没有让我心动的人了有时候不应该自欺欺人你以为的……这种食物是孩子长高路上的拦路虎,多吃会偷走孩子的身高孩子明明不挑食,吃饭吃的也挺多的,但为什么就是不长高呢?很多家长可能都会存在这样的问题,自己的孩子平时的饮食情况非常好,但就是比同龄人个子矮,这让很多家长都非常的郁闷。夏……红色警戒2新手入门热键教程用于新手游戏入门参考控制热键部署对象部队:D警戒目前区域:G移动攻击点选部队按下CtrlShift点选部队或区域散开:X强制开火:按住Ctrl键,用光标指示目标,再左击强制移动……科学家开发新型纳米涂层仅用一小时就能杀死99。7的细菌根据一项新研究,一种比现有配方更快更多地杀灭细菌的新型铜涂层可能在不久的将来可用于医院和其他高人流量的公共场所。尽管目前由纯铜组成的配方是抗菌和自我消毒的,但它们对某些形式的细……出手距离越来越远,现代篮球更像是一场投篮比赛没有了激烈对抗,没有了篮下的肉搏,没有了精彩的突破上篮,更没有了曾经的每球必争,当下的篮球更像是一场三分大赛或者说投篮比赛。在小球时代之前的时候,各支球队立足的根本是防守……1分之差,中超榜首之争悬念再起极目新闻记者徐平10月5日晚,在2022赛季中超联赛第21轮的一场焦点战中,凭借郑铮终场前的绝杀,山东泰山队以2:1战胜梅州客家队,在抢下三分的同时,再度逼近了排名榜首的……9月销量突破20万辆!比亚迪登顶销量榜,大众丰田要慌?Hello大家早上好!假期过得总是比工作日更快一些,一转眼7天长假已经结束了,迎接我们的将是连续7天的工作日,希望大家能尽快调整好心态。当我们还沉浸在假期的时候,比……
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网