应用办公生活信息教育商业
投稿投诉
商业财经
汽车智能
教育国际
房产环球
信息数码
热点科技
生活手机
晨报新闻
办公软件
科学动态
应用生物
体育时事

通俗易懂的卷积神经网络

  1人工神经网络1。1神经元
  神经网络由大量的神经元相互连接而成。每个神经元接受线性组合的输入后,最开始只是简单的线性加权,后来给每个神经元加上了非线性的激活函数,从而进行非线性变换后输出。每两个神经元之间的连接代表加权值,称之为权重(weight)。不同的权重和激活函数,则会导致神经网络不同的输出。
  举个手写识别的例子,给定一个未知数字,让神经网络识别是什么数字。此时的神经网络的输入由一组被输入图像的像素所激活的输入神经元所定义。在通过非线性激活函数进行非线性变换后,神经元被激活然后被传递到其他神经元。重复这一过程,直到最后一个输出神经元被激活。从而识别当前数字是什么字。
  神经网络的每个神经元如下
  基本wxb的形式,其中
  、
  表示输入向量
  、
  为权重,几个输入则意味着有几个权重,即每个输入都被赋予一个权重b为偏置biasg(z)为激活函数a为输出
  如果只是上面这样一说,估计以前没接触过的十有八九又必定迷糊了。事实上,上述简单模型可以追溯到20世纪5060年代的感知器,可以把感知器理解为一个根据不同因素、以及各个因素的重要性程度而做决策的模型。
  举个例子,这周末北京有一草莓音乐节,那去不去呢?决定你是否去有二个因素,这二个因素可以对应二个输入,分别用x1、x2表示。此外,这二个因素对做决策的影响程度不一样,各自的影响程度用权重w1、w2表示。一般来说,音乐节的演唱嘉宾会非常影响你去不去,唱得好的前提下即便没人陪同都可忍受,但如果唱得不好还不如你上台唱呢。所以,我们可以如下表示:
  :是否有喜欢的演唱嘉宾。
  1你喜欢这些嘉宾,
  0你不喜欢这些嘉宾。嘉宾因素的权重
  7
  :是否有人陪你同去。
  1有人陪你同去,
  0没人陪你同去。是否有人陪同的权重
  3。
  这样,咱们的决策模型便建立起来了:g(z)g(
  b),g表示激活函数,这里的b可以理解成为更好达到目标而做调整的偏置项。
  一开始为了简单,人们把激活函数定义成一个线性函数,即对于结果做一个线性变化,比如一个简单的线性激活函数是g(z)z,输出都是输入的线性变换。后来实际应用中发现,线性激活函数太过局限,于是人们引入了非线性激活函数。1。2激活函数
  常用的非线性激活函数有sigmoid、tanh、relu等等,前两者sigmoidtanh比较常见于全连接层,后者relu常见于卷积层。这里先简要介绍下最基础的sigmoid函数。
  sigmoid的函数表达式如下
  其中z是一个线性组合,比如z可以等于:b
  。通过代入很大的正数或很小的负数到g(z)函数中可知,其结果趋近于0或1。
  因此,sigmoid函数g(z)的图形表示如下(横轴表示定义域z,纵轴表示值域g(z)):
  也就是说,sigmoid函数的功能是相当于把一个实数压缩至0到1之间。当z是非常大的正数时,g(z)会趋近于1,而z是非常小的负数时,则g(z)会趋近于0。
  压缩至0到1有何用处呢?用处是这样一来便可以把激活函数看作一种分类的概率,比如激活函数的输出为0。9的话便可以解释为90的概率为正样本。
  举个例子,如下图(图引自Stanford机器学习公开课)
  zb
  ,其中b为偏置项假定取30,
  、
  都取为20
  如果
  0
  0,则z30,g(z)1(1ez)趋近于0。此外,从上图sigmoid函数的图形上也可以看出,当z30的时候,g(z)的值趋近于0如果
  0
  1,或
  1
  0,则zb
  302010,同样,g(z)的值趋近于0如果
  1
  1,则zb
  3020120110,此时,g(z)趋近于1。
  换言之,只有
  和
  都取1的时候,g(z)1,判定为正样本;
  或
  取0的时候,g(z)0,判定为负样本,如此达到分类的目的。
  1。3神经网络
  将下图的这种单个神经元
  组织在一起,便形成了神经网络。下图便是一个三层神经网络结构
  上图中最左边的原始输入信息称之为输入层,最右边的神经元称之为输出层(上图中输出层只有一个神经元),中间的叫隐藏层。
  啥叫输入层、输出层、隐藏层呢?输入层(Inputlayer),众多神经元(Neuron)接受大量非线形输入讯息。输入的讯息称为输入向量。输出层(Outputlayer),讯息在神经元链接中传输、分析、权衡,形成输出结果。输出的讯息称为输出向量。隐藏层(Hiddenlayer),简称隐层,是输入层和输出层之间众多神经元和链接组成的各个层面。如果有多个隐藏层,则意味着多个激活函数。
  同时,每一层都可能由单个或多个神经元组成,每一层的输出将会作为下一层的输入数据。比如下图中间隐藏层来说,隐藏层的3个神经元a1、a2、a3皆各自接受来自多个不同权重的输入(因为有x1、x2、x3这三个输入,所以a1a2a3都会接受x1x2x3各自分别赋予的权重,即几个输入则几个权重),接着,a1、a2、a3又在自身各自不同权重的影响下成为的输出层的输入,最终由输出层输出最终结果。
  上图(图引自Stanford机器学习公开课)中
  表示第j层第i个单元的激活函数神经元
  表示从第j层映射到第j1层的控制函数的权重矩阵
  此外,输入层和隐藏层都存在一个偏置(biasunit),所以上图中也增加了偏置项:x0、a0。针对上图,有如下公式
  此外,上文中讲的都是一层隐藏层,但实际中也有多层隐藏层的,即输入层和输出层中间夹着数层隐藏层,层和层之间是全连接的结构,同一层的神经元之间没有连接。
  2卷积神经网络之层级结构
  cs231n课程里给出了卷积神经网络各个层级结构,如下图
  上图中CNN要做的事情是:给定一张图片,是车还是马未知,是什么车也未知,现在需要模型判断这张图片里具体是一个什么东西,总之输出一个结果:如果是车那是什么车
  所以最左边是数据输入层,对数据做一些处理,比如去均值(把输入数据各个维度都中心化为0,避免数据过多偏差,影响训练效果)、归一化(把所有的数据都归一到同样的范围)、PCA白化等等。CNN只对训练集做去均值这一步。
  中间是CONV:卷积计算层,线性乘积求和。RELU:激励层,上文2。2节中有提到:ReLU是激活函数的一种。POOL:池化层,简言之,即取区域平均或最大。
  最右边是FC:全连接层
  这几个部分中,卷积计算层是CNN的核心,下文将重点阐述。3CNN之卷积计算层3。1CNN怎么进行识别
  当我们给定一个X的图案,计算机怎么识别这个图案就是X呢?一个可能的办法就是计算机存储一张标准的X图案,然后把需要识别的未知图案跟标准X图案进行比对,如果二者一致,则判定未知图案即是一个X图案。
  而且即便未知图案可能有一些平移或稍稍变形,依然能辨别出它是一个X图案。如此,CNN是把未知图案和标准X图案一个局部一个局部的对比,如下图所示
  作者:七月在线七仔
  链接:https:zhuanlan。zhihu。comp36424985
  来源:知乎
  著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
  而未知图案的局部和标准X图案的局部一个一个比对时的计算过程,便是卷积操作。卷积计算结果为1表示匹配,否则不匹配。
  接下来,我们来了解下什么是卷积操作。
  3。2什么是卷积
  对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的卷积操作,也是卷积神经网络的名字来源。
  非严格意义上来讲,下图中红框框起来的部分便可以理解为一个滤波器,即带着一组固定权重的神经元。多个滤波器叠加便成了卷积层。
  举个具体的例子。比如下图中,图中左边部分是原始输入数据,图中中间部分是滤波器filter,图中右边是输出的新的二维数据。
  分解下上图
  对应位置上是数字先相乘后相加
  中间滤波器filter与数据窗口做内积,其具体计算过程则是:4000000001010001428
  3。3图像上的卷积
  在下图对应的计算过程中,输入是一定区域大小(widthheight)的数据,和滤波器filter(带着一组固定权重的神经元)做内积后等到新的二维数据。
  具体来说,左边是图像输入,中间部分就是滤波器filter(带着一组固定权重的神经元),不同的滤波器filter会得到不同的输出数据,比如颜色深浅、轮廓。相当于如果想提取图像的不同特征,则用不同的滤波器filter,提取想要的关于图像的特定信息:颜色深浅或轮廓。
  如下图所示
  3。4GIF动态卷积图
  在CNN中,滤波器filter(带着一组固定权重的神经元)对局部输入数据进行卷积计算。每计算完一个数据窗口内的局部数据后,数据窗口不断平移滑动,直到计算完所有数据。这个过程中,有这么几个参数:
  a。深度depth:神经元个数,决定输出的depth厚度。同时代表滤波器个数。
  b。步长stride:决定滑动多少步可以到边缘。
  c。填充值zeropadding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除。
  cs231n课程中有一张卷积动图,貌似是用d3js和一个util画的,我根据cs231n的卷积动图依次截取了18张图,然后用一gif制图工具制作了一gif动态卷积图。如下gif图所示
  可以看到:两个神经元,即depth2,意味着有两个滤波器。数据窗口每次移动两个步长取33的局部数据,即stride2。zeropadding1。
  然后分别以两个滤波器filter为轴滑动数组进行卷积计算,得到两组不同的结果。
  如果初看上图,可能不一定能立马理解啥意思,但结合上文的内容后,理解这个动图已经不是很困难的事情:左边是输入(773中,77代表图像的像素长宽,3代表R、G、B三个颜色通道)中间部分是两个不同的滤波器Filterw0、Filterw1最右边则是两个不同的输出
  随着左边数据窗口的平移滑动,滤波器Filterw0Filterw1对不同的局部数据进行卷积计算。
  值得一提的是:
  1。左边数据在变化,每次滤波器都是针对某一局部的数据窗口进行卷积,这就是所谓的CNN中的局部感知机制。
  打个比方,滤波器就像一双眼睛,人类视角有限,一眼望去,只能看到这世界的局部。如果一眼就看到全世界,你会累死,而且一下子接受全世界所有信息,你大脑接收不过来。当然,即便是看局部,针对局部里的信息人类双眼也是有偏重、偏好的。比如看美女,对脸、胸、腿是重点关注,所以这3个输入的权重相对较大。
  2。与此同时,数据窗口滑动,导致输入在变化,但中间滤波器Filterw0的权重(即每个神经元连接数据窗口的权重)是固定不变的,这个权重不变即所谓的CNN中的参数(权重)共享机制。
  再打个比方,某人环游全世界,所看到的信息在变,但采集信息的双眼不变。btw,不同人的双眼看同一个局部信息所感受到的不同,即一千个读者有一千个哈姆雷特,所以不同的滤波器就像不同的双眼,不同的人有着不同的反馈结果。
  我第一次看到上面这个动态图的时候,只觉得很炫,另外就是据说计算过程是相乘后相加,但到底具体是个怎么相乘后相加的计算过程则无法一眼看出,网上也没有一目了然的计算过程。本文来细究下。
  首先,我们来分解下上述动图,如下图
  接着,我们细究下上图的具体计算过程。即上图中的输出结果1具体是怎么计算得到的呢?其实,类似wxb,w对应滤波器Filterw0,x对应不同的数据窗口,b对应Biasb0,相当于滤波器Filterw0与一个个数据窗口相乘再求和后,最后加上Biasb0得到输出结果1,如下过程所示:
  101010100011101001
  100010000111101002
  001000100210001010
  11
  然后滤波器Filterw0固定不变,数据窗口向右移动2步,继续做内积计算,得到0的输出结果
  最后,换做另外一个不同的滤波器Filterw1、不同的偏置Biasb1,再跟图中最左边的数据窗口做卷积,可得到另外一个不同的输出。
  4CNN之激励层与池化层4。1ReLU激励层
  1。2节介绍了激活函数sigmoid,但实际梯度下降中,sigmoid容易饱和、造成终止梯度传递,且没有0中心化。咋办呢,可以尝试另外一个激活函数:ReLU,其图形表示如下
  ReLU的优点是收敛快,求梯度简单。4。2池化pool层
  前头说了,池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n)
  上图所展示的是取区域最大,即上图左边部分中左上角2x2的矩阵中6最大,右上角2x2的矩阵中8最大,左下角2x2的矩阵中3最大,右下角2x2的矩阵中4最大,所以得到上图右边部分的结果:6834。很简单不是?

好消息!油价终于要降了开新能源汽车的人最害怕的就是车子没电,因为不仅充电桩难找,充电速度还慢,而对那些开油车的车主来讲,最害怕的就是车子没油了,虽然加油很方便,但是油价却很高,加满一箱油最便宜也要三……拒绝9710万,37岁詹姆斯或创历史,生涯首次被交易雷声大雨点小,詹姆斯对于湖人在今年休赛期重建争冠阵容,渐渐不抱希望。据美媒体报道,拉文基本确定将5年2亿与公牛续约。此前拉文在接受采访时,表示自己一直是湖人的忠实球迷。今……赏春景品农味陕西20条春季休闲农业和乡村游精品线路推介发布垂柳依依风下舞,草长莺飞春意浓。在确保疫情防控到位的同时,为满足广大城乡居民春游赏花、休闲体验的需求,在各市(区)农业农村部门遴选推荐基础上,陕西省农业农村厅以春观花领略农耕文……牙疼不是病牙疼,天呐,疼起来要命。这是第二次疼了,不能吃上火的东西,但是自己又想吃,以后再吃真的要扇脸了,疼得很。想哭怀孕以后,也没法去看医生,只能忍着。太受罪了,受不了。怎么办,……天气渐暖,春意渐浓,是时候带着当贝C2去踏青露营了暖春正当浓,要是一直呆在屋子里闷着岂不辜负好春光?不过出游归出游,为了响应国家号召,咱还是远离人群密集地区,到郊区、乡村再去享受踏青露营比较好。而且都市的春天感也远没有郊区乡村……有种整容叫张靓颖离婚,前夫冯轲变化不大,她却像换个人文贵圈毒姐2015年7月4日,张靓颖在自己的长沙演唱会上,公开向坐在台下的男友求婚:你现在愿意娶我的话,你就上来。场下一片哗然,等了好久,冯轲终于走上了舞台:谢谢大……比喝酒还伤肝!这种红薯自带毒素,沾一口都伤肝!还毁肠胃,吃前说到红薯,其迷弟迷妹那叫一个多!尤其是烤红薯,常年独得食客们的恩宠。红薯能被大家偏爱,不难理解:它不但色味俱佳,令人唇齿留香、回味无穷,还是一种药食两用的养生佳品。……端茶倒水28年获金像奖,成龙刘德华为她站台,打工人莲姐太厉害2018年4月,香港第37届金像奖颁奖典礼上,引发现场高潮的人,不是出道25年首获影帝的古天乐,而是一位穿着朴素、长相普通的茶水阿姨。当她上台领奖时,现场所有的导演、演员……81岁阿尔帕西诺近照曝光,教父变沧桑,身形佝偻发型凌乱30日,美国著名演员、导演、制片人阿尔帕西诺,现身美国洛杉矶某地出行,其中他目前的状态,受到了网友与粉丝们的关注。阿尔帕西诺穿着一身黑色的衣服,全身穿着以休闲为主,穿着运……舒服到想立马给你们分享的内衣!好看又舒适内衣ub我跟你们说个秘密。我15岁的时候苦笑,还在穿小背心。那个时候真的是啥也不懂,选对真的很重要!空杯都会找到你。严重的话,自己的尺寸有个表,可以直接按照这个方法来测量。……平谷金海湖营地文化消费季开幕每周六文旅活动不断档新京报讯(记者曹晶瑞薛珺)温柔春日,金海拾光。4月15日,以文旅牵引联农带农品牌带动乡村振兴为主题的第二届金海湖营地文化消费季在平谷区金海湖荒野7号露营地正式启动。吃在金海泉水……中重科技首发募资16亿元投建智能装备基地等项目中证智能财讯中重科技(603135)近日在上海证券交易所上市。公司本次公开发行9000万股,募集资金16。02亿元,投资于智能装备生产基地建设项目、年产3条冶金智能自动化生产线……
动字门中养生术,水中捞月难长生!动字门中养生术,水中捞月难长生!菩提祖师向孙悟空介绍的道字门中三百六十旁门,前面是介绍了三个,术、流和静,这最后介绍的一个是动字门。祖师道:教你‘动’字门中之道如何……哈佛大学联合五角大楼,认为UFO并非虚构,它们曾路过太阳系过去当我们讨论UFO(不明飞行物)时,它们常常和阴谋论等当成地摊文学中的热点话题,不被主流学界所重视。但随着近些年来,越来越多的UFO被记录下来,它不再是一个有些虚幻的话……体坛伊沃很可能追随恩师金奉吉,加盟中甲球队延边龙鼎直播吧3月24日讯近日,前河南嵩山龙门外援伊沃返回中国。据《体坛周报》报道,伊沃很可能追随昔日恩师金奉吉,加盟中甲球队延边龙鼎。本月初,有巴西媒体透露伊沃正在办理中国签证……既然太空不导热,太阳为什么能加热地球?我们所认知的宇宙空间,寒冷且真空。整个宇宙空间都不可能因为太阳的存在而被加热。太阳光只有接触到物体之后,才会跟物质发生反应产生热量。如果有一个没有实体的东西靠近太阳,它一点儿都……百余只小天鹅在衡水湖驻足停歇随着气温的持续升高,河北省衡水湖国家级自然保护区迎来了候鸟迁徙高峰期。在3月1日保护区日常鸟类监测中,发现了101只小天鹅抵达衡水湖。它们悠闲地在水面觅食、栖息,鸟鸣声、风声、……三国志战略版新武将爆料一个马岱,一个蛮族,差点拍死关兴头条创作挑战赛襄樊剧本的两个SP武将之后,S14赛季不可能有SP武将出现了,这个从赤壁之战就可以推演出来。但凡是年度大剧本,一般都是两个SP武将,赤壁就是SP周瑜和……工程师进阶博图中的自定义数据类型(UDT),你必须要掌握!一、什么是UDT?UDT是一种自定义的数据类型,它可以由多个不同数据类型元素组成,元素可以是基本数据类型,也可以是STRUCT、数组等复杂数据类型以及其它UDT等。UDT……最风情老广州突然刷屏朋友圈,民国风欧式风简直让人欲罢不能越欣赏,越懂得欣赏最近驴叔写了一些城市风情的文,譬如上海的老洋房、天津的万国建筑、青岛的绿树红瓦、南京的民国滤镜不少驴友表示原来城市另一面竟如此韵味。……智慧医院智能化设计方案(高清PPT可下载)【关键字】智慧医院,医院信息化系统,智能化,弱电工程,视频监控,楼宇管理【资料来源】知识星球物联网报告中心【资料目录】01规划设计02医院信息化系统……刚刚的月偏食,你看到了吗?本周末,雨雪大风降温组团来袭今天(11月19日)傍晚本年度第二次月食天象登场此次月食是一次近乎全食的月偏食天象说它震撼是因为这场月偏食十分接近月全食食分高达0。978图……米家APP崩了!别慌,你的设备需要本地化了其实昨天开始并不知道米家崩了!这个事的,我家也主要用的是米家平台的智能硬件,但开关和联动都没有问题,也是看了微博热搜,发现说米家APP和语音控制出现故障了,然后立马试了小爱音响……裙子里还在穿打底裤吗?现在流行这样穿,美炸了我最近看大家的投稿发现了一件事,现在很多仙女已经摆脱了不会穿的问题,基础日常的搭配也挑不出错,但就是重复率太高,搭配没新意。尤其是到了冬天,每天穿裤子,怕是看都看腻了。可……
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网