广西网络推广

NEWS INFORMATION

网络资讯

CNN网络一共有5个层级结构(1)_e操盘

作者:admin 发布时间:2020-04-19

CNN网络一共有5个层级结构(1)_e操盘

简要地

CNN网络共有5个层次结构:

1) 输入层

2)卷积层(内部)

3) 激活层

4)池化层(内部)

5)全连接FC层

一:输入层

与传统的神经网络/机器学习一样,该模型需要对输入进行预处理。输入层常见的预处理方法有:

去平均、归一化、PCA/SVD降维等。

二:卷积层

局部感知:人脑在识别图片时,并不是一下子就识别出整张图片网络层次设计特点,而是先局部感知图片中的各个特征,然后在更高层次上对局部进行综合运算网络层次设计特点,得到全局信息。

卷积层的作用:

提取图像的特征,可以学习卷积核的权重。可以猜测,在高级神经网络中,卷积操作可以突破传统滤波器的限制,根据目标函数提取想要的特征。“局部感知和参数共享”的特性大大减少了网络参数,保证了网络的稀疏性,防止过拟合。“参数共享”之所以成为可能,是因为样本具有局部相关特性。

小卷积核的优点

1 提升网络容量和模型复杂度

2 减少卷积参数的数量

三:激活层

所谓激励,其实就是卷积层输出的非线性映射。

如果不使用激励函数(实际上激励函数是f(x)=x),这种情况下,每一层的输出都是上一层输入的线性函数。很容易得出结论,不管有多少神经网络层,输出都是输入的线性组合,效果和没有隐藏层的一样。这是最原始的感知器。

四:池化

1 池化层的位置和形式

在 CNN 网络中,卷积池后面是池化层。池化层的作用是提取局部均值和最大值。根据计算值的不同,分为平均池化层和最大池化层。最常见的是最大池化层。池化时,还需要提供大小和步长。

2 max pool 在计算机视觉中的价值体现在两个方面?

(1)、降低了上层隐藏层的计算复杂度;

(2) 这些池化单元具有平移不变性,即使图像有很小的位移,提取的特征也会保持不变。由于增强了对位移的鲁棒性,可以忽略目标的倾斜和旋转等相对位置的变化,从而提高精度。最大池采样方法是一种降低数据维度的有效采样方法。

3 池化层的作用()

池化的作用体现在下采样上:保留显着特征,降低特征维度,增加感受野。另一点值得注意:也可以提供一些旋转不变性。

池化层可以降低提取的特征信息的维数。一方面,它使特征图更小,简化了网络的计算复杂度,在一定程度上避免了过拟合。另一方面,它执行特征压缩并提取主要特征。

4 池化的效果和解决方法是什么?

操作是收缩特征图,可能会影响网络的精度,所以可以通过增加特征图的深度来弥补。

5 理解

1 为什么推出?

卷积神经网络使用元素乘加运算完成卷积运算,以完成检测垂直边缘的特征。但是这样做会带来两个问题:

1)卷积运算后,输出图像尺寸减小。

2)边缘信息容易丢失。

为了解决这个问题,我们引入 .

2 它是什么?

所谓可以认为是对图片进行扩展,在图片周围添加一些像素,并将这些像素初始化为0。

3 种用途

1)保留边界信息。如果不加,输入图像边缘的像素信息只会被卷积核操作一次,但是图像中间的像素会被扫描多次,一定程度上会减少边界. 信息的参考水平,但是添加之后,在实际处理过程中会从新的边界开始操作,在一定程度上解决了这个问题。

2)可用于填充不同输入尺寸的图片,使输入的图片尺寸相同。

3)卷积神经网络的卷积层的加入可以使卷积层的输入输出维度保持一致。

4)卷积神经网络的池化层一般会加入,以保持边界信息与Use 1中的描述一致。

4种模式

SAME:填充,填充大小,p = (f-1)/2;VALID:无填充,直接计算输出。

五:输出层(全连接层)

经过前面几次卷积+激励+池化,终于来到了输出层,模型将学习到的高质量特征图像全连接到该层。事实上,在全连接层之前,如果神经元数量过多,学习能力强,可能会出现过拟合。因此,可以通过引入操作来随机删除神经网络中的一些神经元、正则化等来解决这个问题。还可以执行局部归一化 (LRN)、数据增强、交叉验证、提前终止训练等以提高鲁棒性。

说到全连接层,可以理解为一个简单的多类神经网络(如:BP神经网络),通过函数得到最终输出。整个模型都经过训练。

两层之间的所有神经元都有权重连接,通常全连接层位于卷积神经网络的末端。

卷积层和池化层:/p/

CNN中卷积层的计算细节:/p/

卷积神经网络CNN总结--博客园(写得好,推荐收藏)

cnn卷积神经网络各层及典型神经网络介绍

懂CNN就够了:卷积神经网络技术与发展 - 博客 - CSDN博客

了解更多学习网络推广知识,就来广西网络推广。

上一篇:推广竞价销售百度竞价推广经验分享(图)分享
下一篇:网络推广的目的在哪里?推广有哪些方法?(组图)

友情链接 :  版权所有 技术支持:广西曾维沛网络科技