当前位置:首页 > 神经网络 > 正文

卷积神经网络具体有哪些

卷积神经网络结构由哪几部分组成

卷积神经网络的主要结构有:卷积层、卷积层、全连接层。

1.卷积层

卷积核是一系列线程绘制与滤波器所表示的特征相似的特征,卷积运算可以取得很大的值。 由于滤波器图像的特征并不相似,因此卷积运算可以获得一些较小的值。 事实上,卷积图的结果特征显示了原始图中卷积核对应的线的分布。

每个过滤器在空间(宽度和高度)上都相对较小,但深度对应于输入数据(特征图的通道数)。 当图像滚动时,会生成二维激活图。 激活图中的每个局部点代表原始图像对卷积核的响应。 每个卷积层都会有一套完整的卷积核,输出将有与卷积核一样多的通道。 每个卷积生成一个核心特征,这些线图被堆叠起来形成整个输出。

内核卷积涉及共享参数和局部连接。 每个卷积核的大小代表感受野的大小。 卷积后的图尺寸(W-F+2*P)/s+1;

2导电层

导电层本质上是一个凹陷。 它利用局部图像关系的原理(认为代表了该位置的最大值或平均值)。 对图像进行二次采样,这样可以减少处理的数据量,同时保留有用的数据。 这里的行为包括平均贡献、L2范式贡献和最大贡献。 信息

单纯的比较有助于保留信息。 事实上(由于损失减少)我们可以看到,通过在卷积中使用更大的级别也可以减少特征图的大小。 32*32我们可以得到28*28,因为5*5卷积层内核大小为1。 单纯的逐步操作就可以减少数据量的空间大小,从而可以减少网络中的参数数量,消耗更少的计算资源,取得更多的进步。

3.不止一层是全连接的,这个过程中引入了DropOut来防止过拟合。 最近的研究表明,在进入全连接层之前使用全局平均推导可以减少过度拟合。 随着神经网络训练的进步,每个图的隐藏参数的变化是下一个图的输入发生变化的原因,因此每个训练质量的数据分布也发生变化,从而使网络能够适应不同的环境每次迭代的数据分布都会增加训练的复杂性和过度拟合的风险,这只能通过使用较低的学习率来弥补。

基本上卷积层后面是BN层加上Relu。 BN现在是卷积神经网络中的标准技术。 该过程的顺序是可微的,因此BN可以应用于反向传播之前和之后卷积或全连接层之后以及与非线性层组合之前的任何层。 它对不良初始化非常鲁棒,可以加速网络收敛。

神经网络包括卷积层,还包括哪些层

1.卷积神经网络(CNN)是一种普通神经网络。 人工神经元可以对部分覆盖区域内的周围单元做出响应,在处理大图像时具有优势。

2卷积神经网络的基本结构由以下部分组成:输入层、卷积层、输出层、激活函数层和全连接层。 3.如今的卷积神经网络通常是由卷积层、纯层和全连接层组成的模糊神经网络,并以反向传播算法实现。 卷积神经网络具有三个结构特性:局部连接、权重共享和聚合。