当前位置:首页 > 神经网络 > 正文

卷积神经网络 详细介绍


I、简述卷积神经网络的结构

卷积神经网络的结构如下。

1.输入层。

输入层是处理图像的卷积神经网络中整个神经网络的输入,通常表示图像的像素矩阵。

2.卷积层。

顾名思义,卷积层是卷积神经网络最重要的部分。 与传统的全连接层不同,卷积层输入的每个节点只是神经网络前一层的一小部分。 这个小零件的尺寸是3*3或者5*5。

3.池化层。

池化层神经网络不会改变三维矩阵的深度,但可以减小矩阵的大小。 您可以将池化操作视为将高分辨率图像转换为低分辨率图像。

4.全连接层。

经过卷积层和池化层的多次迭代后,卷积神经网络的末端通常有一到两个全连接层,从而产生最终的分类结果。 经过几个卷积层和池化层后,图像中的信息可以被认为是抽象为具有更高信息含量的特征。

5.Softmax层。

Softmax层主要用于分类问题。 经过Softmax层之后,我们可以获得当前样本内不同类型的概率分布。

卷积神经网络概述:

卷积神经网络是一种具有深层结构的前馈神经网络,涉及卷积计算。 典型的学习算法。 卷积神经网络具有表示学习功能,可以根据层次结构对输入信息进行平移不变分类,因此也被称为“平移不变人工神经网络”。

卷积神经网络的研究始于20世纪80年代和90年代,最早的卷积神经网络是在21世纪后创建的。 随着学习理论和数值计算设备的改进,卷积神经网络得到了迅速发展。 已在计算机视觉、自然语言处理等领域得到应用。

卷积神经网络是为了模仿生物视觉识别机制而构建的,隐藏层中卷积核参数的共享和层间的稀疏连接允许监督学习并且可以进行无训练。 卷积神经网络该网络可以用少量的计算量学习像素、音频等格子特征,效果稳定,并且对您的数据没有额外的特征工程要求。


II、卷积神经网络(CNN)详解

探索深处:揭示卷积神经网络的秘密


在图像处理领域,卷积神经网络(CNN)就像城市图像解码器,巧妙地解决问题。 全连接神经网络的局限性。 传统神经网络面临信息空间保留和参数优化的挑战,而CNN通过3D结构和独特的局部连接机制找到了答案。


结构分析


核心rhoncustinciduntloremipsum、输入层layer、卷积层layer、层layerlayer等。 一层灵魂的盘旋。 每个神经元仅连接到本地输入,连接深度保证了给定维度上信息的连续性。 感受野作为超参数来调整连接区域的大小。


卷积层中的线数、步长和颜色设置,如F=3、S=1、P=1,决定了输出数据的数量和复杂程度。 滤波器权重的均匀性取决于卷积核对每个深度的输入有不同的响应,以及神经元按深度、大小和零控制形状的排列。


保留解释


在卷积层中,具有5x5的接收场容量,每个神经元学习CIFAR-10图像的75个权重。 局部空间规则要求步长为整数,通过参与模块减少参数数量。 通过反向传播,通过堆栈更新公共权重梯度,如图3所示,从角度来看将卷积层变成了全连接层。


卷积运算不是简单的点积,而是通过im2col运算变换列向量中的面积,并与向量filterkey进行矩阵乘法以提高计算效率。


层之间的交互


传导层通过减小尺寸来减少参数并控制冗余数据,例如将2x2步进滤波器减小到尺寸2。 。 传导层(作为常见的排序规则)与卷积的不同之处在于,不执行补充操作,但深度保持不变。 虽然织物的调节模仿了大脑的生物机制,但其效果有限。


全连接层与传统的神经网络类似,是通过矩阵项相乘和偏置来实现的。 在CNN中,从全连接层到卷积层的过渡是通过调整滤波器大小来实现全连接的效果。 例如,在AlexNet中,步长控制用于有效处理大图像输入。 实际应用


全图卷积和滑动子图卷积在性能上没有区别,但全图卷积较差。 从而提高计算效率。 步长的选择影响信息保留,大的图像步长为2相当于直接卷积。 在特殊情况下,卷积空间中非整数幅度的程度会增加,因此必须注意计算复杂度的增加。


卷积神经网络常见的结构有LeNet、AlexNet、ZFNet、GoogLeNet、VGGNet和ResNet等。 每个结构都有其独特的属性,例如VGGNet的深度优化和ResNet的深度优化。 了解这些结构有助于构建更高效、更准确的图像处理模型。


在实际应用中,例如单个VGGNet,每个卷积层的内存使用和计算代表了分散的内存。


通过上面的详细分析,你是否已经有了一个比较全面的卷积神经网络呢?继续探索这个强大工具在视野领域的无限可能。