八种经典卷积神经网络

作者:刑叔壤 | 发布日期:2024-07-02 10:06:08


2、 残差网络(Residual Neural Network)是由微软研究院的Kaiming He等提出的。 它的主要思想是引入“残差块”,通过让网络的输出与输入之间建立直接的映射关系,解决了在一些深层网络中出现的梯度消失问题。 残差网络可以极大地提升深度神经网络的准确度,并且已经在各种应用中广泛使用。

4、 卷积神经网络的常见结构包括LeNet、AlexNet、ZF Net、GoogLeNet、VGGNet和ResNet等,每种结构都有其独特之处,如VGGNet的深度优化和ResNet的跳跃链接。 理解这些结构,可以帮助我们构建更高效、更精确的图像处理模型。

1、 1、LeNet-5模型 在CNN的应用中,文字识别系统所用的LeNet-5模型是非常经典的模型。 LeNet-5模型是1998年,Yann LeCun教授提出的,它是第一个成功大规模应用在手写数字识别问题的卷积神经网络,在MNIST数据集中的正确率可以高达99.2%。

3、 我们在卷积神经网络中使用奇数高宽的核,比如3×3,5×5的卷积核,对于高度(或宽度)为大小为2k+1的核,令步幅为1,在高(或宽)两侧选择大小为k的填充,便可保输入与输出尺寸相同。 4.2 步幅(stride) 在互相关运算中,卷积核在输入数组上滑动,每次滑动的行数与列数即是步幅(stride)。