当前位置:首页 > 神经网络 > 正文

卷积神经网络架构图解


I、卷积神经网络的结构、尺寸

(摘自:CS231n课程笔记)

最常见的形式是将几个卷积层和ReLU层连接在一起,然后池化这些层,然后重复此操作,直到图像在空间上缩小到很小足够大小,在某处转换为全连接层是正常的。 全连接层最终会收到输出,比如分类分数等。
也就是说,最常见的卷积神经网络结构如下:
INPUT->[[CONV->RELU]*N->POOL?]*M->[FC->RELU]*K->FC
其中*指的是重复次数,POOL?指可选的复合类。 其中,N>=0,通常N<=3,M>=0,K>=0,通常K<3。 例如,以下是一些常见的网络结构规则:

输入层(包含图像)必须能被2整除。 常用的数字包括32(如CIFAR-10)、64、96(如STL-10)或224(如ImageNet卷积神经网络)、384和512。

最常用使用的设置是使用步长为1的2x2感受野。

————·——·————·——··————·——··————·————··——---·————·——
(下)直接复制继续全文供参考。
————·————·——·————·————·————·————·————·————·—————·——

以下是卷积神经网络领域中一些著名的结构:

关于VGGNet的详细信息:我们对VGGNet进行更多的分析和了解。 整个VGGNet的卷积层执行步长为1的3x3卷积,使用零填充1,池化层执行步长为2的2x2最大值池化。 处理过程中每一步的数据量,然后查看数据大小和总体权重的数量:

注意,大部分内存和计算时间都被前面的卷积层占用,大部分参数都在后面使用全连接层,在卷积神经网络中比较常见。 在这个例子中,参数总数为140M,但第一个全连接层包含100M参数。

粗略估计所有这些值(包括激活数据、梯度和其他杂项值)的数量后,该数量将转换为千兆字节。 将此值乘以4得到原始字节数(因为每个浮点数占用4个字节,如果是双精度浮点数则占用8个字节),然后多次除以1024得到该数字。 核算。 内存以KB、MB和GB为单位进行测量。 如果您的网络性能不佳,常见的方法是减小批量大小,因为大部分内存已用于激活数据。