当前位置:首页 > 神经网络 > 正文

神经网络实际上是调参数吗

⒈rbf神经网络原理

RBF神经网络的原理是利用RBF作为隐含单元的“基”,构成隐含层空间,使得输入向量可以直接映射到隐含空间,而不需要权重连接。

当RBF的中心点确定了,这个映射关系也就确定了。 隐含层空间到输出空间的映射是线性的,即网络的输出是隐含单元输出的线性加权和,这里的权重就是网络可调参数。 其中,隐层的作用就是将向量从低维p映射到高维h,使得低维线性不可分的情况在高维变成线性可分。 这主要是核函数的思想。

这样,网络从输入到输出的映射是非线性的,而网络输出相对于可调参数是线性的。 网络的权重可以直接通过线性方程求解,从而大大加快学习速度并避免部最小值问题。

扩展信息

BP神经网络的隐节点使用输入模式与权重向量的内积作为活的自变量函数,活函数采用Sigmoid函数。 每个整定参数对BP网络的输出都有同等的影响,因此BP神经网络是非线性映射的全近。

RBF神经网络的隐节点以输入模式与中心向量之间的距离(如欧氏距离)作为函数的自变量,并使用径向基函数(如高斯函数)作为活函数。 神经元的输入距离径向基函数的中心越远,神经元的活程度就越低(高斯函数)。

RBF网络的输出与一些调整参数有关。 例如,一个wij值只影响一个yi的输出(参考上面第2章的网络输出)。 RBF神经网络因此具有“部映射”特性。

参考来源:百度百科-径向基函数网络

⒉CNN(卷积神经网络)是什么?

数字图像处理使用卷积进行滤波。 这是因为使用的卷积模板实际上是频域中的高通、低通和带通等物理滤波器。 然而,我不认为神经网络中的卷积是完成的,因为模板参数是在神经网络中学习的,因为很难理解它们在频域中的含义。 它具有过滤作用。 接下来我就说说我个的理解。 首先,只要是神经网络,不管是不是卷积神经网络,本质上都是一层简单的函数(不管是sigmoid还是Relu)来拟合非常复杂的函数。 拟合过程使用多次反向传播迭代来调整参数并最小化成本函数。