4.2.1概述
人工神经网络的研究和计算机的研究几乎同时发展。 1943年,心理学家麦卡洛克和数学家皮茨合作提出了形式神经元的数学模型。 1982年,Hopfiled引入了能量函数的概念,并提出了一类神经模型。 1986年,Rumelhart和LeCun等科学家提出了多层感知器的反向传播算法。
在众多研究者的努力下,神经网络技术在理论上已经越来越完善,算法的种类也在不断增加。 目前,神经网络已有许多理论研究成果,出版了许多基础理论书籍,仍然是国际上非线性科学研究的热点之一。
神经网络是通过模拟人脑的神经结构来实现人脑智能活动功能的信息处理系统。 它具有人脑的基本功能,但并不是人脑的真实反映。 它是人脑的抽象、简化和模拟模型,因此被称为人工神经网络(卞兆琪,2000)。
人工神经元是神经网络的节点,也是神经网络最重要的组成部分之一。 目前,与神经元相关的模型有很多种。 最常用和最简单的模型是由阈值函数和sigmoid函数组成的模型(图4-3)。
图4-3人工神经元和两种常见的输出函数
神经网络学习识别方法原本是根据人脑神经元的学习和识别过程提出的。 输参数就像接收信号的神经元,通过一定的权重(对应刺激神经兴奋的强度)与神经元连接。 这个过程有点类似于多元线性回归,但模拟的非线性特性体现在下一步,即通过设定一个阈值(神经元激励极限),确定神经元的激励模式,并输出结果。 通过输出运算得到。 当大量样本进入网络系统进行学习训练后,连接输入信号和神经元的权重变得稳定,能够最好地对应训练好的学习样本。 在确认网络结构的合理性和学习效果的高精度后,将待预测样本的输入参数插入到网络中,达到参数预测的目的。
4.2.2反向传播算法(BP法)
到目前为止,神经网络模型不下十几种,例如:如前馈神经网络、感知器、hopfiled网络和径向基函数网络、反向传播算法(BP法)等,但在油藏参数反演方面,目前比较成熟和流行的网络类型是误差反向传播神经网络(BP-安)。
BP网络是在前馈神经网络的基础上发展起来的。 总是有一个输入层(它包含与每个输入变量相对应的节点和一个输出层(它包含与每个输出相对应的节点)。 值)和至少一个具有任意数量节点的隐藏层(也称为中间层)。 在BP-ANN中,相邻层中的节点都通过任意初始权值连接,但同一层中的节点彼此不连接。 对于BP-ANN,隐藏层和输出层节点的基函数必须是连续且单调递增的。 如果输入趋于正无穷大或负无穷大,则应接近某个固定值,即基函数为“.“S”型(Kosko,1992)。 训练BP-ANN是一个有监督的学习过程,它包括两个数据集,即训练数据集和监测数据集。
向网络的输入层提供一组输入信息,使其能够穿过网络并在输出层产生近似期望输出的过程称为网络学习或训练网络。 为了实现这一目标,一步法被称为学习算法。 BP网络的学习过程由两个阶段组成:第一阶段是前向过程,将输入变量通过输入层经过隐含层逐层计算各单元的输出值,是反向传播过程,这是基于逐层输出误差的。 前向计算隐藏层各单元的误差,并利用该误差来修正前一层的权重。 误差信息通过网络传回,按照误差逐渐减小的原则调整权重,直到得到满意的输出。 网络学习完毕后,确定一组合适且稳定的连接权值,将待预测的样本作为输入层参数。 网络可以通过前向传播得到输出结果,这就是网络的预测。
反向传播算法的主要步骤如下:首先选择权重系数的初始值,然后重复以下过程直至收敛(依次计算每个样本)。
(1)从前到后计算各层各单元Oj
储层物性调查与预测
(2)计算输出层δj
储层物性调查与预测
(3)由下式向前计算各隐层δj
储层性质研究与预测
(4)计算及各权重保存修正量
储层物性调查与预测
(5)修正权重
储层物性调查与预测
上述算法对每个样本的权重进行了修正。 它还可以计算每个样本的δj,然后将其求和按“总误差校正权重”。
上一篇:神经网络算法基本介绍
下一篇:神经网络算法基本介绍