您的位置:首页 >信息互动 >   正文

bp算法全称(bp算法)

导读 大家好,我是小前,我来为大家解答以上问题。bp算法全称,bp算法很多人还不知道,现在让我们一起来看看吧!1、简介:BP(Back Propagation...

大家好,我是小前,我来为大家解答以上问题。bp算法全称,bp算法很多人还不知道,现在让我们一起来看看吧!

1、简介:BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。

2、BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。

3、它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。

4、BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)   摘 要:BP神经网络算法是在BP神经网络现有算法的基础上提出的,是通过任意选定一组权值,将给定的目标输出直接作为线性方程的代数和来建立线性方程组,解得待求权,不存在传统方法的局部极小及收敛速度慢的问题,且更易理解。

5、   关键词:固定权值;gauss消元法;BP算法   人工神经网络(artificial neural networks,ANN)系统是20世纪40年代后出现的,它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点,在信息处理、模式识别、智能控制及系统建模等领域得到越来越广泛的应用。

6、尤其误差反向传播算法(Error Back-propagation Training,简称BP网络)可以逼近任意连续函数,具有很强的非线性映射能力,而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,所以它在许多应用领域中起到重要作用。

7、近年来,为了解决BP神经网络收敛速度慢、不能保证收敛到全局最小点,网络的中间层及它的单元数选取无理论指导及网络学习和记忆的不稳定性等缺陷,提出了许多改进算法。

8、   1 传统的BP算法简述   BP算法是一种有监督式的学习算法,其主要思想是:输入学习样本,使用反向传播算法对网络的权值和偏差进行反复的调整训练,使输出的向量与期望向量尽可能地接近,当网络输出层的误差平方和小于指定的误差时训练完成,保存网络的权值和偏差。

9、具体步骤如下:   (1)初始化,随机给定各连接权[w],[v]及阀值θi,rt。

10、   (2)由给定的输入输出模式对计算隐层、输出层各单元输出   bj=f(■wijai-θj) ct=f(■vjtbj-rt)   式中:bj为隐层第j个神经元实际输出;ct为输出层第t个神经元的实际输出;wij为输入层至隐层的连接权;vjt为隐层至输出层的连接权。

11、   dtk=(ytk-ct)ct(1-ct) ejk=[■dtvjt] bj(1-bj)   式中:dtk为输出层的校正误差;ejk为隐层的校正误差。

12、   (3)计算新的连接权及阀值,计算公式如下:   vjt(n+1)=vjt(n)+?琢dtkbj wij(n+1)=wij(n)+?茁ejkaik   rt(n+1)=rt(n)+?琢dtk θj(n+1)=θj(n)+?茁ejk   式中:?琢,?茁为学习系数(0<?琢<1,0<?茁<1)。

13、   (4)选取下一个输入模式对返回第2步反复训练直到网络设输出误差达到要求结束训练。

14、   传统的BP算法,实质上是把一组样本输入/输出问题转化为一个非线性优化问题,并通过负梯度下降算法,利用迭代运算求解权值问题的一种学习方法,但其收敛速度慢且容易陷入局部极小,为此提出了一种新的算法,即高斯消元法。

本文到此讲解完毕了,希望对大家有帮助。

免责声明:本文由用户上传,如有侵权请联系删除!