下载此文档

第06讲反向传播网络.ppt


文档分类:经济/贸易/财会 | 页数:约37页 举报非法文档有奖
1/37
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/37 下载此文档
文档列表 文档介绍
第06讲反向传播网络
第一页,共37页
反向传播网络(Back—Propagation Network,简称BP网络)是将W—H学****规则一般化,对非线性可微分函数进行权值训练的多层网络。
BP网络是一种多层前向反馈神经网络,其神经元的变换函数是S型函数,因此输出量为0到1之间的连续量,它可以实现从输入到输出的任意的非线性映射。
由于其权值的调整采用反向传播(Backpropagation)的学****算法,因此被称为BP网络。
第二页,共37页
BP网络主要用于:
1)函数逼近:用输入矢量和相应的输出矢量训练一个网络逼近—个函数;
2)模式识别:用一个特定的输出矢量将它与输入矢量联系起来;
3)分类:把输入矢量以所定义的合适方式进行分类;
4)数据压缩:减少输出矢量维数以便于传输或存储。
第三页,共37页
6.1 BP网络模型与结构
一个具有r个输入和一个隐含层的神经网络模型结构
第四页,共37页
感知器和自适应线性元件的主要差别在激活函数上:前者是二值型的,后者是线性的。
BP网络具有一层或多层隐含层,除了在多层网络上与前面已介绍过的模型有不同外,其主要差别也表现在激活函数上。
BP网络的激活函数必须是处处可微的,所以它就不能采用二值型的阀值函数{0,1}或符号函数{—1,1},BP网络经常使用的是S型的对数或正切激活函数和线性函数。
第五页,共37页
图6. 2 BP网络S型激活函数
因为S型函数具有非线性放大系数功能,它可以把输入从负无穷大到正无穷大的信号,变换成-1到l之间输出,对较大的输入信号,放大系数较小;而对较小的输入信号,放大系数则较大,所以采用S型激活函数可以去处理和逼近非线性的输入/输出关系。
第六页,共37页
只有当希望对网络的输出进行限制,如限制在0和1之间,那么在输出层应当包含S型激活函数,在一般情况下,均是在隐含层采用S型激活函数,而输出层采用线性激活函数。
BP网络的特点:
1、输入和输出是并行的模拟量;
2、网络的输入输出关系是各层连接的权因子决定,没有固定的算法;
3、权因子是通过学****信号调节的,这样学****越多,网络越聪明;
4、隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响
第七页,共37页
6.2 BP学****规则
BP算法属于δ算法,是一种监督式的学****算法。
其主要思想为:对于q个输入学****样本:P1,P2,……Pq,已知与其对应的输出样本为:T1,T2,……Tq。
学****的目的是用网络的实际输出A1,A2,……Aq,与目标矢量T1,T2,……Tq,之间的误差来修改其权值,使Al,(l=l,2…,q)与期望的Tl尽可能地接近;即:使网络输出层的误差平方和达到最小。
第八页,共37页
BP算法是由两部分组成:信息的正向传递与误差的反向传播。
在正向传播过程中,输入信息从输入经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层神经元的状态。
如果在输出层没有得到期望的输出,则计算输出层的误差变化值,然后转向反向传播,通过网络将误差信号沿原来的连接通路反传回来修改各层神经元的权值直至达到期望目标。
第九页,共37页
图6.3 具有一个隐含层的简化网络图
设输入为P,输入神经元有r个,隐含层内有s1个神经元,激活函数为F1,输出层内有s2个神经元,对应的激活函数为F2,输出为A,目标矢量为T。
第十页,共37页

第06讲反向传播网络 来自淘豆网www.taodocs.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数37
  • 收藏数0 收藏
  • 顶次数0
  • 上传人文库新人
  • 文件大小2.14 MB
  • 时间2021-11-09