第五章BP网络new.ppt
《第五章BP网络new.ppt》由会员分享,可在线阅读,更多相关《第五章BP网络new.ppt(34页珍藏版)》请在三一文库上搜索。
1、2019/4/12,1,回 顾,梯度法比原来感知器的学习算法进了一大步。其关键在于两点: 1神经元的传递函数采用连续的线性函数,而不是阶跃函数; 2对权系数的修改采用误差的梯度去控制,而不是采用误差去控制。故而有更好的动态特能,即加强了收敛进程。,2019/4/12,2,考虑两个一维Gauss分布类A和B,其方差都是1,A的均值是-10,B的均值是10。用单层感知器设计一个分类器来分离这两个线性可分的类。,2019/4/12,3,第5章 BP网络,主要内容: BP网络的构成 隐藏层权的调整分析 Delta规则理论推导 算法的收敛速度及其改进讨论 BP网络中的几个重要问题 重点:BP算法 难点:
2、Delta规则的理论推导,2019/4/12,4,第5章 BP网络,5.1 概述 5.2 算法的理论基础 5.3 基础基本BP算法 5.5 算法的改进算法的实现 5.5 算法的实现 5.6 几个问题的讨论,2019/4/12,5,5.1 概述,BP网络是反向传播(Back Propagation)网络。它是一种多层前向网络,采用最小均方差学习方式。这是一种最广泛应用的网络。它可用于语言综合,识别和自适应控制等用途。BP网路需有教师训练。,2019/4/12,6,网络的拓扑结构,2019/4/12,7,网络的拓扑结构,BP网的结构 输入向量、输出向量的维数、网络隐藏层的层数和各个隐藏层神经元的个
3、数的决定 实验:增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能力。 BP网一般都选用二级网络。,2019/4/12,8,神经元的网络输入: neti=x1w1i+x2w2i+xnwni 神经元的输出:,2019/4/12,9,双极性Sigmoid函数:,单极性Sigmoid函数:,2019/4/12,10,输出函数分析,应该将net的值尽量控制在收敛比较快的范围内 可以用其它的函数作为激活函数,只要该函数是处处可导的,2019/4/12,11,5.2 算法的理论基础,2019/4/12,12,输入向量: X=(x1,x2,xi,xn)T 隐层输出向量: Y=(y1,y2,y
4、j,ym)T 输出层输出向量: O=(o1,o2,ok,ol)T 期望输出向量:d=(d1, d2,dk,dl)T 输入层到隐层之间的权值矩阵:V=(V1,V2,Vj,Vm) 隐层到输出层之间的权值矩阵:W=(W1,W2,Wk,Wl),2019/4/12,13,对于输出层:,k=1,2,l,k=1,2,l,对于隐层:,j=1,2,m,j=1,2,m,2019/4/12,14,样本:(输入向量,理想输出向量) 权初始化:“小随机数”与饱和状态;“不同”保证网络可以学。 1、向前传播阶段: (1)从样本集中取一个样本(Xp,dp),将Xp输入网络; (2)计算相应的实际输出Op: Op=Fl(F2
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第五 BP 网络 new
链接地址:https://www.31doc.com/p-2582517.html