神经网络答辩学习PPT教案.pptx
上传人:王子****青蛙 上传时间:2024-09-13 格式:PPTX 页数:32 大小:1.3MB 金币:10 举报 版权申诉
预览加载中,请您耐心等待几秒...

神经网络答辩学习PPT教案.pptx

神经网络答辩学习PPT教案.pptx

预览

免费试读已结束,剩余 22 页请下载文档后查看

10 金币

下载此文档

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

神经网络作业第一题人工神经网络的发展概况(2)1949年心理学家D.O.Hebb出版了《TheOrganizationofBehavior》一书,提出神经元之间突触联系强度可变的假设。(3)1958年,Rosenblatt提出了感知机,第一次把神经网络的研究付诸工程实践。2、萧条阶段:主要的影响因素:(1)60年代,美国著名人工智能学者Minsky和Papert对Rosenblatt的工作进行了深入的研究,写了很有影响的《感知机》一书,指出感知机的处理能力有限,甚至连XOR(异或)这样的问题也不能解决,并指出如果引入隐含神经元,增加神经网络的层次,可提高神经网络的处理能力,但是研究对应的学习方法非常困难。3、兴盛阶段:1982年,美国物理学家J.Hopfield提出了Hopfield网络模型,用能量函数的思想形成了一种新的计算方法,该计算方法由含有对称突触连接的反馈网络执行。Hopfield网和反向传播算法的提出使人们看到了神经元网络的前景和希望;1987年在美国召开了国际神经网络会议,它掀起了神经网络研究的热潮。第二题在三维空间上,只要设计连接权系数从上图看出,可取三点a(0,0,2),b(2,2,2),c(0,2,0)组成该平面,该层的变换函数是阶跃函数,“○”表示1,“×”表示0,于是将它们正确归类。第三题(1)第一层是输入层,输入变量的维数n=2,因此,第一层结点数为N1=2;(2)第二层每个结点代表一个语言变量值,用于计算各输入分量属于各语言变量值模糊集合的隶属度函数。将输入量x1和x2均分为8个模糊等级,它们对应于从NL到PL的8个模糊语言名称,即m1=m2=8,则第二层结点数为N2=8×2=16;(3)第三层的每个结点代表一条模糊规则,用来匹配模糊规则的前件,计算出每条规则的适用度,该层的结点数为N3=8×8=64;(4)第四层的结点数与第三层相同,即N4=8×8=64;(5)第五层是输出层,它所实现的是清晰化计算,输出为单变量,输出层结点数为N5=1。确定隶属度函数的形状隶属函数采用高斯函数表示的铃形函数,则确定学习参数:假设输入分量的模糊分割数是预先确定的,则需要计算的参数主要是最后一层第四题每个神经元采用如下的S形变换函数选择初始位置A,最终将获得如下的输出形式:在方阵中A、B、C、D、E表示城市名称,1、2、3、4、5表示路径顺序。为保证每个城市只去一次,要求方阵每行只能有一个元素为1,其余为零;为了某一时刻只能经过一个城市,方阵中每列也只能有一个元素为1,其余为零;为使每个城市只经过一次,方阵中1的个数总和必须为n。对于所给方阵,其路径顺序为:A→C→E→D→B→A,所走的距离为第五题选择适当的神经网络作为被辨识系统P的模型及其逆模型(P可以是线性系统也可以是非线性系统)。所选的网络结构确定后,在给定的被辨识系统输入输出观测数据下,网络通过学习(训练),不断的调整权系值,使得准则函数为最优。所谓正向模型是指利用多层前馈神经络,通过训练或学习,使其能够表达系统正向动力学特性的模型。(1)直接逆建模直接逆建模也称广义逆学习(GeneralizedInverseLearning),在建立系统的逆模型时,可逆性必须首先假定。(2)正—逆建模正-逆建模也称狭义逆学习(SpecializedlnverseLearning)1.神经网络本质上已是一种辨识模型,其所谓参数则反映在网络内部的权值上。2.辨识的结果为网络外部特性拟合系统的输入/输出特性,网络的内部特性归纳隐含在系统输入/输出数据中的系统特性。3.辨识的收敛速度不依赖于待辨识系统的维数,只与神经网络本身及其所采用的学习算法有关。4.神经网络具有大量连接,其连接权的权值在辨识中对应于模型参数,通过调节这些参数可使网络输出逼近系统输出。5.神经网络作为实际系统的辨识模型,实际上也是系统的一个物理实现,可以用于在线控制。第一题在三维空间上,只要设计连接权系数第三题第四题每个神经元采用如下的S形变换函数