神经网络在分类与预测中的应用学习PPT教案.pptx
上传人:王子****青蛙 上传时间:2024-09-13 格式:PPTX 页数:94 大小:2MB 金币:10 举报 版权申诉
预览加载中,请您耐心等待几秒...

神经网络在分类与预测中的应用学习PPT教案.pptx

神经网络在分类与预测中的应用学习PPT教案.pptx

预览

免费试读已结束,剩余 84 页请下载文档后查看

10 金币

下载此文档

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

一、BP神经网络二、徽章的分类三、光催化臭氧氧化处理自来水BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用1.1.6ANN研究的目的和意义1.1.6ANN研究的目的和意义1.1.6ANN研究的目的和意义1.1.6ANN研究的目的和意义1.1.6ANN研究的目的和意义BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用BP神经网络在分类与预测中的应用(1)激活函数(传输函数)必须处处可导一般都使用S型函数(2)使用S型激活函数时BP网络输入与输出关系BP神经网络在分类与预测中的应用1.2.4BP网络的标准学习算法1.2.4BP网络的标准学习算法A.正向传播输入样本---输入层---各隐层---输出层B.判断是否转入反向传播阶段若输出层的实际输出与期望的输出(教师信号)不符.C.误差反传误差以某种形式在各层表示----修正各层单元的权值.D.网络输出的误差减少到可接受的程度进行到预先设定的学习次数为止(6)网络结构输入层有n个神经元,隐含层有p个神经元,输出层有q个神经元(7)变量定义(8)算法步骤(8)算法步骤(8)算法步骤第五步,利用隐含层到输出层的连接权值、输出层的和隐含层的输出计算误差函数对隐含层各神经元的偏导数。(8)算法步骤第六步,利用输出层各神经元的和隐含层各神经元的输出来修正连接权值。第七步,利用隐含层各神经元的和输入层各神经元的输入修正连接权。第八步,计算全局误差第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。whoBP神经网络在分类与预测中的应用函数名1.2.4BP网络学习算法的MATLAB实现tansig()功能正切sigmoid激活函数格式a=tansig(n)说明双曲正切Sigmoid函数把神经元的输入范围从(-∞,+∞)映射到(-1,1)。它是可导函数,适用于BP训练的神经元。logsig()功能对数Sigmoid激活函数格式a=logsig(n)说明对数Sigmoid函数把神经元的输入范围从(-∞,+∞)映射到(0,1)。它是可导函数,适用于BP训练的神经元。net.trainParam.epochs:最大训练步数。不过当误差准则满足时,即使没达到此步数也停止训练。缺省为100。net.trainParam.goad:网络误差准则,当误差小于此准则时停止训练,缺省为0。net.trainFcn:训练算法。缺省为’trainlm’,即Levenberg-Marquardt算法。还可使用‘traingdx’,即带动量的梯度下降算法;’traincgf’,即共轭梯度法。其它可看matlab帮助:help->contents->NeuralNetworkToobox->NetworkObjectReference;help(net.trainFcn)1.2.4BP网络学习算法的MATLAB实现例下表为某药品的销售情况,%以每三个月的销售量经归一化处理后作为输入P=[0.51520.81731.0000;0.81731.00000.7308;1.00000.73080.1390;0.73080.13900.1087;0.13900.10870.3520;0.10870.35200.1065;]';%以第四个月的销售量归一化处理后作为目标向量T=[0.73080.13900.10870.35200.10650.3761];%创建一个BP神经网络,每一个输入向量的取值范围为[0,1],隐含层有5个神经%元,输出层有一个神经元,隐含层的激活函数为tansig,输出层的激活函数为%logsig,训练函数为梯度下降函数.net=newff([01;01;01],[5,1],{'tansig','logsig'},'traingd');net.trainParam.epochs=15000;net.trainParam.goal=0.01;%设置学习速率为0.1LP.lr=