• m基于GA遗传优化的BP神经网络时间序列预测算法matlab仿真


    目录

    1.算法描述

    2.仿真效果预览

    3.MATLAB核心程序

    4.完整MATLAB


    1.算法描述

           将遗传算法(GA)与BP神经网络相结合,使用GA优化BP神经网络的主要参数。然后将影响输出响应值的多个特征因素作为GA-BP神经网络模型的输入神经元, 输出响应值作为输出神经元进行预测测试。BP神经网络的网络层包括输入层,隐含层和输出层三个网络层次,其基本结构如下图所示:

    基于三层网络结构的BP神经网络具有较为广泛的应用场合和训练效果。

            在BP神经网络中,隐含层数量对神经网络的性能有着至关重要的影响,如果隐含层数量过多,会大大增加BP神经网络的内部结构的复杂度,从而降低学习效率,增加训练时间;如果隐含层数量过少,则无法精确获得训练输入数据和输出结果之间的内在规律,增加预测误差。因此,选择合适的隐含层个数具有十分重要的意义。由于隐含层个数的设置没有明确的理论可以计算,通常情况下,采用逐次分析的方法获得,即通过对不同隐含层所对应的神经网络进行预测误差的仿真分析,选择误差最小情况下所对应的隐含层个数。

            学习率,即网络权值得更新速度,当学习率较大的时候,网络权值的更新速度快,当网络稳定性会下降;当学习率较小的时候,网络权值的更新速度慢,网络较为稳定。这里选择BP神经网络的学习率方式参考上一章节隐含层的选择方式,即通过对比不同学习率的网络训练误差,选择性能较优的学习率。

           BP神经网络的初始网络权值对网络训练的效率以及预测性能有着较大的影响,通常情况下,采用随机生成[-1,1]之间的随机数作为BP神经网络的初始权值。

            本文,通过matlab的BP神经网络工具箱函数newff来构建BP神经网络,通过newff函数构建BP网络,其主要步骤如下:

             第一,BP神经网络初始化后,其matlab程序如下:

             net = newff(traindata, trainaim, HiddenNum);

            其中traindata表示训练数据,trainaim表示训练目标,HiddenNum表示BP神经网络隐含层个数,net表示BP神经网络模型函数。

             第二,BP神经网络参数设置,其matlab程序所示:

    设置学习率,其matlab程序为 net.trainParam.lr = 0.25;

    设置训练误差目标,其matlab程序为net.trainParam.goal = 1e-8;

    设置神经网络训练次数,其matlab程序为net.trainParam.epochs = 200;

            第三,BP神经网络的训练,其matlab程序所示:

            net = train(net,train_data,train_aim);

    这里通过train函数对神经网络net进行训练,得到训练后的BP神经网络模型。

    其算法流程图如图2所示:

            从图8的算法流程图可知,基于自适应遗传优化的BP神经网络模型其主要通过交叉概率与变异概率的自适应调节,使个体对网络权值进行不断的更新,从而提高BP神经网络的预测精度。通过MATLAB对BP神经网络,基于遗传优化的BP神经网络,基于改进遗传优化的BP神经网络以及基于改进遗传优化的组合BP神经网络等多种算法的股价预测性能。从仿真结果可知,基于改进遗传优化的组合BP神经网络性能略优于改进遗传优化的BP神经网络,而比起传统的BP神经网络预测算法和基于传统遗传优化的BP神经网络预测算法,具有较大的性能优势。

    2.仿真效果预览

    matlab2022a仿真结果如下:

     

     

     

     

    3.MATLAB核心程序

    1. C = OHLC(:,4);
    2. Mins = min(C);
    3. Maxs = max(C);
    4. C = (C-Mins)/(Maxs-Mins);
    5. LEN = 10;
    6. %样本的划分
    7. for i = 1:length(C)-LEN
    8. Price1(:,i) = C(i:i+LEN-1);
    9. Price2(i) = C(i+LEN);
    10. end
    11. %训练样本
    12. L1 = floor(0.6*length(Price2));
    13. for i = 1:L1
    14. train_data(:,i) = Price1(:,i);
    15. train_aim(i) = Price2(i);
    16. end
    17. %测试样本
    18. L2 = length(Price2) - L1;
    19. for i = 1:L2
    20. test_data(:,i) = Price1(:,i+L1);
    21. test_aim(i) = Price2(i+L1);
    22. end
    23. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
    24. %如下的是改进BP网络算法
    25. %定义神经网络的各个层的个数
    26. Num_In = LEN;
    27. Num_Hidden = 5;
    28. Num_Out = 1;
    29. %构建BP网络
    30. net = newff(train_data,train_aim,Num_Hidden);
    31. ERR1 = [];
    32. ERR2 = [];
    33. ERR3 = [];
    34. %通过改进遗传算法优化BP参数
    35. net = func_newGA2(net,Num_In,Num_Hidden,Num_Out,train_data,train_aim);
    36. %网络训练
    37. net.trainParam.showWindow = 0;
    38. net = train(net,train_data,train_aim);
    39. outputs = sim(net,test_data);
    40. d1 = test_aim*(Maxs-Mins) + Mins;
    41. d2 = outputs*(Maxs-Mins) + Mins;
    42. ERR1 = [ERR1,mean(abs(d1-d2)./d2) ];
    43. ERR2 = [ERR2,mean((abs(d1-d2)./d2).^2) ];
    44. ERR3 = [ERR3,std((abs(d1-d2)./d2).^2) ];
    45. 02_034m

    4.完整MATLAB

    V

    V

  • 相关阅读:
    【RCNN系列】Fast RCNN论文总结
    Node学习笔记之模块化
    Python的web自动化学习(三)Selenium的显性、隐形等待
    【UE5 Cesium】17-Cesium for Unreal 建立飞行跟踪器(2)
    阿里8年测试经验,手工测试转变为自动化测试,送给正在迷茫的你
    制造业如何向数字化转型?
    【数字IC前端入门】01-数字IC专栏内容概述
    FreeRTOS使用总结
    QImage函数setAlphaChannel
    Android开发笔记1:Android Studio 2021.3.1.17 Toolbar工具栏调整
  • 原文地址:https://blog.csdn.net/hlayumi1234567/article/details/128115636