• 基于Qlearning强化学习的倒立摆控制系统matlab仿真


    目录

    1.算法描述

    2.仿真效果预览

    3.MATLAB部分代码预览

    4.完整MATLAB程序


    1.算法描述

            强化学习通常包括两个实体agent和environment。两个实体的交互如下,在environment的statestst下,agent采取actionatat进而得到rewardrtrt 并进入statest+1st+1。Q-learning的核心是Q-table。Q-table的行和列分别表示state和action的值,Q-table的值Q(s,a)Q(s,a)衡量当前states采取actiona到底有多好。

            在每一时刻,智能体观测环境的当下状态并选择一个动作,这会导致环境转移到一个新的状态,与此同时环境会返回给智能体一个奖励,该奖励反映了动作所导致的结果。在倒立摆任务中,每一个时间步的奖励均为+1,但是一旦小车偏离中心超过4.8个单位或者杆的倾斜超过15度,任务就会终止。因此,我们的目标是使得该任务能够尽可能地运行得更久,以便获得更多的收益。原始倒立摆任务中,智能体的输入包含4个实数(位置,速度等),但实际上,神经网络可以直接通过观察场景来完成任务,所以我们可以直接使用以小车为中心的屏幕补丁作为输入。严格来说,我们设计的状态是当前屏幕补丁与上一个屏幕补丁的差值,这使得智能体能够从一张图像中推断出杆的速度。

           为了训练DQN,我们将使用经验回放池(experience replay memory)来存储智能体所观测到的环境状态转移情况,在之后的训练中我们可以充分利用这些数据。通过对经验回放池中的数据进行随机采样,组成一个批次的转移情况是互不相关(decorrelated)的,这极大地提升了DQN训练的性能和稳定性。

    主要步骤如下:

           采样得到一个批次的样本,将这些样本对应的张量连接成一个单独的张量;
    分别利用策略Q网络与目标Q网络计算 与Q(st,at)​​​​与V(st+1)=maxaQ(st+1,a) ​​​​,利用它们计算损失函数.。另外,如果 s​​​​ 为终止状态,则令 V(s)=0 ​​​​
    更新Q网络参数。目标Q网络的参数每隔一段时间从主Q网络处固定而来,在本例中,我们在每个episode更新一次目标Q网络。

    2.仿真效果预览

    matlab2022a仿真结果如下:

    3.MATLAB部分代码预览

    1. for trial=1:MaxTr, %外部循环开始
    2. count=0;
    3. failure=0;
    4. failReason=0;
    5. lfts = 1;
    6. newSt = inistate;
    7. inputs = newSt./NF;
    8. lc = Initlc;
    9. la = Initla;
    10. xhist=newSt;
    11. %计算newAction
    12. ha = inputs*wa1;
    13. g = (1 - exp(-ha))./(1 + exp(-ha));
    14. va = g*wa2;
    15. newAction = (1 - exp(-va))./(1 + exp(-va));
    16. %计算J
    17. inp=[inputs newAction];
    18. qc=inp*wc1;
    19. p = (1 - exp(-qc))./(1 + exp(-qc));
    20. J=p*wc2;
    21. Jprev = J;
    22. while(lfts<Tit), %内部循环开始
    23. if (rem(lfts,500)==0),
    24. disp(['It is ' int2str(lfts) ' time steps now......']);
    25. end
    26. %生成控制信号
    27. if (newAction >= 0)
    28. sgnf = 1;
    29. else
    30. sgnf = -1;
    31. end
    32. u = Mag*sgnf; %bang-bang control
    33. %Plug in the model
    34. [T,Xf]=ode45('cartpole_model',[0 tstep],newSt,[],u);
    35. a=size(Xf);
    36. newSt=Xf(a(1),:);
    37. inputs=newSt./NF; %input normalization
    38. %计算newAction
    39. ha = inputs*wa1;
    40. g = (1 - exp(-ha))./(1 + exp(-ha));
    41. va = g*wa2;
    42. newAction = (1 - exp(-va))./(1 + exp(-va));
    43. %calculate new J
    44. inp=[inputs newAction];
    45. qc=inp*wc1;
    46. p = (1 - exp(-qc))./(1 + exp(-qc));
    47. J=p*wc2;
    48. xhist=[xhist;newSt];
    49. %%===========================================================%%
    50. %%求取强化信号r(t),即reinf %%
    51. %%===========================================================%%
    52. if (abs(newSt(1)) > FailTheta)
    53. reinf = 1;
    54. failure = 1;
    55. failReason = 1;
    56. elseif (abs(newSt(3)) > Boundary)
    57. reinf = 1;
    58. failure = 1;
    59. failReason = 2;
    60. else
    61. reinf = 0;
    62. end
    63. %%================================%%
    64. %% learning rate update scheme %%
    65. %%================================%%
    66. if (rem(lfts,5)==0)
    67. lc = lc - 0.05;
    68. la = la - 0.05;
    69. end
    70. if (lc<0.01)
    71. lc=0.005;
    72. end
    73. if (la<0.01)
    74. la=0.005;
    75. end
    76. %%================================================%%
    77. %% internal weights updating cycles for critnet %%
    78. %%================================================%%
    79. cyc = 0;
    80. ecrit = alpha*J-(Jprev-reinf);
    81. Ec = 0.5 * ecrit^2;
    82. while (Ec>Tc & cyc<=Ncrit),
    83. gradEcJ=alpha*ecrit;
    84. %----for the first layer(input to hidden layer)-----------
    85. gradqwc1 = [inputs'; newAction];
    86. for i=1:N_Hidden,
    87. gradJp = wc2(i);
    88. gradpq = 0.5*(1-p(i)^2);
    89. wc1(:,i) = wc1(:,i) - lc*gradEcJ*gradJp*gradpq*gradqwc1;
    90. end
    91. %----for the second layer(hidden layer to output)-----------
    92. gradJwc2=p';
    93. wc2 = wc2- lc*gradEcJ*gradJwc2;
    94. %----compute new J----
    95. inp=[inputs newAction];
    96. qc=inp*wc1;
    97. p = (1 - exp(-qc))./(1 + exp(-qc));
    98. J=p*wc2;
    99. cyc = cyc +1;
    100. ecrit = alpha*J-(Jprev-reinf);
    101. Ec = 0.5 * ecrit^2;
    102. end % end of "while (Ec>0.05 & cyc<=Ncrit)"
    103. %normalization weights for critical network
    104. if (max(max(abs(wc1)))>1.5)
    105. wc1=wc1/max(max(abs(wc1)));
    106. end
    107. if max(max(abs(wc2)))>1.5
    108. wc2=wc2/max(max(abs(wc2)));
    109. end
    110. %%=============================================%%
    111. %% internal weights updating cycles for actnet %%
    112. %%=============================================%%
    113. cyc = 0;
    114. eact = J - Uc;
    115. Ea = 0.5*eact^2;
    116. while (Ea>Ta & cyc<=Nact),
    117. graduv = 0.5*(1-newAction^2);
    118. gradEaJ = eact;
    119. gradJu = 0;
    120. for i=1:N_Hidden,
    121. gradJu = gradJu + wc2(i)*0.5*(1-p(i)^2)*wc1(WC_Inputs,i);
    122. end
    123. %----for the first layer(input to hidden layer)-----------
    124. for (i=1:N_Hidden),
    125. gradvg = wa2(i);
    126. gradgh = 0.5*(1-g(i)^2);
    127. gradhwa1 = inputs';
    128. wa1(:,i)=wa1(:,i)-la*gradEaJ*gradJu*graduv*gradvg*gradgh*gradhwa1;
    129. end
    130. %----for the second layer(hidden layer to output)-----------
    131. gradvwa2 = g';
    132. wa2=wa2-la*gradEaJ*gradJu*graduv*gradvwa2;
    133. %----compute new J and newAction-------
    134. ha = inputs*wa1;
    135. g = (1 - exp(-ha))./(1 + exp(-ha));
    136. va = g*wa2;
    137. newAction = (1 - exp(-va))./(1 + exp(-va));
    138. inp=[inputs newAction];
    139. qc=inp*wc1;
    140. p = (1 - exp(-qc))./(1 + exp(-qc));
    141. J=p*wc2;
    142. cyc = cyc+1;
    143. eact = J - Uc;
    144. Ea = 0.5*eact^2;
    145. end %end of "while (Ea>Ta & cyc<=Nact)"
    146. if ~failure
    147. Jprev=J;
    148. else
    149. break; %another trial 即跳出“while(lfts<Tit),”
    150. end
    151. lfts=lfts+1;
    152. end %end of "while(lfts 结束内部循环
    153. msgstr1=['Trial # ' int2str(trial) ' has ' int2str(lfts) ' time steps.'];
    154. msgstr21=['Trial # ' int2str(trial) ' has successfully balanced for at least '];
    155. msgstr22=[msgstr21 int2str(lfts) ' time steps '];
    156. A_027

    4.完整MATLAB程序

    matlab源码说明_我爱C编程的博客-CSDN博客

    V

  • 相关阅读:
    基于stm32单片机俄罗斯方块小游戏Proteus仿真
    Redis 事务 - 监控测试
    OAuth2+JWT新一代认证技术
    Docker安装使用
    idea之maven的安装与配置
    MyBatis-Plus分页插件和使用Mapper文件
    (附源码)计算机毕业设计SSM基于框架的临时摊位管理系统
    从零开始学React--JSX
    小谈静态类和单例模式
    23面向对象
  • 原文地址:https://blog.csdn.net/hlayumi1234567/article/details/128002932