首页 > 其他 > 详细

MAXIMUM A POSTERIORI POLICY OPTIMISATION (MPO)

时间:2021-07-16 11:01:34      阅读:33      评论:0      收藏:0      [点我收藏+]

技术分享图片
发表时间:2018(ICLR 2018)
文章要点:从variational inference的角度引入了一种新的RL范式:最大化后验策略优化(MAXIMUM A POSTERIORI POLICY OPTIMISATION,MPO)。主要式子如上图,目标是使得获得最大reward的事件出现的概率最大,然后引入了一个新的策略q,放缩成了右边的目标函数J(evidence lower bound (ELBO))。有点贝叶斯方法的感觉,然后用EM的方式更新,E-step更新q来提升J,M-step更新π来提升J。这个范式把最大熵策略(引入KL constraint)和信頼域方法(可以看做parametric E-step)也囊括了进来,算是policy optimization方法和off-policy方法的混合。在连续控制上效果较好,Atari这样的离散问题上效果比SOTA差些。
总结:从inference的角度看RL方法,挺有意思的。后面好多MCTS的文章也被拿来从MPO的角度来解释和进一步改进,挺重要的思路。
疑问:证明没明白,还需要看看yidaxu的课再回过头来看一遍paper。

MAXIMUM A POSTERIORI POLICY OPTIMISATION (MPO)

原文:https://www.cnblogs.com/initial-h/p/15018229.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!