首页 > 其他 > 详细

Deep RL Bootcamp Lecture 8 Derivative Free Methods

时间:2018-05-02 14:09:49      阅读:238      评论:0      收藏:0      [点我收藏+]

技术分享图片

 

 

 

技术分享图片

技术分享图片

 

 

 

 技术分享图片

you wouldn‘t try to explore any problem structure in DFO

 

 

 

 

 技术分享图片

 

 

 

 

技术分享图片

 

 

 

 技术分享图片

low dimension policy

 

 

 

 

技术分享图片

 

30 degrees of freedom

120 paramaters to tune 

 

 

 

技术分享图片

 

 

 

 

 

 技术分享图片

 

 

 技术分享图片

keep the positive results in a smooth way.

 

 

 

 

技术分享图片

 

 

 

 技术分享图片

How does evolutionary method work well in high dimensional setting?

If you normalize the data well, evolutionary method could work well in MOJOCO, with random search. 

 

 

Could always only get stuck at local minima.

 

技术分享图片

humanoid 200k parameters need to be tuned, and it‘s learnt by evolutionary method.

The four videos are actually four different local minima, and once you get stuck on it, it can never get out of it.

 

 

 

 

技术分享图片

evolutionary method is roughly 10 times worse than action space policy gradient.

evolutionary method is hard to tune because previously people didn‘t get it to work with deep net

 

 

 

 

技术分享图片

 

 

 

 

 

技术分享图片

 

 

 

 

 技术分享图片

 

 

 

 技术分享图片

 

 

 

 

 

 

技术分享图片

 

 

 

 

 

技术分享图片

 

 

 

 

 技术分享图片

技术分享图片

技术分享图片

 

 

 

 

 

 

 

 技术分享图片

 

 

 

 

技术分享图片

 

 

 

 

 技术分享图片

 

Deep RL Bootcamp Lecture 8 Derivative Free Methods

原文:https://www.cnblogs.com/ecoflex/p/8979721.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!