首页 > 其他 > 详细

keras调参经验

时间:2019-10-09 19:27:38      阅读:124      评论:0      收藏:0      [点我收藏+]

调参技巧

  • 层叠LSTM的层时 尽量保持两个隐藏层个数一致 收敛的快的多
  • 两层LSTM比一层好很多
  • 激活函数很重要 relu通常效果比较好
  • 学习率太大(0.02),记得要是0.001数量级的学习率,否则直接不收敛,因此学习率不要太大,越小越好

  • 正则化参数
    • L1正则化效果很差
    • L2正则化 一般是0.01左右
    • 这个参数影响不太 而且容易拖累模型训练速度
  • Dropout

    • 待补充

      优化器

      from tensorflow.keras import optimizers
      常用optimizers.Adam ,Nadam 学习率的设置在0.001数量级

keras调参经验

原文:https://www.cnblogs.com/rise0111/p/11643547.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!