一、深度学习建模与调试流程
二、激活函数
sigmoid
ReLU
maxout
三、梯度下降的改进
Adagrad
RMSProp
Momentum
Adam = RMSProp + Momentum
Early Stopping
四、正则化
Dropout
深度学习模型训练技巧 Tips for Deep Learning
原文:https://www.cnblogs.com/chaojunwang-ml/p/11196420.html