首页 > 其他 > 详细

大规模机器学习

时间:2020-03-17 12:12:23      阅读:65      评论:0      收藏:0      [点我收藏+]

这一节主要讲了一些适用于大规模机器学习的算法及策略,并比较了梯度下降、随机梯度下降和小批量梯度下降的优劣。目前来说,大规模机器学习中用的最多的还是小批量梯度下降,毕竟它在执行效率和性能之间达到了一个平衡。当然,对于小批量梯度下降来说,如何选择合适的批量大小又是一个值得深思的问题。

梯度下降

\[ \begin{aligned} &\text{Repeat}\{\&\quad\quad\Theta_{t+1} := \Theta_t - \alpha\frac{1}{n}\sum_{i=1}^n\nabla\text{cost}\left(f(x^{(i)};\Theta_t),y^{(i)}\right)\&\} \end{aligned} \]

随机梯度下降

\[\begin{aligned} &\text{Repeat}\{\&\quad\quad\text{Shuffer training dataset randomly}\&\quad\quad \text{Select }\textbf{one}\text{ example from training dataset}\&\quad\quad\Theta_{t+1} := \Theta_t - \alpha\nabla\text{cost}\left(f(x^{(i)};\Theta_t),y^{(i)}\right)\&\} \end{aligned}\]

小批量梯度下降

\[\begin{aligned} &\text{Repeat}\{\&\quad\quad\text{Shuffer training data randomly}\&\quad\quad\text{Select }b\text{ examples from training dataset}\&\quad\quad\Theta_{t+1} := \Theta_t - \alpha\frac{1}{b}\sum_{i=1}^b\nabla\text{cost}\left(f(x^{(i)};\Theta_t),y^{(i)}\right)\&\} \end{aligned}\]
后面介绍了分布式机器学习中的Map-Reduce方法,其实现阶段(2020年)常用的方法还是数据并行和模型并行这两种。主要使用的架构包括参数服务器以及一些环状架构,这里就不作过多介绍了。

大规模机器学习

原文:https://www.cnblogs.com/littleorange/p/12509630.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!