首页 > 其他 > 详细

pytorch 基础问题

时间:2020-02-04 15:12:07      阅读:63      评论:0      收藏:0      [点我收藏+]

Batch 和Epoch

神经网络中参数更新常用随机梯度下降法,batch控制模型内部参数更新之前训练样本的个数;Epoch有一个或多个barch组成,控制通过训练数据集的完整传递的次数。

案例:200个样本的数据集,Batch为5,epoch为1000,。意味着有40个batch,每批5个样本训练后,模型权重会更新,一个epoch会有40个batch或40个模型更新。1000个epoch意味着整体数据集传递1000次,整个训练过程中,共有40000个batch。

pytorch 基础问题

原文:https://www.cnblogs.com/Christbao/p/12259259.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!