首页 > 其他 > 详细

pytorch 笔记

时间:2018-09-28 10:40:11      阅读:158      评论:0      收藏:0      [点我收藏+]

DataParallel 几个gpu同时运行,每个处理不同的样例,而不是每个在同一个样例的不同阶段,然后一同把梯度加起来作为最终结果。这样子,如果一个batch是128,4个gpu,哪个一个batch分成4份喂到gpu里面,这样其实和一个gpu是一样结果的。

 

torch.cuda()会把现在创建的tensor都创建在当前选择的device里面。

 

b = torch.tensor([1., 2.]).cuda()这是两步动作,先在cpu创建,后放到gpu中。一步动作:

b2 = torch.tensor([1., 2.]).to(device=cuda)
 

pytorch 笔记

原文:https://www.cnblogs.com/waldenlake/p/9716702.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!