首页 > 其他 > 详细

模型压缩 - Quantization Mimic

时间:2019-05-27 17:35:07      阅读:168      评论:0      收藏:0      [点我收藏+]

《Quantization Mimic: Towards Very Tiny CNN for Object Detection》

常见的模型压缩方法有:量化(BinaryNet)、分组卷积(ShuffleNet、MobileNet)、剪枝和 Mimic。Mimic 前身是知识蒸馏,属于迁移学习

算法过程:
1、训练一个 FP32 的教师网络(Teacher Network)
2、对 feature map 进行量化,得到量化后的教师网络
3、Teacher-Student Network,得到一个量化后的学生网络

量化后的网络,可以通过 FPGA 加速。

当学生网络过小的时候,Mimic方法可能学不到 high-level representations from teacher networks。量化后的网络的 feature map 的搜索空间会减少很多,更容易训练

Mimic 使用 L2 损失

模型压缩 - Quantization Mimic

原文:https://www.cnblogs.com/viredery/p/quantization_mimic.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!