本文讲述了一个1D-CNN被可视化。
有两个卷积层C1,C2
可视化了Fig10,Fig11,Fig12,Fig13
Fig10:第一层滤波器的时域和频率域,频率域看着只有一个峰。
Fig11:用activation maximization生成的使第一层某个核激活最大的信号,频率域看着只有一个峰,位置与Fig10对应。(作者:为了说明Neuron Activation maximization算法的有效性)
Fig12:用activation maximization生成的使第二层某个核激活最大的信号,频率域看着有多个峰。
Fig13:让每个类别的信号激活前三的第一层滤波器
作者说明了,随着网络的加深,网络的滤波器的语义由单通滤波器转化成多个带通的组合。
优点:1.用Activation maximization来导出多层CNN的学习成果(之前我是不知道怎么输出多层CNN的学习成果的)。
2.能够让我们知道第二层在找什么东西(我第一次看到)
3.对于时序的CNN滤波器,从频率的角度来考虑他们的相似性。
缺点: 没有对单个的决策进行解释(做不到)
FC层还是黑箱,没有给出整体频率域上的重要程度 (解决方法:加个Global avg pool,靠CAM和Fig12相乘,能估计出来什么样子的频率分量是整个网络在寻找的)
时域上是欠缺的。
原文:https://www.cnblogs.com/zuoci-acmer/p/12878065.html