如何评价shufflenet V2?
关注者
464被浏览
85,10112 个回答
非常好的工作,论文中的四个guide印证了我以往实际应用中遇到的问题的现象,且其中的理论分析都比我自己的思考的要深刻和明确。再次感叹,学术界终于有人站出来做一个真正运行快(MAC小)而不只是理论计算量(FLOPS)小的CNN基础网络了。
之前ShuffleNet V1的时候我就坚持不用Channel Shuffle,因为实际速度会慢,而且Feature Map会增大很多,所以直接用group=1的1x1卷积。现在ShuffleNet V2算是完美解决了这个问题。
看到论文后第一实现实现了,还在训练,直观感受是网络结构更加清爽,GPU训练速度比原来ShuffleNet V1快很多(因为depthwise卷积的量整体减少了很多,也没有1x1卷积的分组了),CPU上的Forward速度还没测,但应该不会慢。
附上我自己的ShuffleNet_V2的实现(同时支持PyTorch和Caffe),欢迎大家Star: