如何评价shufflenet V2?

https://mp.weixin.qq.com/s/tceLrEalafgL8R44DZYP9g
关注者
464
被浏览
85,101

12 个回答

非常好的工作,论文中的四个guide印证了我以往实际应用中遇到的问题的现象,且其中的理论分析都比我自己的思考的要深刻和明确。再次感叹,学术界终于有人站出来做一个真正运行快(MAC小)而不只是理论计算量(FLOPS)小的CNN基础网络了。

之前ShuffleNet V1的时候我就坚持不用Channel Shuffle,因为实际速度会慢,而且Feature Map会增大很多,所以直接用group=1的1x1卷积。现在ShuffleNet V2算是完美解决了这个问题。

看到论文后第一实现实现了,还在训练,直观感受是网络结构更加清爽,GPU训练速度比原来ShuffleNet V1快很多(因为depthwise卷积的量整体减少了很多,也没有1x1卷积的分组了),CPU上的Forward速度还没测,但应该不会慢。

附上我自己的ShuffleNet_V2的实现(同时支持PyTorch和Caffe),欢迎大家Star:

miaow1988/ShuffleNet_V2_pytorch_caffe

旷视果然还是大佬,小弟只能认真研读