深度可分离卷积

点头的RNN课程里,老师提了个作业,用深度可分离卷积改写Alexnet

啊?深度可分离卷积?这是啥?冲浪了一会儿,找到以下不错的内容

概念讲得很好,还有背景知识拓展,不过代码演示是基于keras,之后找到pytorch实现的代码视频再补充(原理部分看完了,代码部分掠过)

pytorch代码实现(看不懂

V1亮点

V2亮点(看不懂

inverted residual倒残差结构

  • 先用PW升维,然后DW,然后PW降维

ReLU6

linear bottlenecks

V3亮点 (看不懂

更新Block(bneck)

  • 加入SE模块

使用NAS搜索参数
重新设计耗时层结构