CNN网络结构的发展(最全整理)

AI最新资讯4个月前发布 tree
35 0 0

今日应用


今日话题


CNN网络结构的发展(最全整理)
CNN网络结构的发展(最全整理)
 

重点标签 卷积神经网络CNN结构LeNet5AlexNetVGGGoogLeNetXceptionMobileNetEffNetEfficientNetResNetResNeXtDenseNetSqueezeNetShuffleNetSENetSKNet

文章摘要


本文详细介绍了十五种经典的卷积神经网络(CNN)结构,包括它们的基本部件和特点。CNN的基本部件包括局部感受野、池化、激活函数和全连接层。局部感受野通过卷积操作实现,池化用于减少像素信息,激活函数引入非线性,全连接层则作为分类器。以下是对这些经典网络结构的详细总结:

1. LeNet5:由两个卷积层、两个池化层和两个全连接层组成,卷积核为5×5,使用maxpooling。
2. AlexNet:共八层,包含五个卷积层和三个全连接层,使用ReLU激活函数,采用dropout和数据增强,双GPU实现,使用LRN。
3. VGG:全部使用3×3卷积核堆叠,网络层数更深,每段卷积后接一层最大池化,卷积核数目逐渐增加。
4. GoogLeNet (Inception v1):通过增加网络宽度来提高复杂度,减少参数,使用1×1卷积增加复杂度,Inception-v2加入batch normalization技术,Inception-v3将卷积核分解,Inception-v4引入ResNet
5. Xception:在Inception-v3基础上提出,采用通道分离式卷积,先做1×1卷积再做3×3卷积,提高精度。
6. MobileNet系列:V1使用depthwise separable convolutions,放弃pooling层,V2引入残差结构,pointwise后使用linear激活函数,V3结合v1和v2的特点,引入h-swish激活函数。
7. EffNet:对MobileNet-v1的改进,将dw层分解为3×1和1×3的dw层,减少计算量。
8. EfficientNet:研究网络设计在depth, width, resolution上的扩展方式,提高效率和准确率。
9. ResNet:解决梯度消失问题,增加shortcut连边。
10. ResNeXt:基于ResNet和Inception的结合,使用group convolution,增加Cardinatity提升模型表达能力。
11. DenseNet:通过特征重用减少参数量,缓解梯度消失问题。
12. SqueezeNet:提出fire-module,squeeze层+expand层,参数少,准确率高。
13. ShuffleNet系列:V1通过分组卷积和逐点群卷积核降低计算量,V2使神经网络更高效,减少内存访问成本。
14. SENet:引入注意力机制,提高模型性能。
15. SKNet:结合SENet的特点,进一步优化网络结构。

此外,文章还提供了技术专栏、技术综述和极视角动态等资源,以及如何加入极市CV技术交流群的方法。通过阅读原文,可以进入CV社区,收获更多技术干货。

文章来源


原文地址: 点我阅读全文
原文作者: 极市平台

© 版权声明

相关文章

暂无评论

暂无评论...