文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

总结近几年Pytorch基于Imgagenet数据集图像分类模型

2024-04-02 19:55

关注

AlexNet (2012 )

2012 年,AlexNet 由 Alex Krizhevsky 为 ImageNet 大规模视觉识别挑战赛 ( ILSVRV ) 提出的,ILSVRV 评估用于对象检测和图像分类的算法。

AlexNet 总共由八层组成

其中前5层是卷积层,后3层是全连接层。

前两个卷积层连接到重叠的最大池化层以提取最大数量的特征。

第三、四、五卷积层直接与全连接层相连。

卷积层和全连接层的所有输出都连接到 ReLu 非线性激活函数。

最后的输出层连接到一个 softmax 激活层,它产生 1000 个类标签的分布。

VGG (2014)

VGG 是一种流行的神经网络架构

由2014年,牛津大学的 Karen Simonyan 和 Andrew Zisserman 提出。

与 AlexNet 相比,VGG 的主要改进包括使用大内核大小的过滤器

(第一和第二卷积层中的大小分别为 11 和 5)和多个(3×3)内核大小的过滤器。

GoogleNet (2014)

2014年,GoogleNet 诞生,该架构有 22 层深

包括 27 个池化层。总共有 9 个初始模块线性堆叠。Inception 模块的末端连接到全局平均池化层。

下面是完整 GoogleNet 架构的缩小图像。

ResNet (2015)

由于深度神经网络训练既费时又容易过拟合,微软引入了一个残差学习框架来改进比以前使用的更深的网络的训练。

ResNet在PyTorch的官方代码中共有5种不同深度的结构

深度分别为18、34、50、101、152(各种网络的深度指的是“需要通过训练更新参数”的层数,如卷积层,全连接层等)。

Inception v3 (2015)

与 VGGNet 相比,

Inception Networks 已被证明在计算效率更高

Inception v3 网络的架构是逐步构建的,结构图可点击查看大图

在这里插入图片描述

SqueezeNet (2016)

SqueezeNet 是一个较小的网络

它的参数比 AlexNet 少近 50 倍,但执行速度快 3 倍。

如上图中最左边所示,SqueezeNet 以一个标准的卷积层开始,然后是 8 个 Fire 模块,最后再以一个卷积层结束。

步长为 2 的池化分别跟在第一个卷积层、 第 4 个 Fire 模块、第 8 个 Fire 模块和最后一个卷积层后面。

中间的网络结构在特征图通道数相同的 Fire 模块之间引入了残差网络中的跳跃连接,

而最右边的网络结构在中间结构的基础上,针对特征图通道数不一样的情况,通过一个 1×1 的卷积来调整通道数一致后再相加。

DenseNet (2016)

DenseNet 拥有与传统深度 CNN 相比的一大优势:

通过多层的信息在到达网络末端时不会被冲刷或消失。这是通过简单的连接模式实现的。

要理解这一点,必须知道普通 CNN 中的层是如何连接的。

这是一个简单的 CNN,其中各层按顺序连接。然而,在DenseNet 中,每一层从所有前面的层获得额外的输入,并将其自己的特征映射传递给所有后续层。

下面是描绘DenseNet 的图像。

在这里插入图片描述

Xception (2016)

Xception是Google公司继Inception后提出的

对 Inception-v3 的另一种改进

Xception 的结构基于 ResNet,但是将其中的卷积层换成了Separable Convolution(极致的 Inception模块)。

如下图所示。整个网络被分为了三个部分:Entry,Middle和Exit。

ShuffleNet v2 (2018)

2018年,开始了轻度网络的研究,MnasNet ,MobileNet,ShuffleNet,,Xception采用了分组卷积,

深度可分离卷积等操作,这些操作

在一定程度上大大减少了FLOP

整体 ShuffleNet v2 架构列表如下:

MnasNet (2018)

Google 团队最新提出 MnasNet

使用强化学习的思路,提出一种资源约束的终端 CNN 模型的自动神经结构搜索方法。

ResNeXt(2019)

ResNeXt是ResNet 的变体

ResNet有许多版本,对应的ResNeXt也有许多不同版本。

对比下,ResNet50和ResNeXt-50的网络结构图如下:

MobileNetv3 (2019)

在ImageNet分类任务上,相对于MobileNetV2,

MobileNetV3-small精度提高了大约3.2%,时间减少了15%

MobileNetV3-large精度提高了大约34.6%,时间减少了5%。

MobileNetV3的large和small结构如下图所示。

在这里插入图片描述

EfficientNet 2019 and EfficientNet v2 2021

谷歌研究人员在一篇 ICML 2019 论文《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》中,

提出了

一种新型模型缩放方法

该方法使用一种简单但高效的复合系数(compound coefficient)以更加结构化的方式扩展 CNN,这成为后ResNet时代的顶流EfficientNet,

很多模型网络及其复杂,学会怎么用轮子就好了。

以上就是总结近几年Pytorch基于Imgagenet数据集图像分类模型的详细内容,更多关于Pytorch基于Imgagenet数据集图像分类模型的资料请关注编程网其它相关文章!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯