• PVT:特征金字塔在Vision Transormer的首次应用,又快又好 | ICCV 2021


    论文设计了用于密集预测任务的纯Transformer主干网络PVT,包含渐进收缩的特征金字塔结构和spatial-reduction attention层,能够在有限的计算资源和内存资源下获得高分辨率和多尺度的特征图。从物体检测和语义分割的实验可以看到,PVT在相同的参数数量下比CNN主干网络更强大

    来源:晓飞的算法工程笔记 公众号

    论文: Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions

    Introduction


      ViT用无卷积的纯Transformer模型替换CNN主干网络,在图像分类任务上取得了不错的结果。虽然ViT适用于图像分类,但直接将其用于像素级密集预测(如对象检测和分割)具有一定难度,主要原因有两点:

    • ViT输出的特征图是单尺度且低分辨率的。
    • 即便是常见的输入图像尺寸,ViT的计算和内存成本都相对较高。

      为了解决上述问题,论文提出了一个纯Transformer主干网络Pyramid Vision Transformer(PVT),能够在许多下游任务中作为CNN的替代品,包括图像级预测以及像素级密集预测。如图1c所示,PVT通过以下几点来达成目的:

    • 将更细粒度图像块(4×4像素)作为输入来学习高分辨率特征,这对密集预测任务来说至关重要。
    • 引入渐进式收缩的特征金字塔,随着网络的加深而减少Transformer的序列长度,显著降低计算成本。
    • 引入spatial-reduction attention(SRA)层,进一步降低学习高分辨率特征时的资源消耗。

      总体而言,论文提出的的PVT具有以下优点:

    • 与传统的CNN主干网络随网络深度增加而变大的局部感受野相比,PVT始终产生全局感受野,更适合检测和分割。
    • 与ViT相比,特征金字塔的结构使得PVT可以更容易地嵌入到许多代表性的密集预测框架中,例如RetinaNet和Mask R-CNN。
    • 可以通过将PVT与其他用于特定任务的Transformer解码器相结合来构建一个无卷积的框架,例如用于对象检测的PVT+DETR,这是第一个完全无卷积的目标检测框架。

      论文的主要贡献如下:

    • 提出了Pyramid Vision Transformer(PVT),这是第一个专为各种像素级密集预测任务设计的纯Transformer主干网络。将PVT和DETR结合可以构建一个端到端的目标检测框架,无需卷积、anchors和非最大抑制 (NMS)等手工设计的组件。
    • 在将Transformer移植到密集预测任务时,PVT通过渐进式收缩的特征金字塔和spatial-reduction attention (SRA) 层显著减少资源消耗,使PVT能够灵活地学习多尺度和高分辨率的特征。

    • 在包括图像分类、对象检测、实例和语义分割的几个不同的任务上测试PVT,并将其与流行的ResNets和 ResNeXts进行比较。如图2所示,与现有模型相比,不同参数和尺度的PVT可以始终达到优异的性能。

    Pyramid Vision Transformer (PVT)


    Overall Architecture

      论文的核心是将特征金字塔结构加入到Transformer框架中,以便在密集预测任务中生成多尺度特征图。PVT的整体结构如图3所示,与CNN主干网络类似,包含四个生成不同尺寸特征图的Stage。所有Stage都具有类似的结构,由Patch Embedding层和Li" role="presentation" style="font-size: 123%; position: relative;">Li个Transformer encdoer层组成。
      在Stage 1,给定H×W×3" role="presentation" style="font-size: 123%; position: relative;">H×W×3的输入图像,先将其划分为HW42" role="presentation" style="font-size: 123%; position: relative;">HW42个大小为4×4×3" role="presentation" style="font-size: 123%; position: relative;">4×4×3的图像块,将其输入到Patch Embedding层后展开为HW42×C1" role="presentation" style="font-size: 123%; position: relative;">HW42×C1的特征序列。然后将特征序列和Position embedding相加输入到Li" role="presentation" style="font-size: 123%; position: relative;">Li层的Transformer encdoer,最终输出大小为H4×W4×C1" role="presentation" style="font-size: 123%; position: relative;">H4×W4×C1的特征图F1" role="presentation" style="font-size: 123%; position: relative;">F1
      后续的Stage将前一阶段的特征输出作为输入进行同样的操作,分别输出特征图:F2" role="presentation" style="font-size: 123%; position: relative;">F2F3" role="presentation" style="font-size: 123%; position: relative;">F3F4" role="presentation" style="font-size: 123%; position: relative;">F4,相对于输入图像的缩小比例为8、16和32倍。通过特征金字塔{F1" role="presentation" style="font-size: 123%; position: relative;">F1F2" role="presentation" style="font-size: 123%; position: relative;">F2F3" role="presentation" style="font-size: 123%; position: relative;">F3F4" role="presentation" style="font-size: 123%; position: relative;">F4},PVT可以很容易地应用于大多数下游任务,包括图像分类、目标检测和语义分割。

    Feature Pyramid for Transformer

      与使用不同步长卷积构造多尺度特征图的CNN主干网络不同,PVT使用渐进收缩的策略,由Patch Embedding层控制特征图的尺寸。
      设定Stage i" role="presentation" style="font-size: 123%; position: relative;">i的单个特征块的大小为Pi" role="presentation" style="font-size: 123%; position: relative;">Pi。在Stage开始时,将输入特征图Fi1RHi1×Wi1×Ci1" role="presentation" style="font-size: 123%; position: relative;">Fi1RHi1×Wi1×Ci1平均划分为Hi1Wi1Pi2" role="presentation" style="font-size: 123%; position: relative;">Hi1Wi1Pi2个特征块。按特征块线性映射成Ci" role="presentation" style="font-size: 123%; position: relative;">Ci维并展平成特征序列,经过Transofrmer encdoer处理后reshape为Hi1Pi×Wi1Pi×Ci" role="presentation" style="font-size: 123%; position: relative;">Hi1Pi×Wi1Pi×Ci的特征图,其中高度和宽度是输入的1Pi" role="presentation" style="font-size: 123%; position: relative;">1Pi倍。
      这样,每个Stage都可以通过调整Pi" role="presentation" style="font-size: 123%; position: relative;">Pi来灵活地调整特征图的比例,从而为Transformer构建一个特征金字塔。

    Transformer Encoder

      Stage i" role="presentation" style="font-size: 123%; position: relative;">i中的Transformer encoder具有Li" role="presentation" style="font-size: 123%; position: relative;">Li个encoder层,每层由一个attention层和feed-forward层组成。由于PVT需要处理高分辨率的特征图,论文提出了spatial-reduction attention(SRA)层来取代encoder中的multi-head attention(MHA)层。
      SRA与MHA一样接收query Q、key K和value V作为输入,不同之处在于SRA在attention操作之前降低了KV的特征维度,这可以在很大程度上减少计算和内存的开销。Stage i" role="presentation" style="font-size: 123%; position: relative;">i的SRA可公式化为:

      其中,Concat()" role="presentation" style="font-size: 123%; position: relative;">Concat()是特征拼接操作。WjQRCi×dhead" role="presentation" style="font-size: 123%; position: relative;">WjQRCi×dheadWjKRCi×dhead" role="presentation" style="font-size: 123%; position: relative;">WjKRCi×dheadWjVRCi×dhead" role="presentation" style="font-size: 123%; position: relative;">WjVRCi×dheadWORCi×dhead" role="presentation" style="font-size: 123%; position: relative;">WORCi×dhead是线性变换的参数,Ni" role="presentation" style="font-size: 123%; position: relative;">Ni是attention层的head数量。因此,每个head的特征维度等于CiNi" role="presentation" style="font-size: 123%; position: relative;">CiNi
    SR()" role="presentation" style="font-size: 123%; position: relative;">SR()是用于降低输入特征序列(即KV)的特征维度的操作,公式为:

    xR(HiWi)×Ci" role="presentation" style="font-size: 123%; position: relative;">xR(HiWi)×Ci表示输入特征序列,Ri" role="presentation" style="font-size: 123%; position: relative;">Ri表示Stage i" role="presentation" style="font-size: 123%; position: relative;">i中attention层的缩减比例。Reshape(x,Ri)" role="presentation" style="font-size: 123%; position: relative;">Reshape(x,Ri)用于将输入序列x" role="presentation" style="font-size: 123%; position: relative;">x reshape成大小为HiWiRi2×(Ri2Ci)" role="presentation" style="font-size: 123%; position: relative;">HiWiRi2×(Ri2Ci)的序列。WSR(Ri2Ci)×Ci" role="presentation" style="font-size: 123%; position: relative;">WSR(Ri2Ci)×Ci为线性映射参数,将reshape后的输入序列的维度降至Ci" role="presentation" style="font-size: 123%; position: relative;">CiNorm()" role="presentation" style="font-size: 123%; position: relative;">Norm()为层归一化。attention操作Attention()" role="presentation" style="font-size: 123%; position: relative;">Attention()与原始Transformer一样,计算公式如下:

      通过这些公式可以看到,SRA的计算和内存成本比MHA低Ri2" role="presentation" style="font-size: 123%; position: relative;">Ri2倍,可以用有限的资源处理较大的输入特征图或特征序列。

    Model Details

      总体而言,PVT的超参数如下所示:

    • Pi" role="presentation" style="font-size: 123%; position: relative;">Pi:Stage i" role="presentation" style="font-size: 123%; position: relative;">i的特征块大小
    • Ci" role="presentation" style="font-size: 123%; position: relative;">Ci:Stage i" role="presentation" style="font-size: 123%; position: relative;">i输出特征的通道数
    • Li" role="presentation" style="font-size: 123%; position: relative;">Li:Stage i" role="presentation" style="font-size: 123%; position: relative;">i encoder的层数
    • Ri" role="presentation" style="font-size: 123%; position: relative;">Ri:Stage i" role="presentation" style="font-size: 123%; position: relative;">i SRA的缩减比例
    • Ni" role="presentation" style="font-size: 123%; position: relative;">Ni:Stage i" role="presentation" style="font-size: 123%; position: relative;">i SRA的Head数量
    • Ei" role="presentation" style="font-size: 123%; position: relative;">Ei:Stage i" role="presentation" style="font-size: 123%; position: relative;">i feed-forward的expansion比例

      根据ResNet的设计规则,PVT在浅层使用较小输出通道数,在中间层集中主要计算资源。

      如表1所示,为了方便对比,论文设计了一系列不同尺度的PVT模型PVT Tiny、Small、Medium和Large,参数量分别对标ResNet18、50、101和152。

    Discussion

      ViT是与PVT最相关的研究,论文特意对它们之间的关系和区别进行了说明:

    • PVT和ViT都是无卷积的纯Transformer模型,主要区别是特征金字塔结构。ViT与传统Transformer一样,输出序列的长度与输入相同,这意味着ViT的仅输出单尺度特征。
    • 由于资源有限,ViT的输入都是粗粒度的(图像块大小为16或32像素),其输出分辨率相对较低(16步长或32步长)。因此,很难将ViT直接应用于需要高分辨率或多尺度特征图的密集预测任务。

      PVT加入了渐进收缩的特征金字塔,可以像传统的CNN主干网络一样生成多尺度特征图。此外,PVT还加入了一种简单但高效的attention层SRA,能够处理高分辨率特征地图并减少计算/内存消耗。得益于上述设计,PVT与ViT相比具有以下优点:

    • 更灵活,可以在不同阶段生成不同比例/通道的特征图。
    • 更通用,可以很轻松地嵌入大多数下游任务模型中发挥作用。
    • 对计算/内存更友好,可以处理更高分辨率的特征图或更长的特征序列。

    Application to Downstream Tasks


    Image-Level Prediction

      图像分类是图像级预测中最经典的任务,论文设计了一系列不同尺度的PVT模型PVT Tiny、Small、Medium和Large,其参数量分别对标ResNet18、50、101和152。
      在进行图像分类时,遵循ViT和DeiT的做法将可学习的分类token附加到最后的阶段的输入,然后使用FC层对token对应的输出进行分类。

    Pixel-Level Dense Prediction

     在下游任务中,经常需要在特征图上执行像素级分类或回归的密集预测,比如目标检测和语义分割。将PVT模型应用于三种具有代表性的密集预测方法:RetinaNet、Mask RCNN和Semantic FPN,基于这些方法来对比不同主干网络的有效性,实现细节如下:

    • 与ResNet一样,使用在ImageNet上预先训练的权重初始化PVT主干网络。
    • 使用PVT输出的特征金字塔{F1" role="presentation" style="font-size: 123%; position: relative;">F1F2" role="presentation" style="font-size: 123%; position: relative;">F2F3" role="presentation" style="font-size: 123%; position: relative;">F3F4" role="presentation" style="font-size: 123%; position: relative;">F4}作为FPN的输入,然后将FPN的特征图输入后续检测/分割Head。
    • 在训练检测/分割模型时,PVT的所有权值都不会被冻结。
    • 由于检测/分割的输入可以是任意形状,因此在ImageNet上预先训练的位置嵌入不能直接使用,需要根据输入分辨率对预训练的位置嵌入执行双线性插值。

    Experiment


      ImageNet上的性能对比。

      COCO val2017上的目标检测性能。

      COCO val2017上的实例分割性能。

      ADE20K上的语义分割性能。

      与DETR结合的纯Transformer目标检测性能。

      与Trans2Seg结合的纯Transformer语义分割性能。

      与ViT作为主干网络的目标检测性能对比。

      不同训练周期以及预训练对检测性能的影响

      深度和参数对检测性能的影响。

      与加上non-local的CNN网络的性能对比。

      输入尺寸对性能的影响。

      输入分辨率与参数量的关系。

      目标检测、实例分割、语义分割的结果可视化。

    Conclusion


      论文设计了用于密集预测任务的纯Transformer主干网络PVT,包含渐进收缩的特征金字塔结构和spatial-reduction attention层,能够在有限的计算资源和内存资源下获得高分辨率和多尺度的特征图。从物体检测和语义分割的实验可以看到,PVT在相同的参数数量下比CNN主干网络更强大。



    如果本文对你有帮助,麻烦点个赞或在看呗~
    更多内容请关注 微信公众号【晓飞的算法工程笔记】

    work-life balance.
  • 相关阅读:
    55、基于 WebFlux 开发 WebSocKet
    Xilinx ISE系列教程(1):ISE开发环境下载、安装、注册(Windows 10 64位系统)
    Http客户端OkHttp的基本使用
    操作系统底层知识总结(面试)
    Eigen库学习(2)--------------几何模块
    D. AND, OR and square sum(二进制位+贪心)
    [附源码]java毕业设计汽车票售票系统lunwen
    河北联通HG680-L_S905L2_线刷固件包
    Superset 1.2.0 安装
    Vue3 <script setup>中局部引入组件,动态组件不渲染内容
  • 原文地址:https://www.cnblogs.com/VincentLee/p/18206079