• 借助CIFAR10模型结构理解卷积神经网络及Sequential的使用


     CIFAR10模型搭建

    CIFAR10模型结构

    0. input 3@32x323通道32x32的图片 --> 特征图(Feature maps) : 32@32x32
    即经过323@5x5的卷积层,输出尺寸没有变化(有x个特征图即有x个卷积核。卷积核的通道数与输入的通道数相等,即3@5x5)。
    两种方法推导出padding = 2stride = 1的值:

    公式法:

    𝐻𝑜𝑢𝑡=32,𝐻𝑖𝑛=32,dilation = 1(默认值,此时没有空洞),kernel_size = 5

    理论法:为保持输出尺寸不变,padding都是卷积核大小的一半,则有padding=kernel_size/2;奇数卷积核把中心格子对准图片第一个格子,卷积核在格子外有两层那么padding=2

    1.input 32@32x32 --> output : 32@16x16
    即经过2x2的最大池化层,stride = 2(池化层的步长为池化核的尺寸),padding = 0,特征图尺寸减小一半。
    2.input 32@16x16 --> output : 32@16x16
    即即经过323@5x5的卷积层,输出尺寸没有变化。padding = 2stride = 1
    3.input : 32@16x16 --> output : 32@8x8
    即经过2x2的最大池化层,stride = 2padding = 0,通道数不变,特征图尺寸减小一半。
    4.input : 32@8x8 --> output : 64@8x8
    即即经过643@5x5的卷积层,输出尺寸没有变化。padding = 2stride = 1
    5.input : 64@8x8 --> output : 64@4x4
    即经过2x2的最大池化层,stride = 2,padding = 0,通道数不变,特征图尺寸减小一半。
    6.input:64@4x4-->output :1×1024
    即经过展平层 Flatten 作用,将64@4x4的特征图依次排开。

    7.input:1×1024-->output :​​​​​​​1×64
    即经过线性层Linear1的作用。
    8.input:1×64-->output:1×10
    即经过线性层Linear2的作用。

    代码验证:
    按照网络结构一层一层搭建网络结构。
    示例1:

    1. # 导入需要用到的库
    2. import torch
    3. from torch import nn
    4. from torch.nn import Conv2d, MaxPool2d, Flatten, Linear
    5. # 搭建CIFAR10模型网络
    6. class Tudui(nn.Module):
    7. def __init__(self):
    8. super(Tudui, self).__init__()
    9. self.conv1 = Conv2d(3, 32, 5, padding=2) # 第一个卷积层
    10. self.maxpool1 = MaxPool2d(2) # 第一个最大池化层
    11. self.conv2 = Conv2d(32, 32, 5, padding=2) # 第二个卷积层
    12. self.maxpool2 = MaxPool2d(2) # 第二个最大池化层
    13. self.conv3 = Conv2d(32, 64, 5, padding=2) # 第三个卷积层
    14. self.maxpool3 = MaxPool2d(2) # 第三个最大池化层
    15. self.flatten = Flatten() # 展平层
    16. # 两个线性层
    17. self.linear1 = Linear(1024, 64) # 第一个线性层
    18. self.linear2 = Linear(64, 10) # 第二个线性层
    19. def forward(self, x):
    20. x = self.conv1(x)
    21. x = self.maxpool1(x)
    22. x = self.conv2(x)
    23. x = self.maxpool2(x)
    24. x = self.conv3(x)
    25. x = self.maxpool3(x)
    26. x = self.flatten(x)
    27. x = self.linear1(x)
    28. x = self.linear2(x)
    29. return x
    30. tudui = Tudui() # 实例化
    31. print(tudui) # 观察网络信息
    32. input = torch.ones((64, 3, 32, 32)) # 为网络创建假想输入,目的是检查网络是否正确
    33. output = tudui(input) # 输出
    34. print(output.shape) # torch.Size([64, 10]),结果与图片结果一致

     运行结果:

    1. # 两个print出的内容分别为:
    2. Tudui(
    3. (conv1): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    4. (maxpool1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    5. (conv2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    6. (maxpool2): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    7. (conv3): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    8. (maxpool3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    9. (flatten): Flatten(start_dim=1, end_dim=-1)
    10. (linear1): Linear(in_features=1024, out_features=64, bias=True)
    11. (linear2): Linear(in_features=64, out_features=10, bias=True)
    12. )
    13. torch.Size([64, 10])

    Sequential的使用

            当模型中只是简单的前馈网络时,即上一层的输出直接作为下一层的输入,这时可以采用torch.nn.Sequential()模块来快速搭建模型,而不必手动在forward()函数中一层一层地前向传播。因此,如果想快速搭建模型而不考虑中间过程的话,推荐使用torch.nn.Sequential()模块。

    接下来用torch.nn.Sequential()改写示例 1,示例 2 如下。
    示例2:

    1. # 导入需要用到的库
    2. import torch
    3. from torch import nn
    4. from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
    5. # 搭建CIFAR10模型网络
    6. class Tudui(nn.Module):
    7. def __init__(self):
    8. super(Tudui, self).__init__()
    9. self.model1 = Sequential(
    10. Conv2d(3, 32, 5, padding=2), # 第一个卷积层
    11. MaxPool2d(2), # 第一个最大池化层
    12. Conv2d(32, 32, 5, padding=2), # 第二个卷积层
    13. MaxPool2d(2), # 第二个最大池化层
    14. Conv2d(32, 64, 5, padding=2), # 第三个卷积层
    15. MaxPool2d(2), # 第三个最大池化层
    16. Flatten(), # 展平层
    17. # 两个线性层
    18. Linear(1024, 64), # 第一个线性层
    19. Linear(64, 10) # 第二个线性层
    20. )
    21. def forward(self, x):
    22. x = self.model1(x)
    23. return x
    24. tudui = Tudui() # 实例化
    25. print(tudui) # 观察网络信息
    26. input = torch.ones((64, 3, 32, 32)) # 为网络创建假想输入,目的是检查网络是否正确
    27. output = tudui(input) # 输出
    28. print(output.shape) # torch.Size([64, 10]),结果与图片结果一致

    运行结果:

    1. # 两个print出来的结果分别为:
    2. Tudui(
    3. (model1): Sequential(
    4. (0): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    5. (1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    6. (2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    7. (3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    8. (4): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    9. (5): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
    10. (6): Flatten(start_dim=1, end_dim=-1)
    11. (7): Linear(in_features=1024, out_features=64, bias=True)
    12. (8): Linear(in_features=64, out_features=10, bias=True)
    13. )
    14. )
    15. torch.Size([64, 10])

            我们发现,使用Sequential之后得到的结果(示例2)与按照前向传播一层一层搭建得到的结果(示例1)一致,使用Sequential之后可以使得forward函数中的内容得以简化。

    使用tensorboard实现网络结构可视化

    1. # 导入需要用到的库
    2. import torch
    3. from torch import nn
    4. from torch.nn import Conv2d, MaxPool2d, Flatten, Linear
    5. from torch.utils.tensorboard import SummaryWriter
    6. # 搭建CIFAR10模型网络
    7. class Tudui(nn.Module):
    8. def __init__(self):
    9. super(Tudui, self).__init__()
    10. self.conv1 = Conv2d(3, 32, 5, padding=2) # 第一个卷积层
    11. self.maxpool1 = MaxPool2d(2) # 第一个最大池化层
    12. self.conv2 = Conv2d(32, 32, 5, padding=2) # 第二个卷积层
    13. self.maxpool2 = MaxPool2d(2) # 第二个最大池化层
    14. self.conv3 = Conv2d(32, 64, 5, padding=2) # 第三个卷积层
    15. self.maxpool3 = MaxPool2d(2) # 第三个最大池化层
    16. self.flatten = Flatten() # 展平层
    17. # 两个线性层
    18. self.linear1 = Linear(1024, 64) # 第一个线性层
    19. self.linear2 = Linear(64, 10) # 第二个线性层
    20. def forward(self, x):
    21. x = self.conv1(x)
    22. x = self.maxpool1(x)
    23. x = self.conv2(x)
    24. x = self.maxpool2(x)
    25. x = self.conv3(x)
    26. x = self.maxpool3(x)
    27. x = self.flatten(x)
    28. x = self.linear1(x)
    29. x = self.linear2(x)
    30. return x
    31. tudui = Tudui() # 实例化
    32. print(tudui) # 观察网络信息
    33. input = torch.ones((64, 3, 32, 32)) # 为网络创建假想输入,目的是检查网络是否正确
    34. output = tudui(input) # 输出
    35. print(output.shape) # torch.Size([64, 10]),结果与图片结果一致
    36. # 使用tensorboard实现网络可视化
    37. writer = SummaryWriter("./log_sequential")
    38. writer.add_graph(tudui, input)
    39. writer.close()

    运行上述代码,则会在项目文件夹CIFAR10model中出现对应的日志文件夹log_sequential。

    随后打开Terminal,如下图所示。

     输入tensorboard --logdir=log_sequential,如下图所示。

    按下Enter键,得到一个网址,如下图所示。

     打开这个网址,得到可视化界面。

    我们点开搭建好的网络Tudui,可以得到更具体的网络每一层,如下图所示。

    我们将其放大,如下图所示。 

    网络中的每一层
  • 相关阅读:
    react写一个从下往上划出的弹框弹窗组件
    【深入浅出React和Redux】读书笔记二:设计高质量的React组件
    双精度浮点型double
    华为云云耀云服务器L实例评测|定时给微信群中推送每日新闻及生活小常识
    学科核心素养
    Nginx--SSL模块
    软考网络工程师每日一练10.20
    质量问题不是不爆,时候未到
    YOLOv7-PTQ量化部署
    C# String类的方法
  • 原文地址:https://blog.csdn.net/m0_48241022/article/details/132634215