• 【深度学习实验】前馈神经网络(九):整合训练、评估、预测过程(Runner)


    目录

    一、实验介绍

    二、实验环境

    1. 配置虚拟环境

    2. 库版本介绍

    三、实验内容

    0. 导入必要的工具包

    1. __init__(初始化)

    2. train(训练)

    3. evaluate(评估)

    4. predict(预测)

    5. save_model(保存模型参数)

    6. load_model(加载模型参数)

    7. 代码整合


     

     

     

     

    一、实验介绍

          本实验实现了Runner类,用于模型的训练、评估和预测。通过该类,可以更方便地进行模型的训练和评估,并获取训练过程中的损失变化和评价指标的变化情况。

     

    二、实验环境

        本系列实验使用了PyTorch深度学习框架,相关操作如下:

    1. 配置虚拟环境

    conda create -n DL python=3.7 
    conda activate DL
    pip install torch==1.8.1+cu102 torchvision==0.9.1+cu102 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html
    
    conda install matplotlib
     conda install scikit-learn

    2. 库版本介绍

    软件包本实验版本目前最新版
    matplotlib3.5.33.8.0
    numpy1.21.61.26.0
    python3.7.16 
    scikit-learn0.22.11.3.0
    torch1.8.1+cu1022.0.1
    torchaudio0.8.12.0.2
    torchvision0.9.1+cu1020.15.2

     

    三、实验内容

    ChatGPT:

            前馈神经网络(Feedforward Neural Network)是一种常见的人工神经网络模型,也被称为多层感知器(Multilayer Perceptron,MLP)。它是一种基于前向传播的模型,主要用于解决分类和回归问题。

            前馈神经网络由多个层组成,包括输入层、隐藏层和输出层。它的名称"前馈"源于信号在网络中只能向前流动,即从输入层经过隐藏层最终到达输出层,没有反馈连接。

    以下是前馈神经网络的一般工作原理:

    1. 输入层:接收原始数据或特征向量作为网络的输入,每个输入被表示为网络的一个神经元。每个神经元将输入加权并通过激活函数进行转换,产生一个输出信号。

    2. 隐藏层:前馈神经网络可以包含一个或多个隐藏层,每个隐藏层由多个神经元组成。隐藏层的神经元接收来自上一层的输入,并将加权和经过激活函数转换后的信号传递给下一层。

    3. 输出层:最后一个隐藏层的输出被传递到输出层,输出层通常由一个或多个神经元组成。输出层的神经元根据要解决的问题类型(分类或回归)使用适当的激活函数(如Sigmoid、Softmax等)将最终结果输出。

    4. 前向传播:信号从输入层通过隐藏层传递到输出层的过程称为前向传播。在前向传播过程中,每个神经元将前一层的输出乘以相应的权重,并将结果传递给下一层。这样的计算通过网络中的每一层逐层进行,直到产生最终的输出。

    5. 损失函数和训练:前馈神经网络的训练过程通常涉及定义一个损失函数,用于衡量模型预测输出与真实标签之间的差异。常见的损失函数包括均方误差(Mean Squared Error)和交叉熵(Cross-Entropy)。通过使用反向传播算法(Backpropagation)和优化算法(如梯度下降),网络根据损失函数的梯度进行参数调整,以最小化损失函数的值。

            前馈神经网络的优点包括能够处理复杂的非线性关系,适用于各种问题类型,并且能够通过训练来自动学习特征表示。然而,它也存在一些挑战,如容易过拟合、对大规模数据和高维数据的处理较困难等。为了应对这些挑战,一些改进的网络结构和训练技术被提出,如卷积神经网络(Convolutional Neural Networks)和循环神经网络(Recurrent Neural Networks)等。

    本系列为实验内容,对理论知识不进行详细阐释

    (咳咳,其实是没时间整理,待有缘之时,回来填坑)

    977468b5ae9843c6a88005e792817cb1.png

     

     

    0. 导入必要的工具包

    1. import torch
    2. from torch import nn
    3. import torch.nn.functional as F
    4. # 绘画时使用的工具包
    5. import matplotlib.pyplot as plt
    6. # 导入鸢尾花数据集
    7. from sklearn.datasets import load_iris
    8. # 构建自己的数据集,继承自Dataset类
    9. from torch.utils.data import Dataset, DataLoader

     

    1. __init__(初始化)

    1. def __init__(self, model, optimizer, loss_fn, metric, **kwargs):
    2. self.model = model
    3. self.optimizer = optimizer
    4. self.loss_fn = loss_fn
    5. # 用于计算评价指标
    6. self.metric = metric
    7. # 记录训练过程中的评价指标变化
    8. self.dev_scores = []
    9. # 记录训练过程中的损失变化
    10. self.train_epoch_losses = []
    11. self.dev_losses = []
    12. # 记录全局最优评价指标
    13. self.best_score = 0
    • 五个参数:
      • model(模型):用于进行训练、评估和预测;
      • optimizer(优化器):用于更新模型的参数;
      • loss_fn(损失函数):用于计算模型的损失;
      • metric(评价指标):用于评估模型的性能;
      • **kwargs(其他可选参数)
    • 该类还定义了一些用于记录训练过程中的指标变化和全局最优指标的属性:
      • self.dev_scores(记录验证集评价指标的变化)
      • self.train_epoch_losses(记录训练集损失的变化)
      • self.dev_losses(记录验证集损失的变化)
      • self.best_score(记录全局最优评价指标)

     

    2. train(训练)

           遍历训练数据集进行模型训练,并在一定轮次上进行验证。

    • train_loader:训练数据集的数据加载器。
    • dev_loader:验证数据集的数据加载器(可选)。
    • **kwargs:可选的其他参数,如训练轮数、日志输出频率等。
    1. def train(self, train_loader, dev_loader=None, **kwargs):
    2. # 将模型设置为训练模式,此时模型的参数会被更新
    3. self.model.train()
    4. num_epochs = kwargs.get('num_epochs', 0)
    5. log_steps = kwargs.get('log_steps', 100)
    6. save_path = kwargs.get('save_path', 'best_mode.pth')
    7. eval_steps = kwargs.get('eval_steps', 0)
    8. # 运行的step数,不等于epoch数
    9. global_step = 0
    10. if eval_steps:
    11. if dev_loader is None:
    12. raise RuntimeError('Error: dev_loader can not be None!')
    13. if self.metric is None:
    14. raise RuntimeError('Error: Metric can not be None')
    15. # 遍历训练的轮数
    16. for epoch in range(num_epochs):
    17. total_loss = 0
    18. # 遍历数据集
    19. for step, data in enumerate(train_loader):
    20. x, y = data
    21. logits = self.model(x.float())
    22. loss = self.loss_fn(logits, y.long())
    23. total_loss += loss
    24. if log_steps and global_step % log_steps == 0:
    25. print(f'loss:{loss.item():.5f}')
    26. loss.backward()
    27. self.optimizer.step()
    28. self.optimizer.zero_grad()
    29. # 每隔一定轮次进行一次验证,由eval_steps参数控制,可以采用不同的验证判断条件
    30. if (epoch + 1) % eval_steps == 0:
    31. dev_score, dev_loss = self.evaluate(dev_loader, global_step=global_step)
    32. print(f'[Evalute] dev score:{dev_score:.5f}, dev loss:{dev_loss:.5f}')
    33. if dev_score > self.best_score:
    34. self.save_model(f'model_{epoch + 1}.pth')
    35. print(
    36. f'[Evaluate]best accuracy performance has been updated: {self.best_score:.5f}-->{dev_score:.5f}')
    37. self.best_score = dev_score
    38. # 验证过程结束后,请记住将模型调回训练模式
    39. self.model.train()
    40. global_step += 1
    41. # 保存当前轮次训练损失的累计值
    42. train_loss = (total_loss / len(train_loader)).item()
    43. self.train_epoch_losses.append((global_step, train_loss))
    44. print('[Train] Train done')

     

    • 通过self.model.train()将模型设置为训练模式,这意味着在训练过程中模型的参数会被更新。

    • kwargs参数中获取一些配置信息,如训练的轮数num_epochs、日志输出步数log_steps、模型保存路径save_path和评估步数eval_steps等。

    • 初始化全局步数global_step为0。

    • 如果设置了评估步数eval_steps,则需要进行模型评估。

      • 如果没有提供验证数据集dev_loader,会抛出一个RuntimeError异常。

      • 如果没有设置评估指标self.metric,也会抛出一个RuntimeError异常。

    • 使用循环遍历训练的轮数num_epochs

      • 在每一轮训练开始前,初始化总损失total_loss为0。

      • 使用enumerate(train_loader)遍历训练数据集,获取数据data和对应的索引step

        • data中获取输入数据x和目标数据y

        • 将输入数据x传入模型self.model,得到模型的预测结果logits

        • 使用损失函数self.loss_fn计算预测结果logits和目标数据y之间的损失loss

        • 累加每个样本的损失到总损失total_loss中。

        • 如果设置了日志输出步数log_steps,并且当前步数global_step是日志输出步数的倍数,则打印当前步数的损失值。

        • 对损失值进行反向传播计算梯度,并更新模型的参数。

        • 清空梯度,为下一轮训练做准备。

      • 如果当前轮次是需要进行验证的轮次(根据eval_steps参数控制)

        • 调用self.evaluate函数对模型进行评估,并获取评估结果dev_score和验证损失dev_loss

        • 打印验证结果。

        • 如果当前的验证结果dev_score优于之前的最佳结果self.best_score,则保存模型,并更新最佳结果self.best_score

        • 在完成验证后,将模型调回训练模式,以便继续训练。

      • 更新全局步数global_step

      • 计算当前轮次的平均训练损失train_loss,并将其添加到self.train_epoch_losses列表中。

    • 完成所有训练轮次后,打印训练完成的提示信息。

     

    3. evaluate(评估)

            使用验证数据集评估模型性能,并计算评价指标和损失值。(设置模型为验证模式,可以保持模型参数不变,以便在验证过程中进行准确的评估)

    1. def evaluate(self, dev_loader, **kwargs):
    2. assert self.metric is not None
    3. # 将模型设置为验证模式,此模式下,模型的参数不会更新
    4. self.model.eval()
    5. global_step = kwargs.get('global_step', -1)
    6. total_loss = 0
    7. self.metric.reset()
    8. for batch_id, data in enumerate(dev_loader):
    9. x, y = data
    10. logits = self.model(x.float())
    11. loss = self.loss_fn(logits, y.long()).item()
    12. total_loss += loss
    13. self.metric.update(logits, y)
    14. dev_loss = (total_loss / len(dev_loader))
    15. self.dev_losses.append((global_step, dev_loss))
    16. dev_score = self.metric.accumulate()
    17. self.dev_scores.append(dev_score)
    18. return dev_score, dev_loss

     

    • 使用assert self.metric is not None断言确保评估指标self.metric不为空。

    • 将模型设置为验证模式,即通过self.model.eval()将模型的状态设置为验证模式。在验证模式下,模型的参数不会被更新。

    • kwargs参数中获取全局步数global_step,默认为-1。

    • 初始化总损失total_loss为0。

    • 调用评估指标的reset()方法,用于重置评估指标的内部状态。

    • 使用循环遍历验证数据集dev_loader

      • 对于每个批次的数据,获取输入数据x和目标数据y

      • 将输入数据x传入模型self.model,得到模型的预测结果logits

      • 使用损失函数self.loss_fn计算预测结果logits和目标数据y之间的损失loss。使用.item()方法将损失值转换为标量。

      • 将每个批次的损失值累加到总损失total_loss中。

      • 调用评估指标的update()方法,传入预测结果logits和目标数据y,用于更新评估指标的状态。

    • 计算验证集的平均损失dev_loss,即总损失除以验证数据集的长度。

    • 将当前全局步数global_step和验证损失dev_loss添加到self.dev_losses列表中,用于后续的记录和分析。

    • 调用评估指标的accumulate()方法,计算并返回累积的评估指标值。

    • 将当前的评估指标值dev_score添加到self.dev_scores列表中,用于后续的记录和分析。

    • 返回评估指标值dev_score和验证损失dev_loss

     

    4. predict(预测)

        用于对输入数据进行预测。将模型设置为评估模式(self.model.eval()),然后通过self.model进行前向传播,得到预测结果logits。

    1. def predict(self, x, **kwargs):
    2. self.model.eval()
    3. logits = self.model(x)
    4. return logits

     

    5. save_model(保存模型参数)

     

    1. def save_model(self, save_path):
    2. torch.save(self.model.state_dict(),save_path)

     

    6. load_model(加载模型参数)

    1. def load_model(self, model_path):
    2. self.model.load_state_dict(torch.load(model_path, map_location=torch.device('cpu')))

     

    7. 代码整合

    1. class Runner(object):
    2. def __init__(self, model, optimizer, loss_fn, metric, **kwargs):
    3. self.model = model
    4. self.optimizer = optimizer
    5. self.loss_fn = loss_fn
    6. # 用于计算评价指标
    7. self.metric = metric
    8. # 记录训练过程中的评价指标变化
    9. self.dev_scores = []
    10. # 记录训练过程中的损失变化
    11. self.train_epoch_losses = []
    12. self.dev_losses = []
    13. # 记录全局最优评价指标
    14. self.best_score = 0
    15. # 模型训练阶段
    16. def train(self, train_loader, dev_loader=None, **kwargs):
    17. # 将模型设置为训练模式,此时模型的参数会被更新
    18. self.model.train()
    19. num_epochs = kwargs.get('num_epochs', 0)
    20. log_steps = kwargs.get('log_steps', 100)
    21. save_path = kwargs.get('save_path','best_mode.pth')
    22. eval_steps = kwargs.get('eval_steps', 0)
    23. # 运行的step数,不等于epoch数
    24. global_step = 0
    25. if eval_steps:
    26. if dev_loader is None:
    27. raise RuntimeError('Error: dev_loader can not be None!')
    28. if self.metric is None:
    29. raise RuntimeError('Error: Metric can not be None')
    30. # 遍历训练的轮数
    31. for epoch in range(num_epochs):
    32. total_loss = 0
    33. # 遍历数据集
    34. for step, data in enumerate(train_loader):
    35. x, y = data
    36. logits = self.model(x.float())
    37. loss = self.loss_fn(logits, y.long())
    38. total_loss += loss
    39. if log_steps and global_step%log_steps == 0:
    40. print(f'loss:{loss.item():.5f}')
    41. loss.backward()
    42. self.optimizer.step()
    43. self.optimizer.zero_grad()
    44. # 每隔一定轮次进行一次验证,由eval_steps参数控制,可以采用不同的验证判断条件
    45. if (epoch+1)% eval_steps == 0:
    46. dev_score, dev_loss = self.evaluate(dev_loader, global_step=global_step)
    47. print(f'[Evalute] dev score:{dev_score:.5f}, dev loss:{dev_loss:.5f}')
    48. if dev_score > self.best_score:
    49. self.save_model(f'model_{epoch+1}.pth')
    50. print(f'[Evaluate]best accuracy performance has been updated: {self.best_score:.5f}-->{dev_score:.5f}')
    51. self.best_score = dev_score
    52. # 验证过程结束后,请记住将模型调回训练模式
    53. self.model.train()
    54. global_step += 1
    55. # 保存当前轮次训练损失的累计值
    56. train_loss = (total_loss/len(train_loader)).item()
    57. self.train_epoch_losses.append((global_step,train_loss))
    58. print('[Train] Train done')
    59. # 模型评价阶段
    60. def evaluate(self, dev_loader, **kwargs):
    61. assert self.metric is not None
    62. # 将模型设置为验证模式,此模式下,模型的参数不会更新
    63. self.model.eval()
    64. global_step = kwargs.get('global_step',-1)
    65. total_loss = 0
    66. self.metric.reset()
    67. for batch_id, data in enumerate(dev_loader):
    68. x, y = data
    69. logits = self.model(x.float())
    70. loss = self.loss_fn(logits, y.long()).item()
    71. total_loss += loss
    72. self.metric.update(logits, y)
    73. dev_loss = (total_loss/len(dev_loader))
    74. self.dev_losses.append((global_step, dev_loss))
    75. dev_score = self.metric.accumulate()
    76. self.dev_scores.append(dev_score)
    77. return dev_score, dev_loss
    78. # 模型预测阶段,
    79. def predict(self, x, **kwargs):
    80. self.model.eval()
    81. logits = self.model(x)
    82. return logits
    83. # 保存模型的参数
    84. def save_model(self, save_path):
    85. torch.save(self.model.state_dict(),save_path)
    86. # 读取模型的参数
    87. def load_model(self, model_path):
    88. self.model.load_state_dict(torch.load(model_path, map_location=torch.device('cpu')))

     

     

     

  • 相关阅读:
    JavaWeb:Servlet的应用及接口介绍
    Yolov5-Deepsort-Fastreid windows10环境配置详细过程
    机械原理复习试题及答案
    119. 关于 SAP UI5 Container 控件 aggregation 的深入分析
    iOS 横竖屏处理方案
    【ACM学习】【STL】关联容器基本功能
    Bert-vits2-2.3-Final,Bert-vits2最终版一键整合包(复刻生化危机艾达王)
    鸿鹄工程项目管理系统em Spring Cloud+Spring Boot+前后端分离构建工程项目管理系统
    重复造轮子 SimpleMapper
    unable to find valid certification path to requested target
  • 原文地址:https://blog.csdn.net/m0_63834988/article/details/133219448