• 2023年第四届MathorCup大数据竞赛(A题)|坑洼道路检测和识别|数学建模完整代码+建模过程全解全析


    当大家面临着复杂的数学建模问题时,你是否曾经感到茫然无措?作为2021年美国大学生数学建模比赛的O奖得主,我为大家提供了一套优秀的解题思路,让你轻松应对各种难题。

    希望这些想法对大家的做题有一定的启发和借鉴意义。
    让我们来看看MathorCup的A题!
    在这里插入图片描述

    问题重述:

    问题1:图像特征提取和模型建立

    题目要求建立一个高识别准确度、快速的模型,能够识别道路图像是正常的还是坑洼的。具体步骤包括:

    1. 解压data.zip,准备训练数据。
    2. 对图像进行预处理,如调整尺寸和数据增强。
    3. 使用深度学习模型提取图像特征。
    4. 构建一个分类模型,将特征转化为更容易分类的表示形式。
    5. 使用训练数据训练模型。

    问题2:模型评估

    题目要求对模型进行评估,从不同维度考察其性能。评估指标可能包括准确率、召回率、精确度、F1分数等,以及绘制ROC曲线和AUC。

    问题3:测试集识别
    题目求使用已经训练好的模型对未标记的测试数据集(在竞赛结束前48小时公布下载链接)中的图像进行坑洼识别。将识别结果以特定格式填写到test result.csv中,并将该文件提交以供评估。

    问题一

    问题一的具体建模思路通常基于深度学习方法,在这里我们使用卷积神经网络(CNN)。

    1. 数据准备

      • 将数据集划分为训练集和验证集,以用于模型训练和评估。
    2. 图像预处理

      • 调整图像大小为固定尺寸,如 224 × 224 224\times224 224×224
      • 数据增强:对训练图像进行数据增强,包括旋转、翻转、缩放和亮度调整等。
    3. 特征提取

      • 使用一个预训练的卷积神经网络(如ResNet、VGG、或MobileNet)来提取图像特征。这些模型通常包含卷积层,用于捕获图像的特征。
      • 在模型的前几层,特征图会被提取出来。
    4. 模型构建

      • 添加一个或多个全连接层,用于将提取的特征转换为最终的分类输出。
      • 使用sigmoid激活函数来输出一个0到1的值,表示道路是否坑洼。

    模型的建立可以表示为以下公式:

    给定一个输入图像 x x x,表示为一个 W × H × C W\times H\times C W×H×C的三维张量,其中 W W W H H H是图像的宽度和高度, C C C是通道数。卷积神经网络(CNN)将图像 x x x映射到一个输出标量 y y y,表示道路是否坑洼的概率。这个映射可以表示为:

    y = σ ( f ( x ) ) y = \sigma(f(x)) y=σ(f(x))

    其中:

    • f ( x ) f(x) f(x)表示卷积神经网络的前向传播过程,包括卷积、池化和全连接等层的组合,用于提取图像特征。
    • σ ( z ) = 1 1 + e − z \sigma(z) = \frac{1}{1 + e^{-z}} σ(z)=1+ez1 是sigmoid激活函数,将 z z z映射到0到1的范围内,表示概率。

    模型的训练可以使用二元交叉熵(binary cross-entropy)损失函数来度量预测概率与实际标签之间的差异:

    L ( y , y ^ ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) \mathcal{L}(y, \hat{y}) = -\left(y\log(\hat{y}) + (1 - y)\log(1 - \hat{y})\right) L(y,y^)=(ylog(y^)+(1y)log(1y^))

    其中:

    • y y y 是实际标签(0表示坑洼,1表示正常道路)。
    • y ^ \hat{y} y^ 是模型的预测概率。

    训练模型的目标是最小化损失函数 L \mathcal{L} L,以使预测尽可能接近实际标签。

    二元交叉熵(Binary Cross-Entropy)是一种用于衡量二分类问题中模型预测与实际标签之间的差异的损失函数。它通常用于训练和评估二分类模型,例如判断一个样本属于两个类别中的哪一个。

    这个损失函数的度量原理基于信息论的概念,特别是信息熵。以下是它的度量原理:

    假设我们有一个二分类问题,其中样本的实际标签为 y y y,可以取0或1,而模型的预测概率为 y ^ \hat{y} y^,表示样本属于类别1的概率。

    交叉熵损失的度量原理基于以下两种情况:

    1. 当实际标签 y = 1 y=1 y=1时,交叉熵损失为:

      − log ⁡ ( y ^ ) -\log(\hat{y}) log(y^)

      这表示模型预测样本属于类别1的概率越高,损失越小,反之则损失越大。这是因为实际标签为1时,我们希望模型的预测也接近1。

    2. 当实际标签 y = 0 y=0 y=0时,交叉熵损失为:

      − log ⁡ ( 1 − y ^ ) -\log(1 - \hat{y}) log(1y^)

      这表示模型预测样本属于类别0的概率越高,损失越小,反之则损失越大。这是因为实际标签为0时,我们希望模型的预测也接近0。

    在训练过程中,我们会将所有样本的交叉熵损失加权求和,然后尝试最小化这个总损失。这意味着模型的目标是使其对于所有样本的预测与实际标签更加一致,以最小化总的交叉熵损失。

    总的二元交叉熵损失可以表示为:

    L ( y ^ , y ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) \mathcal{L}(\hat{y}, y) = -\left(y\log(\hat{y}) + (1 - y)\log(1 - \hat{y})\right) L(y^,y)=(ylog(y^)+(1y)log(1y^))

    其中, L ( y ^ , y ) \mathcal{L}(\hat{y}, y) L(y^,y)表示损失, y ^ \hat{y} y^表示模型的预测概率, y y y表示实际标签。最小化这个损失将使模型尽量接近实际标签的分布,以更好地进行二分类任务。

    代码:

    import tensorflow as tf
    from tensorflow import keras
    from sklearn.model_selection import train_test_split
    import numpy as np
    import pandas as pd
    
    # 加载和预处理数据
    def load_and_preprocess_data():
        # 你需要编写加载和预处理数据的代码,返回X和y
        # X是图像数据,y是标签(0表示坑洼,1表示正常道路)
        # 这里使用一个假设的示例,你需要根据实际数据进行适配
        X = np.random.rand(301, 224, 224, 3)  # 示例随机生成图像数据
        y = np.random.randint(2, size=301)  # 示例随机生成标签
        return {'images': X, 'labels': y}
    
    # 构建深度学习模型
    def build_model():
        model = keras.Sequential([
            keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)),
            keras.layers.MaxPooling2D((2, 2)),
            keras.layers.Conv2D(64, (3, 3), activation='relu'),
            keras.layers.MaxPooling2D((2, 2)),
            keras.layers.Flatten(),
            keras.layers.Dense(128, activation='relu'),
            keras.layers.Dense(1, activation='sigmoid')
        ])
        model.compile(optimizer='adam',
                      loss='binary_crossentropy',  # 二元交叉熵损失
                      metrics=['accuracy'])
        return model
    
    # 模型训练
    def train_model(X_train, y_train, X_val, y_val):
        model = build_model()
        #见完整版代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35

    题目二

    问题二的建模思路需要分为两个主要部分:模型训练和模型评估

    模型训练

    1. 数据加载与划分:首先,加载问题一中准备好的训练数据。将数据集划分为训练集( X train X_{\text{train}} Xtrain y train y_{\text{train}} ytrain)和验证集( X val X_{\text{val}} Xval y val y_{\text{val}} yval),通常采用交叉验证方法,以确保模型在不同数据子集上进行训练和评估。

    2. 模型选择:选择问题一中构建的深度学习模型,该模型已包含合适的网络结构和损失函数(二元交叉熵),用于道路坑洼的分类任务。

    3. 模型训练:使用训练集进行模型训练。迭代多个周期(epochs),使模型能够适应数据。训练过程中,模型会自动调整权重,以最小化损失函数。

    4. 超参数调优:根据需要,进行超参数调优,包括学习率、批处理大小等。这可以通过验证集上的性能来指导。你可以使用交叉验证技术来尝试不同的超参数组合。

    • 数据加载与划分:

    X train , y train , X val , y val = train_test_split ( X , y , test_size = 0.2 , random_state = 42 ) X_{\text{train}}, y_{\text{train}}, X_{\text{val}}, y_{\text{val}}=\text{train\_test\_split}(X, y, \text{test\_size}=0.2,\text{random\_state}=42) Xtrain,ytrain,Xval,yval=train_test_split(X,y,test_size=0.2,random_state=42)

    • 模型选择:
      model = build_model ( ) \text{model} = \text{build\_model}() model=build_model()

    • 模型训练:

      model.fit ( X train , y train , epochs = 10 , validation_data = ( X val , y val ) \text{model.fit}(X_{\text{train}}, y_{\text{train}}, \text{epochs}=10, \text{validation\_data}=(X_{\text{val}}, y_{\text{val}}) model.fit(Xtrain,ytrain,epochs=10,validation_data=(Xval,yval)

    模型评估

    使用ROC曲线和AUC(Area Under the Curve)来评估模型的性能是一种常见的方法,特别适用于二分类问题。ROC曲线是一种用于可视化分类模型性能的工具,而AUC是ROC曲线下的面积,用于定量评估模型的性能。

    1. 计算模型的ROC曲线

    在评估模型之前,你需要使用验证集上的真正例率(True Positive Rate,召回率)和假正例率(False Positive Rate)来构建ROC曲线。这可以通过不同的分类阈值来实现。以下是ROC曲线的构建过程:

    • 为了计算ROC曲线,首先使用模型对验证集进行预测,获取每个样本的预测概率。

    • 使用不同的分类阈值(通常是0到1之间的值),将样本分为正类和负类。根据不同阈值,计算真正例率(TPR)和假正例率(FPR)。

    • 绘制TPR和FPR的曲线,即ROC曲线。

    2. 计算AUC值

    AUC(ROC曲线下的面积)用于量化ROC曲线的性能。AUC的值通常在0.5和1之间,越接近1表示模型性能越好。

    • 计算ROC曲线下的面积(AUC)。通常,你可以使用数值积分方法或库函数来计算AUC的值。

    3. 评估模型

    根据ROC曲线和AUC值进行模型评估。

    • AUC接近1表示模型具有良好的性能,可以很好地区分正类和负类样本。

    • ROC曲线越接近左上角(0,1),表示模型性能越好。

    • 如果AUC接近0.5,模型性能可能很差,类似于随机猜测。

    • 比较不同模型的AUC值,选择具有较高AUC值的模型。

    • 根据任务需求,可以根据不同的阈值来调整模型,以在召回率和精确度之间取得平衡。

    import tensorflow as tf
    from tensorflow import keras
    from sklearn.model_selection import train_test_split
    from sklearn.metrics import roc_curve, auc
    import matplotlib.pyplot as plt
    
    # 加载和预处理数据(与问题一相同)
    def load_and_preprocess_data():
        # 你需要编写加载和预处理数据的代码,返回X和y
        # X是图像数据,y是标签(0表示坑洼,1表示正常道路)
        # 这里使用一个假设的示例,你需要根据实际数据进行适配
        X = np.random.rand(301, 224, 224, 3)  # 示例随机生成图像数据
        y = np.random.randint(2, size=301)  # 示例随机生成标签
        return {'images': X, 'labels': y}
    
    # 构建深度学习模型(与问题一相同)
    def build_model():
        model = keras.Sequential([
            # 模型结构,与问题一相同
        ])
        model.compile(optimizer='adam',
                      loss='binary_crossentropy',  # 二元交叉熵损失
                      metrics=['accuracy'])
        return model
    
    # 模型训练(与问题一相同)
    def train_model(X_train, y_train, X_val, y_val):
        model = build_model()
        model.fit(X_train, y_train, epochs=10, validation_data=(X_val, y_val))
        return model
    
    # 计算ROC曲线和AUC
    def calculate_roc_auc(model, X_val, y_val):
        y_pred = model.predict(X_val)
        fpr, tpr, thresholds = roc_curve(y_val, y_pred)
        roc_auc = auc(fpr, tpr)
        return fpr, tpr, roc_auc
    
    # 绘制ROC曲线
    def plot_roc_curve(fpr, tpr, roc_auc):
        plt.figure()
        plt.plot(fpr, tpr, color='darkorange', lw=2, label='ROC curve (area = %0.2f)' % roc_auc)
        plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--')
        plt.xlim([0.0, 1.0])
        plt.ylim([0.0, 1.05])
        plt.xlabel('False Positive Rate')
        plt.ylabel('True Positive Rate')
        plt.title('Receiver Operating Characteristic')
        #见完整代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49

    问题三

    问题三要求使用已训练的模型对测试集中的坑洼图像进行识别,并将识别结果保存在一个CSV文件中。以下是问题三的具体建模思路,:

    模型应用

    1. 加载已训练模型:首先,加载问题一或问题二中训练好的模型。这个模型应该是能够识别道路坑洼的模型。

    2. 加载测试数据:加载问题一中提供的测试数据集(通常以图像的形式)。

    3. 图像预处理:对测试数据进行与训练数据相同的预处理,包括图像归一化、缩放等操作。

    4. 模型预测:使用加载的模型对测试数据进行预测,得到每张图像的分类结果(0表示坑洼,1表示正常道路)。

    结果保存

    1. 保存识别结果:将图像文件名与对应的分类结果(0或1)保存在CSV文件中。这个文件将作为问题三的提交文件。

    模型应用

    • 加载已训练模型:

    model = load_trained_model ( ) \text{model} = \text{load\_trained\_model}() model=load_trained_model()

    • 加载测试数据:

      test_data = load_test_data ( ) \text{test\_data} = \text{load\_test\_data}() test_data=load_test_data()

    • 图像预处理:

      preprocessed_test_data = preprocess_images ( test_data ) \text{preprocessed\_test\_data} = \text{preprocess\_images}(\text{test\_data}) preprocessed_test_data=preprocess_images(test_data)

    • 模型预测:

      predictions = model.predict ( preprocessed_test_data ) \text{predictions} = \text{model.predict}(\text{preprocessed\_test\_data}) predictions=model.predict(preprocessed_test_data)

    结果保存

    • 保存识别结果:

      save_results_to_csv ( test_data_file_names , predictions ) \text{save\_results\_to\_csv}(\text{test\_data\_file\_names}, \text{predictions}) save_results_to_csv(test_data_file_names,predictions)

    import numpy as np
    import pandas as pd
    import tensorflow as tf
    from tensorflow import keras
    
    # 加载已训练的模型
    def load_trained_model(model_path):
        model = keras.models.load_model(model_path)
        return model
    
    # 加载测试数据
    def load_test_data(test_data_dir):
        # 你需要编写加载测试数据的代码,返回测试数据集
        # 这里使用一个假设的示例,你需要根据实际数据进行适配
        test_data = np.random.rand(1000, 224, 224, 3)  # 示例随机生成测试图像数据
        return test_data
    
    # 图像预处理(与问题二相似)
    def preprocess_images(images):
        # 你需要编写与问题二中相似的图像预处理代码
        # 包括图像归一化、缩放、通道处理等操作
        return preprocessed_images
    
    # 模型预测
    def predict_with_model(model, test_data):
        predictions = model.predict(test_data)
        # 假设模型输出概率,可以根据阈值将概率转换为类别(0或1)
        predicted_labels = (predictions >= 0.5).astype(int)
        return predicted_labels
    
    # 保存识别结果到CSV文件
    def save_results_to_csv(file_names, predicted_labels, output_csv_file):
        results_df = pd.DataFrame({'fnames': file_names, 'label': predicted_labels})
        results_df.to_csv(output_csv_file, index=False)
    
    # 示例用法
    if __name__ == '__main__':
        model_path = 'trained_model.h5'  # 已训练模型的文件路径
        test_data_dir = 'test_data'  # 测试数据集的目录
        output_csv_file = 'test_results.csv'  # 结果保存的CSV文件名
    
        # 加载已训练的模型
        trained_model = load_trained_model(model_path)
    #见完整版代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44

    完整代码+思路:
    2023年第四届MathorCup大数据竞赛(A题)

  • 相关阅读:
    Oracle查看与修改隐藏参数
    mdadm命令详解及实验过程
    【面试系列】Java面试知识篇(四)
    Linux 本地部署私有Stackedit Markdown编辑器远程访问
    QT With OpenGL(泛光)(Bloom)
    【C语言】【strerro函数的使用】
    中通IM测试实践
    目标检测YOLO实战应用案例100讲-基于改进YOLO v7的智能振动分拣系统开发(续)
    vue中的生命周期有什么,怎么用
    基于openresty构建运维工具链实践
  • 原文地址:https://blog.csdn.net/qq_25834913/article/details/134081817