• R语言数学建模(三)—— 模型工作流


    R语言数学建模(三)—— 模型工作流



    前言

    前面,我们学习了tidymodels包用于建模的基本流程,学习了parsnip包用于模型的定义及拟合和预测。有了它们,我们的对于不同模型的使用更加的标准化和格式化了。为了进一步规范化建模的过程,tidymodels包还提供了模型工作流的概念,可以将建模的流程封装进一套工作流程中,这样的数学建模过程会更加的系统,也更有利于后续的维护和修改。

    一、模型工作流

    1.1 模型的起点和终点在哪里?

    目前为止,我们使用"模型"术语的时候,我们指的是将一些预测因素与一个或者多个结果联系起来的结构方程。让我们再看看线性回归的例子。其结果数据表示为 y i y_{i} yi,其中训练集有 i = 1 … n i=1 \dots n i=1n个样本。假设有 p p p预测因子 x i 1 , … , x i p x_{i1} ,\dots , x_{ip} xi1,,xip在模型中使用。线性回归产生了一个模型方程:

    y ^ i = β ^ 0 + β ^ 1 x i 1 + ⋯ + β ^ p x i p \hat y_{i} =\hat\beta_{0}+\hat\beta_{1}x_{i1}+\dots+\hat\beta_{p}x_{ip} y^i=β^0+β^1xi1++β^pxip

    虽然这是一个线性模型,但他只是在参数上是线性的。预测因子可以是非线性项(比如 log ⁡ ( x i ) \log_{}{(x_{i})} log(xi)

    对于一些直截了当的数据集,拟合模型本身可能就是整个过程。然而在模型匹配之前,通常会出现各种选择和其他步骤:

    • 数据的预处理步骤,可能开始的数据并不能完全作为预测因子 p p p

    • 有时,一个重要的预测因子的值可能会丢失。可以使用数据中的其他值来推算缺失的值,而不是从数据集中删除该样本。

    • 改变预测因子的尺度可能是有益的。如果没有关于新尺度应该是什么的先验信息(priori information),我们可以使用统计变换技术、现有数据以及一些优化准则来估计合适的尺度。其他的转换方式,如PCA。

    虽然这些示例与模型拟合之前发生的步骤相关,但是也可能存在在模型创建之后发生的操作。当创建分类模型时,其中的结构是二元(例如:)的,习惯上使用50%的概率截止值来创建离散类别预测,也称之为硬预测。例如,分类模型可能估计的概率为62%,用典型的默认模型,硬预测将会是事件()。然而,该模型可能需要更多的集中于减少假阳性结果(即将真实的归类为)。要做到这一点一种方法是,将cutoff提高到高于50%。这增加了将新样本称为所需的证据水平。虽然这会降低真阳性率(不好的),但是他在减少假阳性率上会有更加显著的效果。cutoff值的选择应该使用数据进行优化。这是一个后处理的步骤的示例,它对模型的工作效果有很大的影响,即使它不包含在模型拟合步骤中。

    重要的是关注更广泛的建模过程,而不是只拟合用于估计参数的特定模型。这一更广泛的建模过程包含任何预处理步骤、模型本身的匹配以及潜在的后处理活动。在这里,我们把这个更全面的概念称为模型工作流,并强调如何处理其所有组件以生成最终的模型方程式。

    将数据分析的分析组件绑定在一起还有另一个重要原因。后续将演示如何准确测量性能,以及如何优化结构参数(即模型调整)。为了正确量化训练集上的模型性能,后续会提倡使用重采样的方法。为了正确做到这一点,不应该将分析的任何数据驱动部分排除在验证之外。为此,工作流必须包括所有重要的评估步骤。

    1.2 Workflow基础

    workflow包允许用户将建模与数据预处理结合起来。让我们以Ames数据为例进行一个简单的线性模型:

    library(tidymodels)
    tidymodels_prefer()
    
    lm_model <- 
      linear_reg() |> 
      set_engine("lm")
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    一个workflow需要一个parsnip模型对象:

    lm_wflow <- 
      workflow() |> 
      add_model(lm_model)
    
    lm_wflow
    #> ══ Workflow ════════════════════════════════════════════════════════════════════
    #> Preprocessor: None
    #> Model: linear_reg()
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Linear Regression Model Specification (regression)
    #> 
    #> Computational engine: lm
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    如果我们的模型是很简单的,一个标准的R公式就可以用于预处理:

    lm_wflow <- 
      lm_wflow |> 
      add_formula(Sale_Price ~ Longitude + Latitude)
    
    lm_wflow
    #> ══ Workflow ════════════════════════════════════════════════════════════════════
    #> Preprocessor: Formula
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Sale_Price ~ Longitude + Latitude
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Linear Regression Model Specification (regression)
    #> 
    #> Computational engine: lm
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    Workflows有fit()方法来用于创建模型:

    # 拆分ames数据
    data(ames)
    ames_split <- ames |> 
    	mutate(Sale_Price = log10(Sale_Price)) |> 
    	initial_split(prop = 0.80, strata = Sale_Price)
    ames_train <- training(ames_split)
    ames_test <- testing(ames_split)
    # fit
    lm_fit <- fit(lm_wflow, ames_train)
    lm_fit
    #> ══ Workflow [trained] ══════════════════════════════════════════════════════════
    #> Preprocessor: Formula
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Sale_Price ~ Longitude + Latitude
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> 
    #> Call:
    #> stats::lm(formula = ..y ~ ., data = data)
    #> 
    #> Coefficients:
    #> (Intercept)    Longitude     Latitude  
    #>    -313.623       -2.074        2.965
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    我们也可以使用predict()

    predict(lm_fit, ames_test |> slice(1:3))
    #> # A tibble: 3 × 1
    #>   .pred
    #>   
    #> 1  5.23
    #> 2  5.29
    #> 3  5.28
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    模型和预处理器都可以删除或者更新:

    lm_fit |> update_formula(Sale_Price ~ Longitude)
    #> ══ Workflow ════════════════════════════════════════════════════════════════════
    #> Preprocessor: Formula
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Sale_Price ~ Longitude
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Linear Regression Model Specification (regression)
    #> 
    #> Computational engine: lm
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    注意输出在这个更新后被移除。

    1.3 将原始变量添加到workflow()

    另一个将数据传递给模型的接口是add_variables()函数,它是由类dplyr的语法来选择变量。该函数有两个主要参数:结果和预测因子(outcomespredictors)它们使用c()来获取多个选择器:

    lm_wflow <- 
      lm_wflow |> 
      remove_formula() |> 
      add_variables(outcomes = Sale_Price, predictors = c(Longitude, Latitude))
    lm_wflow
    #> ══ Workflow ════════════════════════════════════════════════════════════════════
    #> Preprocessor: Variables
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Outcomes: Sale_Price
    #> Predictors: c(Longitude, Latitude)
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Linear Regression Model Specification (regression)
    #> 
    #> Computational engine: lm
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    predictors还可以使用通用选择器:

    predictors = c(ends_with("tude"))
    
    • 1

    有一点值得注意,预测因子参数中意外指定的任何结果列都将被默认删除。因此可以使用everything()来指定所有除结果列外的列:

    predictors = everything()
    
    • 1

    模型进行匹配时,会将这些未更改的数据组装到一个数据框中,将其传递给底层函数:

    fit(lm_wflow, ames_train)
    #> ══ Workflow [trained] ══════════════════════════════════════════════════════════
    #> Preprocessor: Variables
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Outcomes: Sale_Price
    #> Predictors: c(Longitude, Latitude)
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> 
    #> Call:
    #> stats::lm(formula = ..y ~ ., data = data)
    #> 
    #> Coefficients:
    #> (Intercept)    Longitude     Latitude  
    #>    -313.623       -2.074        2.965
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    如果你希望底层建模方法按照它通常处理数据的方式进行操作,那么add_variables()会是一个有用的接口。下面我们将看到它促进了更加复杂的建模规范。

    后续,将介绍一个功能更强大的预处理器(recipe),它也可以添加到workflow中。

    1.4 workflow()如何使用formula

    R中的公式(formula)有多种用途。其一就是将原始数据正确编码为可供分析的格式。这可能涉及到执行内联转换(如: log ⁡ ( x ) \log_{}{(x)} log(x))、创建虚拟变量列、创建交互或其他扩展列,等等。然而,许多统计方法需要不同类型的编码:

    • 基于树的模型的大多数包使用formula接口,但不将分类预测因子编码为虚拟变量。

    • 包可以使用特殊的内联函数来告诉模型如何在分析中处理预测因子。例如,在生存分析模型中,一个公式术语,如strata(site)将指示site列是分层变量。这意味着它不能被视为常规的预测因子,并且在模型中没有相应的位置参数估计。

    • 一些R包以基本R函数无法解析或执行的方式扩展了公式。在多级模型(如:混合模型或者分层贝叶斯模型)中,诸如(week | subject)之类的模型术语指示的week列是随机效应,其对于subject列的每个值具有不同的斜率参数估计。

    工作流是一个通用界面。当使用add_formula()时,由于预处理依赖模型,因此工作流会尝试在任何可能的情况下模拟底层模型操作。如果不可能,则公式处理不应对公式中使用的列执行任何操作。

    基于树的模型

    当我们将树拟合到数据时,parsnip包理解建模函数会做什么。例如,如果使用rangerrandomForest包拟合随机森林模型,则工作流知道作为预测因子列的因子应该保持不变。

    作为反例,使用xgboost包创建的boosted树要求用户从预测因子中创建虚拟变量(因为xgboost::xgb.train()不会)。该需求被嵌入到模型规范对象中,并且使用xgboost的工作流会为该引擎创建指示符列。还要注意的是,用于Boost树的另一个引擎C5.0不需要虚拟变量,因此工作流不会生成任何变量。

    1.4.1 特殊公式和内联函数

    许多多层级模型已经根据lme4包中设计的公式规范进行了标准化。例如,为了适应对受试者具有随机影响的回归模型,我们将使用以下公式:

    library(lme4)
    #> Loading required package: Matrix
    #> 
    #> Attaching package: 'Matrix'
    #> The following objects are masked from 'package:tidyr':
    #> 
    #>     expand, pack, unpack
    data(Orthodont, package = "nlme")
    
    lmer(distance ~ Sex + (age | Subject), data = Orthodont)
    #> Linear mixed model fit by REML ['lmerMod']
    #> Formula: distance ~ Sex + (age | Subject)
    #>    Data: Orthodont
    #> REML criterion at convergence: 471.1635
    #> Random effects:
    #>  Groups   Name        Std.Dev. Corr 
    #>  Subject  (Intercept) 7.3912        
    #>           age         0.6943   -0.97
    #>  Residual             1.3100        
    #> Number of obs: 108, groups:  Subject, 27
    #> Fixed Effects:
    #> (Intercept)    SexFemale  
    #>      24.517       -2.145
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    这样做的效果就是,每个subject将有一个估计的age截距和斜率参数。

    问题是使用标准的R方法不能正确的处理这个公式:

    model.matrix(distance ~ Sex + (age | Subject), data = Orthodont)
    #> Warning in Ops.ordered(age, Subject): '|' is not meaningful for ordered factors
    #>      (Intercept) SexFemale age | SubjectTRUE
    #> attr(,"assign")
    #> [1] 0 1 2
    #> attr(,"contrasts")
    #> attr(,"contrasts")$Sex
    #> [1] "contr.treatment"
    #> 
    #> attr(,"contrasts")$`age | Subject`
    #> [1] "contr.treatment"
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    结果是0行数据框。

    问题是,特殊公式必须由底层的包代码处理,而不是标准的model.mateix()方法。

    即使该公式可以与model.matrix()一起使用,这仍然会带来问题,因为该公式还指定了模型的统计属性。

    工作流中的解决方案是一个可选的补充模型公式,可以传递给add_model()add_variables()规范提供列名,然后在add_model()中设置模型的实际公式:

    library(multilevelmod)
    
    multilevel_spec <- linear_reg() |> set_engine("lmer")
    
    multilevel_workflow <- 
      workflow() |> 
      add_variables(outcomes = distance, predictors = c(Sex, age, Subject)) |> 
      add_model(multilevel_spec,
                formula = distance ~ Sex + (age | Subject))
    
    multilevel_fit <- fit(multilevel_workflow, data = Orthodont)
    multilevel_fit
    #> ══ Workflow [trained] ══════════════════════════════════════════════════════════
    #> Preprocessor: Variables
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Outcomes: distance
    #> Predictors: c(Sex, age, Subject)
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Linear mixed model fit by REML ['lmerMod']
    #> Formula: distance ~ Sex + (age | Subject)
    #>    Data: data
    #> REML criterion at convergence: 471.1635
    #> Random effects:
    #>  Groups   Name        Std.Dev. Corr 
    #>  Subject  (Intercept) 7.3912        
    #>           age         0.6943   -0.97
    #>  Residual             1.3100        
    #> Number of obs: 108, groups:  Subject, 27
    #> Fixed Effects:
    #> (Intercept)    SexFemale  
    #>      24.517       -2.145
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34

    我们甚至可以使用前面提到的strata()函数从survival包中进行分析:

    library(censored)
    #> Loading required package: survival
    
    parametric_spec <- survival_reg()
    
    parametric_workflow <- 
      workflow() |> 
      add_variables(outcomes = c(fustat, futime), predictors = c(age, rx)) |> 
      add_model(parametric_spec,
                formula = Surv(futime, fustat) ~ age + strata(rx))
    
    parametric_fit <- fit(parametric_workflow, data = ovarian)
    parametric_fit
    #> ══ Workflow [trained] ══════════════════════════════════════════════════════════
    #> Preprocessor: Variables
    #> Model: survival_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Outcomes: c(fustat, futime)
    #> Predictors: c(age, rx)
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Call:
    #> survival::survreg(formula = Surv(futime, fustat) ~ age + strata(rx), 
    #>     data = data, model = TRUE)
    #> 
    #> Coefficients:
    #> (Intercept)         age 
    #>  12.8734120  -0.1033569 
    #> 
    #> Scale:
    #>      rx=1      rx=2 
    #> 0.7695509 0.4703602 
    #> 
    #> Loglik(model)= -89.4   Loglik(intercept only)= -97.1
    #>  Chisq= 15.36 on 1 degrees of freedom, p= 8.88e-05 
    #> n= 26
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37

    注意这两个调用中是如何使用模型特定公式的。

    1.5 一次创建多个工作流

    在某些情况下,数据需要多次尝试才能找到合适的模型。比如:

    • 对于预测模型,建议评估各种不同的模型类型。这要求用户创建多个模型规格。

    • 模型的一系列测试通常从一组扩展的预测因子开始。将这个完整的模型与相同模型的序列进行比较,该序列依次删除每个预测因子。使用基本的假设检验方法或经验验证方法,可以分离和评估每个预测因子的效果。

    在这些情况以及其他情况下,从不同的预处理器和/或模型规范中创建大量工作流会非常乏味和繁重。为了解决这些问题,workflowset包提供了创建工作流组合。预处理器列表可以和模型规范列表组合从而产生一组工作流。

    假设我们需要在Ames数据表中表示房屋位置的不同方式。我们可以创建一组formulas来捕捉这些预测因子:

    location <- list(
      longitude = Sale_Price ~ Longitude,
      latitude = Sale_Price ~ Latitude,
      coords = Sale_Price ~ Longitude + Latitude,
      neighborhood = Sale_Price ~ Neighborhood
    )
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    我们可以使用workflow_set()函数来将这些表示与一个或多个模型交叉。我们将使用前面的线性模型规范来演示:

    library(workflowsets)
    location_models <- workflow_set(preproc = location, models = list(lm = lm_model))
    location_models
    #> # A workflow set/tibble: 4 × 4
    #>   wflow_id        info             option    result    
    #>                                 
    #> 1 longitude_lm      
    #> 2 latitude_lm       
    #> 3 coords_lm         
    #> 4 neighborhood_lm   
    location_models$info[[1]]
    #> # A tibble: 1 × 4
    #>   workflow   preproc model      comment
    #>                   
    #> 1  formula linear_reg ""
    extract_workflow(location_models, id = "coords_lm")
    #> ══ Workflow ════════════════════════════════════════════════════════════════════
    #> Preprocessor: Formula
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Sale_Price ~ Longitude + Latitude
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> Linear Regression Model Specification (regression)
    #> 
    #> Computational engine: lm
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27

    工作流集主要是设计用于重新采样,这将在后续学习进行讨论。optionresult列必须是由重新排序产生的特定类型的对象。我们将在后续学习中讨论其中的更多细节。

    同时,让我们为每个公式创建模型匹配,并将他们保存在一个名为fit的新列中。我们将使用基本的dplyrpurrr操作:

    location_models <- 
      location_models |> 
      mutate(fit = map(info, ~ fit(.x$workflow[[1]], ames_train)))
    location_models
    #> # A workflow set/tibble: 4 × 5
    #>   wflow_id        info             option    result     fit       
    #>                                      
    #> 1 longitude_lm       
    #> 2 latitude_lm        
    #> 3 coords_lm          
    #> 4 neighborhood_lm    
    location_models$fit[[1]]
    #> ══ Workflow [trained] ══════════════════════════════════════════════════════════
    #> Preprocessor: Formula
    #> Model: linear_reg()
    #> 
    #> ── Preprocessor ────────────────────────────────────────────────────────────────
    #> Sale_Price ~ Longitude
    #> 
    #> ── Model ───────────────────────────────────────────────────────────────────────
    #> 
    #> Call:
    #> stats::lm(formula = ..y ~ ., data = data)
    #> 
    #> Coefficients:
    #> (Intercept)    Longitude  
    #>    -177.334       -1.949
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27

    这里使用的是purrr函数来映射模型,另外更简单友好的方式将在后续介绍。

    1.6 评估测试集

    假设模型开发已经完成并且确定了最终的模型。有一个last_fit()的方便函数可以对模型进行fit使其适合整个训练集,并使用测试集对其进行评估。

    lm_wflow为例,我们可以将模型和初始训练集/测试集拆分传递给函数:

    final_lm_res <- last_fit(lm_wflow, ames_split)
    final_lm_res
    #> # Resampling results
    #> # Manual resampling 
    #> # A tibble: 1 × 6
    #>   splits             id               .metrics .notes   .predictions .workflow 
    #>                                             
    #> 1  train/test split        
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    注意:last_fit()接受数据拆分作为输入,而不是数据框。此函数用拆分来生成用于最终fitting和evaluation的训练和测试集

    .workflow列包含拟合的工作流,并且可以从结果中提出:

    fitted_lm_wflow <- extract_workflow(final_lm_res)
    
    • 1

    同时,collect_metrics()collect_predictions()分别提供对性能指标和预测的访问。

    collect_metrics(final_lm_res)
    #> # A tibble: 2 × 4
    #>   .metric .estimator .estimate .config             
    #>                                
    #> 1 rmse    standard       0.164 Preprocessor1_Model1
    #> 2 rsq     standard       0.189 Preprocessor1_Model1
    collect_predictions(final_lm_res) |> slice(1:5)
    #> # A tibble: 5 × 5
    #>   id               .pred  .row Sale_Price .config             
    #>                                      
    #> 1 train/test split  5.22     2       5.02 Preprocessor1_Model1
    #> 2 train/test split  5.21     4       5.39 Preprocessor1_Model1
    #> 3 train/test split  5.28     5       5.28 Preprocessor1_Model1
    #> 4 train/test split  5.27     8       5.28 Preprocessor1_Model1
    #> 5 train/test split  5.28    10       5.28 Preprocessor1_Model1
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    关于last_fit()的更多使用内容,在后续会展开介绍。

    在使用验证集时,last_fit()有一个名为add_validation_set的参数,用于指定是仅根据训练集(default)还是根据训练集和验证集的组合来训练最终模型。

    总结

    通过这部分的学习,我们学到了如何对模型创建工作流来管理建模的过程。workflow包括了模型使用的全过程,首先是数据预处理过程,使用add_variables对于输入数据进行分类输入,下一节我们将学习一个更加全面的预处理器——recipe,届时将会进行更加复杂的数据预处理。然后,我们使用add_model把模型设置加入工作流中,这时我们可以通过设置formula参数将预测因子的处理模式加入其中。最后可以使用fit或者last_fit对模型进行拟合,即可得到一个模型的应用实例(注意输入类型)。另外,某些情况下,可能需要一次创建多个工作流,这就需要调用workflowset包,通过设置参数列表来同时创建多条工作流,然后使用索引来分别进行调用即可。

    学习之路,道阻且长。我常常会在学习的道路上质疑自己,也常常自问,学这些干什么,对别人来说可能这些就像1+1一样简单。但是,不去了解就永远不会了解,会的越多不会的就越多,让我们收起浮躁的心情去学习。要知道,流水不争先,争的是滔滔不绝。

  • 相关阅读:
    响应式设计的实现方式
    Syncovery for Mac v10.14.3激活版:文件备份和同步工具
    手写HashMap(基于JDK1.7)
    【python笔记】第十三节 常用模块
    Spread 16.X FOR WPF 中文版 我就喜欢 Spread.NET
    归并排序和计数排序
    SSM基于WEB的房屋出租管理系统 毕业设计-附源码261620
    7、【Qlib】【主要组件】Data Layer:数据框架与使用
    SQLServer 数字加千分位 用FORMAT函数强转不管多大位数
    生态短讯 | Tapdata 与 TDengine 完成产品兼容性互认证,打造物联网实时数据生态
  • 原文地址:https://blog.csdn.net/weixin_72071150/article/details/136478371