• 备战数学建模43-决策树&随机森林&Logistic模型(攻坚站7)


    决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3C4.5和C5.0生成树算法使用熵。这一度量是基于信息学理论中熵的概念。随机森林 (Random forest)[5] 是由美国科学家 Leo Breiman 将其在 1996 年提出的
    Bagging 集成学习理论 与 Ho 在 1998 年提出的随机子空间方法相结合,于 2001 年发
    表的一种机器学习算法。logistic回归又称logistic回归分析,主要在流行病学中应用较多,比较常用的情形是探索某疾病的危险因素,根据危险因素预测某疾病发生的概率,等等。例如,想探讨胃癌发生的危险因素,可以选择两组人群,一组是胃癌组,一组是非胃癌组,两组人群肯定有不同的体征和生活方式等。这里的因变量就是是否胃癌,即“是”或“否”,为两分类变量,自变量就可以包括很多了,例如年龄、性别、饮食习惯、幽门螺杆菌感染等。自变量既可以是连续的,也可以是分类的。通过logistic回归分析,就可以大致了解到底哪些因素是胃癌的危险因素。

    目录

    一、决策树

    1.1、决策树算法概述

    1.2、熵值的作用

    1.3、决策树构造实例

    1.4、信息增益率与gini系数

     1.5、剪枝的方法

     1.6、决策树实验案例及分析

    二、随机森林

    2.1、随机森林的算法原理

    2.2、随机森林的优势与特征重要指标

     2.3、随机森林的分类过程

    2.4、随机森林的实验案例及分析

    三、Logistic模型

    3.1、Logistic模型理论

    3.2、SPSS求解逻辑回归


    一、决策树

    1.1、决策树算法概述

    决策树就是从根节点到叶子节点一步步做决策的模型,最终所有的决策都会落在叶子节点,这样该模型既可以做分类,也可以做回归。决策树有严格的先后顺序,每次决策类型的顺序不能发生改变,在前面的节点的重要性要比在后面的节点的重要性要高,

    决策树的组成如下:从根节点到叶子节点,最终的决策在叶子节点。

     决策树的训练:根据数据构造决策树,测试:有了决策树后从上到下走一遍。

    1.2、熵值的作用

    我们在构造决策树的时候需要根据特征的重要性进行切分,即根据区分效果划分节点,那么如何衡量每个特征的重要性呢?一般使用熵值去衡量。

     我们使用熵值去衡量决策树特征的好坏,熵值越小,说明越确定,即相对稳定,

     选择信息熵小的,使得按该特征分类后的该类的不确定性程度减小的多。

    1.3、决策树构造实例

    有一份数据包含14天打球情况,根据已有的数据,根据4种环境变化特征构建一个决策树,判断未来某一天的环境下是否去打球。

    现在根据数据基于下面四个特征进行决策树划分,我们首先需要找到根节点,四个特征谁当根节点最好呢?当然是信息熵越小的越好,即信息增益越大越好,也就是max(原始信息熵-以该特征为节点的信息熵).

    在计算各个特征的信息熵之前,我们需要对原始数据的信息熵进行计算,然后才能计算信息增益,基于play进行计算,14天有9天打球,5天不打球,代入公式得到信息熵为0.94.那么在此基础上,要分别计算基于其余特征的划分情况下的信息熵。

    我们计算得到基于天气的熵值为0.693,则信息增益是0.247.然后同样的方法计算出基于温度的信息增益,基于湿度的信息增益,基于是否有风的信息增益,最后将信息增益最后的特征作为根节点,然后按照同样的方式划分下层节点。

    1.4、信息增益率与gini系数

    我们常用的决策树算法是ID3,C4.5,CART,如下所示:基尼系数的值越小,则效果越好。

     1.5、剪枝的方法

    为了防止数据出现过拟合的情况,即在训练集表现很好,在测试集表现的并不好。则需要进行剪枝,主要有预剪枝和后剪枝,预剪枝在建立决策树的过程中剪枝,后剪枝是建立完树后剪枝。

    对于预剪枝的策略,一般通过限制深度,叶子节点个数,信息增益量等方法去剪枝,如果是后剪枝方法,需要根据公式进行衡量是否进行剪枝。

     1.6、决策树实验案例及分析

    构建决策树的方法主要有三种:ID3,C4.5,CART。

    首先我们使用14组环境数据作为数据集,前12组用来训练构造树,后2组用来预测。

    我们可以先看一下效果,构建的决策树和最后两组的预测结果如下:

     

    我们再换用如下西瓜数据集进行训练和测试,构建的决策树和测试结果如下: 

     具体的matlab代码如下:

    主函数代码如下:

    1. clear
    2. clc
    3. load('watermelon.mat')
    4. %load('datas.mat')
    5. %watermelon = datas ;
    6. size_data = size(watermelon); %watermelon2为导入工作台的数据
    7. %分为训练集和测试集
    8. x_train = watermelon(1:size_data(1)-2,:) %这里加上了属性标签行
    9. x_test = watermelon(size_data(1)-1:end,1:size_data(2)-1); %选择最后两个当测试集
    10. %训练
    11. size_data = size(x_train);
    12. dataset = x_train(2:size_data(1),:); %纯数据集
    13. labels = x_train(1,1:size_data(2)-1); %属性标签
    14. %生成决策树
    15. mytree = ID3(dataset,labels);
    16. [nodeids,nodevalue,branchvalue] = print_tree(mytree);
    17. tree_plot(nodeids,nodevalue,branchvalue);
    18. predict(x_test,mytree,x_train(1,1:end-1))

     构建决策树代码如下:

    1. function myTree = ID3(dataset,labels)
    2. % ID3算法构建决策树
    3. % 输入参数:
    4. % dataset:数据集
    5. % labels:属性标签
    6. % 输出参数:
    7. % tree:构建的决策树
    8. size_data = size(dataset);
    9. classList = dataset(:,size_data(2)); %得到标签
    10. %全为同一类,熵为0
    11. if length(unique(classList))==1
    12. myTree = char(classList(1));
    13. return
    14. end
    15. %去除完全相同的属性,避免产生没有分类结果的节点
    16. % choose=ones(1,size_data(2));
    17. % for i=1:(size_data(2)-1)
    18. % featValues = dataset(:,i);
    19. % uniqueVals = unique(featValues);
    20. % if(length(uniqueVals)<=1)
    21. % choose(i)=0;
    22. % end
    23. % end
    24. % labels=labels((choose(1:size_data(2)-1))==1);
    25. % dataset=dataset(:,choose==1);
    26. size_data = size(dataset);
    27. classList = dataset(:,size_data(2));
    28. %%属性集为空,用找最多数
    29. if size_data(2) == 1
    30. temp=tabulate(classList);
    31. value=temp(:,1); %属性值
    32. count=cell2mat(temp(:,2)); %不同属性值的各自数量
    33. index=find(max(count)==count);
    34. choose=index(randi(length(index)));
    35. myTree = char(value(choose));
    36. return
    37. end
    38. %bestFeature = chooseFeature(dataset); %找到信息增益最大的特征
    39. bestFeature = chooseFeatureGini(dataset); %找到信息增益最大的特征
    40. bestFeatureLabel = char(labels(bestFeature)); %得到信息增益最大的特征的名字,即为接下来要删除的特征
    41. myTree = containers.Map;
    42. leaf = containers.Map;
    43. featValues = dataset(:,bestFeature);
    44. uniqueVals = unique(featValues);
    45. labels=[labels(1:bestFeature-1) labels(bestFeature+1:length(labels))]; %删除该特征
    46. %形成递归,一个特征的按每个类别再往下分
    47. for i=1:length(uniqueVals)
    48. subLabels = labels(:)';
    49. value = char(uniqueVals(i));
    50. subdata = splitDataset(dataset,bestFeature,value); %取出该特征值为value的所有样本,并去除该属性
    51. leaf(value) = ID3(subdata,subLabels);
    52. myTree(char(bestFeatureLabel)) = leaf;
    53. end
    54. end

    构建决策树过程中根据基尼指数选择特征的代码:

    1. function bestFeature=chooseFeatureGini(dataset,~)
    2. % 选择基尼指数最小的属性特征
    3. %数据预处理
    4. [N,M]=size(dataset); %样本数量N
    5. M=M-1; %特征个数M
    6. y=strcmp(dataset(:,M+1),dataset(1,M+1)); %标签y(以第一个标签为1)
    7. x=dataset(:,1:M); %数据x
    8. Gini_index = zeros(1,M); %创建一个数组,用于储存每个特征的信息增益
    9. %bestFeature; %最大基尼系数的特征
    10. %计算基尼指数
    11. for i=1:M
    12. % 计算第i种属性的基尼指数
    13. temp=tabulate(x(:,i));
    14. value=temp(:,1); %属性值
    15. count=cell2mat(temp(:,2)); %不同属性值的各自数量
    16. Kind_Num=length(value); %取值数目
    17. Gini=zeros(Kind_Num,1);
    18. % i属性下 j取值的基尼指数
    19. for j=1:Kind_Num
    20. % 在第j种取值下正例的数目
    21. Gini(j)= getGini( y(strcmp(x(:,i),value(j))) );
    22. end
    23. Gini_index(i)=count'/N*Gini;
    24. end
    25. %随机挑选一个最小值
    26. min_GiniIndex=find(Gini_index==min(Gini_index));
    27. choose=randi(length(min_GiniIndex));
    28. bestFeature=min_GiniIndex(choose);
    29. end

    计算基尼指数的代码如下:

    1. function Gini = getGini(y)
    2. % 计算基尼系数
    3. % y对应的标签,为10,对应正例与反例
    4. %%%%%%===============================================================================
    5. N=length(y); %标签长度
    6. P_T=sum(y)/N; %正例概率
    7. P_F=1-P_T; %正例概率
    8. Gini=1-P_T*P_T-P_F*P_F; %基尼系数
    9. %%%%%%===============================================================================
    10. end

    构造决策树的过程中,划分数据集的方法:

    1. function subDataset = splitDataset(dataset,axis,value)
    2. %划分数据集,axis为某特征列, 取出该特征值为value的所有样本,并去除该属性
    3. subDataset = {};
    4. data_size = size(dataset);
    5. %取 该特征列 该属性 对应的数据集
    6. for i=1:data_size(1)
    7. data = dataset(i,:);
    8. if strcmp(cellstr(data(axis)),cellstr(value))
    9. subDataset = [subDataset;[data(1:axis-1) data(axis+1:length(data))]]; %取 该特征列 该属性 对应的数据集
    10. end
    11. end
    12. end

    遍历决策树的方法:

    1. function [nodeids_,nodevalue_,branchvalue_] = print_tree(tree)
    2. % 层序遍历决策树,返回nodeids(节点关系),nodevalue(节点信息),branchvalue(枝干信息)
    3. nodeids(1) = 0;
    4. nodeid = 0;
    5. nodevalue={};
    6. branchvalue={};
    7. queue = {tree} ; %形成队列,一个一个进去
    8. while ~isempty(queue)
    9. node = queue{1};
    10. queue(1) = []; %在队列中除去该节点
    11. if strcmp(cellstr(class(node)),'containers.Map') == 0 %叶节点的话(即走到底了)
    12. nodeid = nodeid+1;
    13. nodevalue = [nodevalue,{node}];
    14. elseif length(node.keys)==1 %节点的话
    15. nodevalue = [nodevalue,node.keys]; %储存该节点名
    16. node_info = node(char(node.keys)); %储存该节点下的属性对应的map
    17. nodeid = nodeid+1;
    18. branchvalue = [branchvalue,node_info.keys]; %每个节点下的属性
    19. for i=1:length(node_info.keys)
    20. nodeids = [nodeids,nodeid];
    21. end
    22. end
    23. if strcmp(cellstr(class(node)),'containers.Map')
    24. keys = node.keys();
    25. for i = 1:length(keys)
    26. key = keys{i};
    27. queue=[queue,{node(key)}]; %队列变成该节点下面的节点
    28. end
    29. end
    30. nodeids_=nodeids;
    31. nodevalue_=nodevalue;
    32. branchvalue_ = branchvalue;
    33. end

    绘制决策树的方法:
     

    1. function tree_plot(p,nodevalue,branchvalue)
    2. % 参考treeplot
    3. [x,y,h] = treelayout(p); %x:横坐标,y:纵坐标;h:树的深度
    4. f = find(p~=0); %非0节点
    5. pp = p(f); %非0
    6. X = [x(f); x(pp); NaN(size(f))];
    7. Y = [y(f); y(pp); NaN(size(f))];
    8. X = X(:);
    9. Y = Y(:);
    10. n = length(p);
    11. if n<500
    12. hold on;
    13. plot(x,y,'ro',X,Y,'r-')
    14. nodesize = length(x);
    15. for i=1:nodesize
    16. text(x(i)+0.01,y(i),nodevalue{1,i});
    17. end
    18. for i=2:nodesize
    19. j = 3*i-5;
    20. text((X(j)+X(j+1))/2-length(char(branchvalue{1,i-1}))/200,(Y(j)+Y(j+1))/2,branchvalue{1,i-1})
    21. end
    22. hold off
    23. else
    24. plot(X,Y,'r-');
    25. end
    26. xlabel(['height = ' int2str(h)]);
    27. axis([0 1 0 1]);
    28. end

    测试集进行预测的方法:

    1. function y_test=predict(x_test,mytree,feature_list)
    2. %测试
    3. y_test = {};
    4. row = size(x_test);
    5. for j= 1:row(1)
    6. queue = {mytree}; %形成队列,一个一个进去
    7. feature_name = 0;
    8. feature = 0;
    9. while ~isempty(queue)
    10. node = queue{1};
    11. queue(1) = []; %在队列中除去该节点
    12. tag = 2;
    13. if strcmp(cellstr(class(node)),'containers.Map') == 0%叶节点的话(即走到底了)
    14. y_test{j} = node; %走到底就是我们需要的标签
    15. continue
    16. elseif length(node.keys)==1 %节点的话
    17. feature_name = char(node.keys); %得到mytree节点的名字
    18. id = ismember(feature_list,feature_name); %mytree该特征所在的坐标
    19. x = x_test(j,:);
    20. feature = x(id); %得到测试数据的特征属性
    21. tag = 1;
    22. end
    23. %tag==2 即要走入下个节点
    24. if tag==2
    25. if strcmp(cellstr(class(node)),'containers.Map')
    26. hasKeys=0;
    27. keys = node.keys();
    28. for i = 1:length(keys)
    29. key = keys{i};
    30. c = char(feature);
    31. if strcmp(key,c)
    32. queue=[queue,{node(key)}]; %队列变成该节点下面的节点
    33. hasKeys=1;
    34. end
    35. end
    36. if(~hasKeys)
    37. key = keys{randi(length(keys))};
    38. queue=[queue,{node(key)}]; %队列变成该节点下面的节点
    39. end
    40. end
    41. end
    42. %tag==1 即要选则符合测试数据的特征属性,这样就不用历遍整个mytree
    43. if tag==1
    44. if strcmp(cellstr(class(node)),'containers.Map')
    45. keys = node.keys();
    46. for i = 1:length(keys)
    47. key = keys{i};
    48. queue=[queue,{node(key)}]; %队列变成该节点下面的节点
    49. end
    50. end
    51. end
    52. end
    53. if length(y_test)<j
    54. test=1;
    55. end
    56. end
    57. end

    二、随机森林

    2.1、随机森林的算法原理

    我们首先看卡集成算法,也可以叫集成学习,目的是让机器的学习效果更好,常见的又bagging,boosting和stacking,其中bagging是训练多个取平均值,boosting是训练多个组合加权,stacking是聚合多个分类,就是融合多个算法。

     我们看一下Bagging模型,典型的Bagging模型就是随机森林,并行的训练一堆分类器,数据随机采样,特征选择随机,建立多个决策树,即多个分类器,将多个分类器放到一起就组成了森林。

    通过2重随机性,就是随机采样,随机获取特征,使得构造的决策树具有多样性,最后的平均才能取得更好的效果,更具有说服力。

    2.2、随机森林的优势与特征重要指标

    随机森林的可解释性很强,神经网络虽然也可以用来预测和分类,但是神经网络的隐含层不具有可解释性,我们只知道输入和输出,具体内部怎么做的,细节无从得知。随机森林方便进行可视化展示,可以自动做特征筛选,并行速度较快。

    对于随机森林中决策树的个数应该为多少个呢,我们看这个图,可以发现当决策树达到一定的数量,准确率就趋于稳定了。

     2.3、随机森林的分类过程

    训练随机森林的过程就是训练各个决策树的过程,由于各个决策树的训练是相互独立的,因此随机森林的训练可以通过并行处理来实现,这将大大提高生成模型的效率。当输入待分类样本时,随机森林输出的分类结果由每个决策树的分类结果简单投票决定,随机森林的思想是:随机选取样本构造决策树,随机选取特征进行分裂。

    随机森林的最终分类结果是取众数的方式,或者理解为取平均的方式。

    分类过程可以近似表示为如下:

     

    2.4、随机森林的实验案例及分析

    我们先看一下我用的数据集,我用的还是上面决策树案例用到的根据环境状况判断是否打球的数据集合,14组数据。

     

    第一步:确定决策树的个数和决策树叶子节点数量,其中,RFOptimizationNum是为了多次循环,防止最优结果受到随机干扰;大家如果不需要,可以将这句话删除。

           这里决策树的个数设置1~500,在这个范围内寻找最合适的决策树个数。
      RFLeaf定义初始的叶子节点个数,我这里设置了从5到500,也就是从5到500这个范围内找到最优叶子节点个数。
      Input与Output分别是我的输入(自变量)与输出(因变量),大家自己设置即可。
     

    1. clc
    2. clear
    3. load('data1.mat')
    4. Input = data1(2:end,1:end-1)
    5. Output = data1(2:end,end)
    6. %% 确定叶子节点和决策树的数量
    7. for RFOptimizationNum=1:5
    8. RFLeaf=[5,10,20,50,100,200,500];
    9. col='rgbcmyk';
    10. figure('Name','RF Leaves and Trees');
    11. for i=1:length(RFLeaf)
    12. RFModel=TreeBagger(500,Input,Output,'Method','R','OOBPrediction','On','MinLeafSize',RFLeaf(i));
    13. plot(oobError(RFModel),col(i));
    14. hold on
    15. end
    16. xlabel('Number of Grown Trees');
    17. ylabel('Mean Squared Error') ;
    18. LeafTreelgd=legend({'5' '10' '20' '50' '100' '200' '500'},'Location','NorthEast');
    19. title(LeafTreelgd,'Number of Leaves');
    20. hold off;
    21. disp(RFOptimizationNum);
    22. end

    我们从图中分析可以发现这个数据集选5个叶子节点,决策树的数量选取200左右就可以。其实由于该数据集数量较少,总的来说,决策树的叶子数量选取产生的误差相差不大。

    选择好决策树的个数和叶子节点数,后面就可以对数据集进行划分,然后建立随机森林进行分类预测,可以计算出预测误差和每个特征的重要性排名,重要性越大,说明该特征对分类的作用越好。

    1. clc
    2. clear
    3. load('data1.mat')
    4. Input = data1(2:end,1:end-1) ;
    5. Output = data1(2:end,end) ;
    6. % %% 确定叶子节点和决策树的数量
    7. % for RFOptimizationNum=1:5
    8. % RFLeaf=[5,10,20,50,100,200,500];
    9. % col='rgbcmyk';
    10. % figure('Name','RF Leaves and Trees');
    11. % for i=1:length(RFLeaf)
    12. % RFModel=TreeBagger(500,Input,Output,'Method','R','OOBPrediction','On','MinLeafSize',RFLeaf(i));
    13. % plot(oobError(RFModel),col(i));
    14. % hold on
    15. % end
    16. % xlabel('Number of Grown Trees');
    17. % ylabel('Mean Squared Error') ;
    18. % LeafTreelgd=legend({'5' '10' '20' '50' '100' '200' '500'},'Location','NorthEast');
    19. % title(LeafTreelgd,'Number of Leaves');
    20. % hold off;
    21. % disp(RFOptimizationNum);
    22. % end
    23. %% 循环准备
    24. RFScheduleBar=waitbar(0,'Random Forest is Solving...');
    25. RFRMSEMatrix=[];
    26. RFrAllMatrix=[];
    27. RFRunNumSet=5000;
    28. for RFCycleRun=1:RFRunNumSet
    29. %% 训练集和测试集的划分
    30. RandomNumber=(randperm(length(Output),floor(length(Output)*0.2)))';
    31. TrainYield=Output;
    32. TestYield=zeros(length(RandomNumber),1);
    33. TrainVARI=Input;
    34. TestVARI=zeros(length(RandomNumber),size(TrainVARI,2));
    35. for i=1:length(RandomNumber)
    36. m=RandomNumber(i,1);
    37. TestYield(i,1)=TrainYield(m,1);
    38. TestVARI(i,:)=TrainVARI(m,:);
    39. TrainYield(m,1)=0;
    40. TrainVARI(m,:)=0;
    41. end
    42. TrainYield(all(TrainYield==-2,2),:)=[];
    43. TrainVARI(all(TrainVARI==-2,2),:)=[];
    44. end
    45. %% 随机森林
    46. nTree=200;
    47. nLeaf=5;
    48. RFModel=TreeBagger(nTree,TrainVARI,TrainYield,...
    49. 'Method','regression','OOBPredictorImportance','on', 'MinLeafSize',nLeaf);
    50. [RFPredictYield,RFPredictConfidenceInterval]=predict(RFModel,TestVARI);
    51. disp('预测结果:') ;
    52. disp(RFPredictYield) ;
    53. %% 计算误差
    54. RFRMSE=sqrt(sum(sum((RFPredictYield-TestYield).^2))/size(TestYield,1));
    55. RFrMatrix=corrcoef(RFPredictYield,TestYield);
    56. RFr=RFrMatrix(1,2);
    57. RFRMSEMatrix=[RFRMSEMatrix,RFRMSE];
    58. RFrAllMatrix=[RFrAllMatrix,RFr];
    59. if RFRMSE<1000
    60. disp('RFRMSE') ;
    61. disp(RFRMSE);
    62. end
    63. %% 比较特征的重要性
    64. figure
    65. bar(RFModel.OOBPermutedVarDeltaError)
    66. xlabel('Feature Number')
    67. ylabel('Out-of-Bag Feature Importance')
    68. [mae,rmse,r2,mape] = EvlMetrix(TestYield,RFPredictYield)
    69. figure
    70. plot(TestYield,'b-d')
    71. hold on
    72. plot(RFPredictYield,'r-d')
    73. hold off
    74. legend('GroundTruth','Prediction')
    75. xlabel('Sample Number')
    76. ylabel('target Value')

    我就用了两个测试数据,效果不是特别明显。

     下面的是每个特征对分类的重要性,1>3>4>2,这个数据量越大,越准确,因为我的数据量很小,所有效果不是很明显。

    三、Logistic模型

    3.1、Logistic模型理论

    我们看一下这个二分类问题,给了一些水果的属性数据和水果名称,根据水果水果属性,对水果名称进行预测。

    首先需要创建虚拟变量,我们根据水果名称创建0和1的虚拟变量,用spss如下:

    对于二分类问题,我们可以考虑使用logistic模型,预测的概率决定了分类类别,如下:

     一般就是使用极大似然估计进行参数估计,然后代入公式进行预测,如下:

     

    3.2、SPSS求解逻辑回归

    SPSS求解逻辑回归的过程如下,选中自变量和因变量,便可以完成回归预测。

     

    预测的结果在如下表中,第一个是预测值,第二个是预测的分类值。

    如果预测效果比较差,可以加入平方项作为自变量进行预测,一般会增加预测准确率,但是有可能造成过拟合,即训练效果好,测试效果差,泛化能力差,故可以划分训练集和测试集,多次交叉验证,得到一个稳定的结果。

  • 相关阅读:
    zlMediaKit 10 http相关
    论文解读(GraphSMOTE)《GraphSMOTE: Imbalanced Node Classification on Graphs with Graph Neural Networks》
    机器学习——线性回归
    Springboot美术外包服务平台 60u1s计算机毕业设计-课程设计-期末作业-毕设程序代做
    linux内核中内存反碎片技术
    ASEMI肖特基二极管SB40100LCT参数,SB40100LCT规格书
    MQTT 基础--MQTT 协议简介 :第 1 部分
    supOS工业操作系统getPropertiesHistory服务
    Android 应用流量监控实践
    自然语言处理(一):RNN
  • 原文地址:https://blog.csdn.net/nuist_NJUPT/article/details/126787683