《统计学习方法》第五章:决策树

本文详细介绍了决策树的学习过程,包括ID3、C4.5和CART算法。决策树通过信息增益选择特征,如ID3使用信息增益,C4.5引入信息增益比以避免偏好取值多的特征。此外,决策树的剪枝是防止过拟合的关键,通过损失函数最小化来确定最优子树。CART算法生成二叉决策树,适用于分类和回归任务,使用基尼指数选择最优特征。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

第五章:决策树

决策树(decision tree)是一种分类与回归方法,它可以认为是if-then结构

5.1 决策树模型与学习

5.1.1 决策树模型

定义 5.1 (决策树)
分类决策树模型是一种描述实例进行分类的树形结构,决策树由节点(node),和有向边(directed edge)组成。节点由两种类型:内节点(internal tree)和叶节点(leaf node),内部节点表示一个特征或者属性,叶节点表示一个类

5.1.2 决策树与if-then规则

5.1.3 决策树与条件概率分布

决策树还表示给定特征条件下类的条件概率分布,这一条概率分布定义在特征空间的一个划分上(partition),将特征空间分为互不交集的单元(cell)或区域(region)中,并在每一个单元定义一个类的概率分布就构成了一个条件概率。

5.1.4 决策树学习

假设给定训练数据集:D=(x1,y1),(x2,y2),...,(xN,yN)D=(x_1, y_1), (x_2, y_2), ...,(x_N, y_N)D=(x1,y1),(x2,y2),...,(xN,yN)
其中:xi=(xi(1),xi(2),...,xi(n))Tx_i = (x_i^{(1)}, x_i^{(2)}, ..., x_i^{(n)})^Txi=(xi(1),xi(2),...,xi(n))T为输入实例(特征向量),nnn为特征个数,yi∈{1,2,...,K}y_i \in \left\{1, 2, ..., K\right\}yi{1,2,...,K}为类标记,i=1,2,...,Ni = 1, 2, ..., Ni=1,2,...,N, NNN为样本容量。学习的目标是更狠绝给定的训练数据集构建一个决策树模型,使它能够对实例进行正确的分类。
决策树学习的本质是从训练集中归纳出一组分类规则。我们需要找的是一个与训练数据矛盾较小的决策树,同时又具有很好的泛化能力。
决策树学习用损失函数表示这一目标。如下所述,损失函数通常是正则化的极大似然函数。决策树的学习策略是以损失函数为目标的最小化。
从所有可能的决策树中选取最优的是一种NP完全问题所以现实中决策树通常采用启发式学习的方式。
决策树的学习过程通常是递归的找到最优解,并根据该特征对训练数据进行分割,使得各个子数据集有一个最好的分类的一个过程。

  1. 选择一个最优特征,按照这个特征将训练集数据分割成子集,使得各个子集有一个在当前条件下最好的分类。
  2. 如果这些子集已经可以被基本正确分类,那么构建叶节点,并将子集分割到各个的叶节点之中去。
  3. 如果还有子集不能被正确分类,那么就对这些子集选择新的最优特征,继续对其进行分割,构建相应的节点。
  4. 递归的进行下去,直到所有训练数据子集被基本正确分类,或者没有合适的特征为止。

5.2 特征选择

5.2.1 特征选择问题

特征在选择时遵循的原则是特征增益或特征增益比。
其中,特征增益指的就是对于现有的数据集DDD的信息熵(entropy),选取数据集中的一个特征后,由于选取了特征AAA使数据集的信息熵产生了下降,下降的数值就是信息增益(information gain).也就是条件熵(conditional entropy)与信息熵的差。

5.2.2 信息增益

对于离散型随机变量X,其熵的定义为:H(X)=−∑i=1npilogpiH(X) = - \sum_{i=1}^n p_i logp_iH(X)=i=1npilogpi通常的时候,上述公式中的log以2为底,熵的单位为比特(bit)。从上述公式中可以看出离散型随机变量X的熵与X本身的取值无关,所以上述公式可以记作H(p)=−∑i=1npilogpiH(p) = - \sum_{i=1}^n p_i logp_iH(p)=i=1npilogpi熵越大,随机性就越大,由熵的定义可知:0⩽H(p)⩽log⁡n0\leqslant H(p) \leqslant \log{n}0H(p)logn
当随机变量只取两个值(例如0-1分布)即P(X=1)=p,P(X=0)=1−pP(X=1) = p,P(X=0) = 1-pP(X=1)=p,P(X=0)=1p
则熵为:H(p)=−plog⁡2p−(1−p)log⁡2(1−p)H(p)=-p \log_2p - (1-p) \log_2(1-p)H(p)=plog2p(1p)log2(1p)
当 p=0 或者p=1 时,H§=0,随机变量没有不确定性。当p=0.5 时H§=1,熵的取值最大,随机变量的不确定性最大。
条件熵H(Y∣X)H(Y|X)H(YX)表示在已知随机变量X的条件下,随机变量Y的不确定性。随机变量X给定的条件下随机变量Y的条件熵(conditional entropy)H(Y∣X)H(Y|X)H(YX),定义为X给定条件下Y的条件概率分布的数学期望。
H(Y∣X)=∑i=1npiH(Y∣X=xi)H(Y|X) = \sum_{i=1}^n p_i H(Y|X=x_i)H(YX)=i=1npiH(YX=xi)

对于条件熵的理解,在后面贷款人信息审核的计算中会有详细的讲解,但是在这里我个人暂时总结为:

在给定的数据集D中,数据集整体的熵是由标签列,也就是最后一列按照熵的计算公式来计算出来的。在选定一个条件A后,也就是选定个特征列之后(就是除了最后一列的其他列),选定这个动作会对整体的不确定性产生影响。(这其实很好理解,我们对于一个数据集确定的数据越多,那么这个数据集对于我们来说不确定性当然就越小)

定义5.2(信息增益):特征A队训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)H(D)H(D)与特征A给定的条件下D的经验条件熵H(D∣A)H(D|A)H(DA)之差,即:
g(D,A)=H(D)−H(D∣A)g(D,A) = H(D) - H(D|A)g(D,A)=H(D)H(DA)
一般的熵与条件熵之差称为互信息(mutual information).决策树学习中的信息增益等价于训练集数据中类与特征的互信息
算法5.1(信息增益的算法)
输入:训练数据集D和特征A:
输出:特征A对训练数据集D的信息增益g(D,A)
(1) 计算数据集D的经验熵H(D):H(D)=−∑k=1K∣Ck∣∣D∣log⁡2∣Ck∣∣D∣H(D)=- \sum_{k=1}^K \frac{|C_k|}{|D|} \log_2\frac{|C_k|}{|D|}H(D)=k=1KDCklog2DCk
(2) 计算特征A对数据集D的经验条件熵H(D|A):
H(D∣A)=∑i=1n∣Di∣∣D∣H(Di)=−∑i=1n∣Di∣∣D∣∑k=1K∣Dik∣∣Di∣log⁡2∣Dik∣∣Di∣H(D|A)=\sum_{i=1}^n\frac{|D_i|}{|D|}H(D_i)=-\sum_{i=1}^n\frac{|D_i|}{|D|}\sum_{k=1}^K\frac{|D_ik|}{|D_i|}\log_2{\frac{|D_ik|}{|D_i|}}H(DA)=i=1nDDiH(Di)=i=1nDDik=1KDiDiklog2DiDik
(3) 计算信息增益:g(D,A)=H(D)−H(D∣A)g(D,A)=H(D)-H(D|A)g(D,A)=H(D)H(DA)

5.2.3 信息增益比

以信息增益作为划分训练数据集的特征,存在偏向于选择取值较多的特征的问题,使用信息增益比(information gain ratio),可以对这个问题进行矫正,这是特征选择的另一个准则。

5.3 决策树的生成

5.3.1 ID3算法

ID3算法的核心是在决策树的各个节点上应用信息增益准则选择特征,递归地构建决策树,具体方法是:从根节点(root node)开始,对节点计算所有可能的特征的信息增益,选择信息增益最大的特征作为节点的特征,由该特征的不同取值建立子节点;再对子节点递归的调用以上的方法,构建决策时;直到所有特征的信息增益均很小或者没有特征可以选为止。最后的到一个决策树。ID3相当于用极大似然估计法进行概率模型的选择
算法5.2(ID3算法)
输入:训练数据集D,特征集A,阈值ϵ\epsilonϵ
输出:决策树T

  1. DDD中所有的实例都属于同一类CkC_kCk,则TTT为单节点树,并将类CkC_kCk作为该节点的标记,返回TTT;
  2. A=∅A=\emptysetA=,则TTT为单节点树,并将DDD中实例数最大的类CkC_kCk作为该节点的累标记,返回TTT;
  3. 否则,按算法5.1计算AAA中各个特征对DDD的信息增益,选择信息增益最大的特征AgA_gAg;
  4. 如果AgA_gAg的信息增益小于阈值ϵ\epsilonϵ,则置TTT为单节点树,并将DDD中实例树最大的类CkC_kCk作为该节点的类标记,返回TTT;
  5. 否则,对AgA_gAg的每一个可能值aia_iai,依Ag=aiA_g = a_iAg=aiDDD分割为若干非空子集DiD_iDi,将DiD_iDi中实例数最大的类作为标记,构建子节点,由节点以及子节点构成树TTT,返回TTT
  6. 对于第i个子节点,以DiD_iDi为训练集,以A−AgA-A_gAAg为特征集,递归的调用1-5步,得到子树TiT_iTi,返回TiT_iTi

5.3.2 C4.5算法

C4.5s算法与ID3算法相似,对其进行了改进,C4.5在生成的过程中吗,用信息增益比来选择特征。
算法5.3(C4.5算法)
输入:训练数据集D,特征集A,阈值ϵ\epsilonϵ
输出:决策树T

  1. DDD中所有的实例都属于同一类CkC_kCk,则TTT为单节点树,并将类CkC_kCk作为该节点的标记,返回TTT;
  2. A=∅A=\emptysetA=,则TTT为单节点树,并将DDD中实例数最大的类CkC_kCk作为该节点的累标记,返回TTT;
  3. 否则,按算法5.10计算AAA中各个特征对DDD的信息增益比,选择信息增益比最大的特征AgA_gAg;
  4. 如果AgA_gAg的信息增益比小于阈值ϵ\epsilonϵ,则置TTT为单节点树,并将DDD中实例树最大的类CkC_kCk作为该节点的类标记,返回TTT;
  5. 否则,对AgA_gAg的每一个可能值aia_iai,依Ag=aiA_g = a_iAg=aiDDD分割为若干非空子集DiD_iDi,将DiD_iDi中实例数最大的类作为标记,构建子节点,由节点以及子节点构成树TTT,返回TTT
  6. 对于第i个子节点,以DiD_iDi为训练集,以A−AgA-A_gAAg为特征集,递归的调用1-5步,得到子树TiT_iTi,返回TiT_iTi

5.4决策树的剪枝

简而言之,决策树在对使用训练集进行训练时,往往都可以很好的拟合现有的数据,但是在出现新的数据进行预测时,由于过拟合,往往不能很好的进行预测,而决策树的剪枝就是要解决这一问题。
在决策树学习中,将已生成决策树进行简化的过程叫做剪枝(pruning)。具体地,剪枝从已生成的决策树熵裁掉一些叶子或者节点,并将其根节点或父节点作为新的叶子节点
决策树的剪枝往往通过极小化决策树整体的损失函数(loss function)或者代价函数(cost function)来实现。
决策树的损失函数可以定义为:Cα(T)=∑t=1∣T∣NtHt(T)+α∣T∣C_{\alpha}(T)=\sum_{t=1}^{|T|}N_tH_t(T) + \alpha|T|Cα(T)=t=1TNtHt(T)+αT
其中:

  • ∣T∣|T|T:树T的叶节点总个数
  • ttt:决策树的叶节点
  • NtN_tNt:叶节点中的样本点个数
  • Ht(T)H_t(T)Ht(T):叶子节点t上的经验熵
  • α\alphaα:参数,当值较大的时候更偏向于选择较为简单的决策树模型

上式中经验熵Ht(T)H_t(T)Ht(T)定义为:Ht(T)=−∑kNtkNtlog⁡NtkNtH_t(T)=-\sum_k \frac{N_{tk}}{N_t}\log\frac{N_{tk}}{N_t}Ht(T)=kNtNtklogNtNtk

在损失函数中将第一个公式中右端的第一项记作:
C(T)=∑t=1∣T∣NtHt(T)=−∑t=1∣T∣∑k=1KNtklog⁡NtkNtC(T)=\sum_{t=1}^{|T|}N_tH_t(T)=-\sum_{t=1}^{|T|}\sum_{k=1}^{K}N_{tk}\log\frac{N_{tk}}{N_t}C(T)=t=1TNtHt(T)=t=1Tk=1KNtklogNtNtk

这时就会有:Cα(T)=C(T)+α∣T∣C_{\alpha}(T) = C(T)+\alpha|T|Cα(T)=C(T)+αT

上式中C(T)C(T)C(T)表示模型对训练数据的预测误差,即模型与训练数据的拟合程度∣T∣|T|T表示模型的复杂程度。

算法 5.4(树的剪枝算法)
输入:生成算法产生的整棵树TTT,参数α\alphaα
输出:修建后的子树TαT_{\alpha}Tα

  1. 计算每一个节点的经验熵;
  2. 递归地从树的叶子节点向上回缩
    设一组叶节点回缩到与其父节点之前与之后的整体树分别为TBT_BTBTAT_ATA其对应的损失函数值分别是Cα(TB)C_{\alpha}(T_B)Cα(TB)Cα(TA)C_{\alpha}(T_A)Cα(TA)如果:Cα(TA)⩽Cα(TB)C_{\alpha}(T_A)\leqslant C_{\alpha}(T_B)Cα(TA)Cα(TB)则进行修剪,将父节点变为新的叶子节点
  3. 返回2,直到不能继续为止,得到损失函数最小的子树TαT_{\alpha}Tα

5.5 CART算法

分类与回归树(classification and regression tree, CART)同样是由特征选择,树的生成以及树的剪枝组成,既可以用于分类也可以用于回归。
CART算法假定决策树是二叉树,
CART算法由以下两部分组成:

  1. 决策树的生成:基于训练数据集生成决策树,生成的决策树尽量要大;
  2. 决策树的剪枝:用验证数据集对已生成的树进行剪枝并选择最优子树,这时用损失函数最小作为剪枝的衡量标准

5.5.1 CART树的生成

5.5.1.1 回归树的生成

算法 5.5 (最小二乘回归树的生成算法):
输入:训练数据集D
输出:回归树f(x)f(x)f(x)
在训练数据集所在的输入空间中,递归地将每一个区域划分为两个子区域并决定每一个子区域上的输出值,构建二叉决策树:

  1. 选择最优切分变量jjj以及切分点sss,求解:
    min⁡j,s[min⁡c1∑xi∈R1(j,s)(yi−c1)2+min⁡c2∑xi∈R2(j,s)(yi−c2)2]\min_{j,s}[\min_{c_1}\sum_{x_i\in{R_1(j,s)}}(y_i-c_1)^2 +\min_{c_2}\sum_{x_i\in{R_2(j,s)}}(y_i-c_2)^2]j,smin[c1minxiR1(j,s)(yic1)2+c2minxiR2(j,s)(yic2)2]遍历变量jjj对固定的切分变量jjj扫描切分点sss,选择使上式值达到最小的(j,s)(j,s)(j,s)
  2. 对选定的(j,s)(j,s)(j,s)划分区域,并决定相应的输出值:R1(j,s)={x∣xj⩽s},R2(j,s)={x∣xj>s}R_1(j,s) = \{x|x^{j}\leqslant s\}, R_2(j,s) = \{x|x^{j}> s\}R1(j,s)={xxjs},R2(j,s)={xxj>s}
    cmnice=1Nm∑xi∈Rm(j,s)yi,x∈Rm,m=1,2c_m^{nice} = \frac{1}{N_m}\sum_{x_i\in{R_m(j,s)}} y_i, x\in R_m, m=1,2cmnice=Nm1xiRm(j,s)yi,xRm,m=1,2
  3. 继续对两个子区域巧用步骤(1),(2),直至满足条件。
  4. 将输入控件划分成MMM个区域R1,R2,...,RmR_1,R_2,...,R_mR1,R2,...,Rm,生成决策树:
    f(x)=∑m=1McmniceI(x∈Rm)f(x)=\sum_{m=1}^Mc_m^{nice}I(x\in R_m)f(x)=m=1McmniceI(xRm)
5.5.1.2 分类树的生成

分类树选用基尼指数选择最优特征,同时决定改特征的最优二值切分点。
**定义 5.4(基尼指数):**分类问题中,假设有KKK个类,样本点属于第kkk类的概率为pkp_kpk,则概率分布的基尼指数的定义为:Gini(p)=∑k=1Kpk(1−pk)=1−∑k=1Kpk2Gini(p) = \sum_{k=1}^K p_k(1-p_k)=1-\sum_{k=1}^K {p_k}^2Gini(p)=k=1Kpk(1pk)=1k=1Kpk2对于二分类问题,若样本点属于第一个类的概率是p,则概率分布的基尼指数是:Gini(p)=2p(1−p)Gini(p) = 2p(1-p)Gini(p)=2p(1p)对于给定的集合D,其基尼指数为Gini(D)=1−∑k=1K(∣Ck∣∣D∣)2Gini(D)=1-\sum_{k=1}^K (\frac{|C_k|}{|D|})^2Gini(D)=1k=1K(DCk)2这里,CkC_kCkDDD中属于第k类的样本子集,K是类的个数。如果样本集合D根据特征A是否取某一可能指a被分割成D1,D2D_1,D_2D1,D2两部分,即D1={(x,y)∈D∣A(x)=a},D2=D−D1D_1 = \{(x,y)\in D|A(x)=a\}, D_2 = D-D_1D1={(x,y)DA(x)=a},D2=DD1
则在特征A的条件下,集合D的基尼指数定义为:
Gini(D,A)=∣D1∣DGini(D1)+∣D2∣∣D∣Gini(D2)Gini(D,A) = \frac{|D_1|}{D} Gini(D_1) + \frac{|D_2|}{|D|} Gini(D_2)Gini(D,A)=DD1Gini(D1)+DD2Gini(D2)
基尼指数Gini(D)表示集合D的不确定性,基尼指数Gini(D,A)表示经过A=a分割后集合D的不确定性,基尼指数越大,样本集合不确定性也就越大,这样与熵相似
算法 5.6 (CART生成算法)
输入:训练数据集D,停止计算的条件
输出:CART决策树
根据训练数据集,从根节点开始,递归地对每一个节点进行以下操作,构建二叉决策树:

  1. 设结点的训练数据集为DDD,计算现有特征对该数据集的基尼指数。此时,对每一个特征A,对其可能取值的每一个a,根据样本点对A=aA=aA=a的测试为“是”或“否”将DDD分割成D1,D2D_1,D_2D1,D2两个部分,利用公式计算A=aA=aA=a时的基尼指数。
  2. 在所有可能的特征AAA以及它们所有可能的切分点a中,选择基尼指数最小的特征及对应的切分点作为最优特征与最优切分点。依据最优特征与最优切分点,从现节点生成两个子节点,将训练数据集依特征分配到两个子节点中去。
  3. 对两个子节点递归的调用1. 2.,直到满足停止条件。
  4. 生成CART决策树。

5.5.2 CART剪枝

CART剪枝算法从“完全生长”的决策树低端减去一些叶子,使决策树变小,从而能对未知数据具有更加准确的预测。CART剪枝算法由两部分组成,首先从生成算法产生的决策树T0T_0T0底端开始不断剪枝,直到T0T_0T0的根节点,形成一个子树的序列;然后通过交叉验证的方法在独立的验证数据集上对子树序列进行测试,从中选择最优子树。
算法5.7 (CART剪枝算法):
输入:CART算法生成的决策树T0T_0T0
输出:最优决策树TαT_{\alpha}Tα

  1. k=0,T=T0k=0, T=T_0k=0,T=T0
  2. α=+∞\alpha=+ \inftyα=+
  3. 自上而下的对各内部节点ttt计算C(Tt)C(T_t)C(Tt), ∣Tt∣|T_t|Tt以及
    g(t)=C(t)−C(Tt)∣Tt∣−1g(t)= \frac{C(t)-C(T_t)}{|T_t|-1}g(t)=Tt1C(t)C(Tt)
    α=min(α,g(t)\alpha = min(\alpha, g(t)α=min(α,g(t)这里,
    TtT_tTt表示以ttt为根节点的子树,C(Tt)C(T_t)C(Tt)使对训练集数据的预测误差,∣Tt∣|T_t|TtTtT_tTt的叶子节点的个数。
  4. g(t)=αg(t)= \alphag(t)=α的内部节点ttt进行剪枝,并对叶节点ttt以多数表决法决定其类,得到树T。
  5. k=k+1,αk=α,Tk=Tk=k+1, \alpha_k = \alpha, T_k = Tk=k+1,αk=α,Tk=T
  6. 如果TkT_kTk不是由根节点及两个叶节点构成的树,则回到步骤3,否则Tk=TnT_k = T_nTk=Tn
  7. 采用交叉验证的方法验证最佳子树。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值