当前位置:网站首页 > 技术博客 > 正文

基于梯度下降的决策树算法



1.GBDT算法简介

GBDT(Gradient Boosting Decision Tree)是一种迭代的决策树算法,由多棵决策树组成,所有树的结论累加起来作为最终答案,我们根据其名字(Gradient Boosting Decision Tree)来展开推导过程。决策树(Decision Tree)我们已经不再陌生,在之前介绍到的、、中已经多次接触,在此不再赘述。但BoostingGradient方法是什么含义呢,又如何跟Decision Tree相结合?首先我们来了解集成学习中的Boosting概念。

1.1集成学习之Boosting

集成学习不是单独的机器学习方法,而是通过构建并结合多个机器学习器来完成任务,集成学习可以用于分类问题集成、回归问题集成、特征选取集成、异常点检测集成等方面。其思想是对于训练数据集,我们通过训练若干个个体学习器,通过一定的结合策略形成一个强学习器,以达到博采众长的目的。在中我们已经用到集成学习中的bagging方法,此处我们详细介绍集成学习中的Boosting方法。

从上图可以看出,Boosting算法的工作机制是从训练集用初始权重训练出一个弱学习器1,根据弱学习器的学习误差率来更新训练样本的权重,使得之前弱学习器1中学习误差率高的训练样本点权重变高。然后这些误差率高的点在弱学习器2中得到更高的重视,利用调整权重后的训练集来训练弱学习器2。如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。了解Boosting方法后,我们便可将Boosting方法和Decision Tree相结合便可得到Boosting Decision Tree

1.2 Boosting Decision Tree

提升树(Boosting Decision Tree)由于输出样本是连续值,因此我们通过迭代多棵回归树来共同决策。在中我们已经详细推导分类树与回归树的构建过程,在此不再赘述。

我们利用平方误差来表示损失函数,其中每一棵回归树学习的是之前所有树的结论和残差,拟合得到一个当前的残差回归树。其中残差=真实值-预测值,提升树即是整个迭代过程生成的回归树的累加。

我们通过以下例子来详解算法过程,希望通过训练提升树来预测年龄。训练集是4个人,A、B、C、D年龄分别是14、16、24、26。样本中有购物金额、上网时长、经常到百度知道提问等特征。提升树的过程如下

我们能够直观的看到,预测值等于所有树值的累加,如A的预测值=树1左节点(15)+树2左节点(-1)=14。因此给定当前决策树模型ft-1(x),只需拟合决策树的残差,便可迭代得到提升树,算法过程如下

我们介绍了Boosting Decision Tree的基本思路,但是没有解决损失函数拟合方法的问题。针对这个问题,Freidman提出用损失函数的负梯度来拟合本轮损失的近似值,进而拟合一个CART回归树。了解Boosting Decision Tree方法后,我们便可将Gradient与Boosting Decision Tree相结合得到Gradient Boosting Decision Tree的负梯度拟合

1.3GBDT负梯度拟合

我们利用损失函数L的负梯度来拟合本轮损失函数的近似值,进而拟合一个CART回归树。其中第t轮的第i个样本的损失函数的负梯度表示为

针对每一个叶子节点中的样本,我们求出使损失函数最小,也就是拟合叶子节点最好的输出值ctj。其中决策树中叶节点值已经生成一遍,此步目的是稍加改变决策树中叶节点值,希望拟合的误差越来越小。

这样我们便得到本轮的决策树拟合函数

从而本轮最终得到的强学习器表达式如下

通过损失函数的负梯度拟合,我们找到一种通用的拟合损失函数的方法,这样无论是分类问题还是回归问题,我们通过其损失函数的负梯度拟合,就可以用GBDT来解决我们的分类回归问题。

2.GBDT回归算法

通过上述GBDT负梯度拟合我们来总结下GBDT的回归算法,为什么没有加上分类算法是因为分类算法的输出是不连续的类别值,需要一些处理才能使用负梯度,我们将在下一节详细介绍GBDT分类算法。

3.GBDT分类算法

GBDT分类算法在思想上和回归算法没有区别,但是由于样本输出不是连续的值,而是离散的类别,导致我们无法直接从输出类别去拟合类别输出的误差。为解决此问题,我们尝试用类似于逻辑回归的对数似然损失函数的方法,也就是说我们用的是类别的预测概率值和真实概率值来拟合损失函数。对于对数似然损失函数,我们有二元分类和多元分类的区别。

3.1二元GBDT分类算法

对于二元GBDT,如果用类似于逻辑回归的对数似然损失函数,则损失函数表示为

对于生成的决策树,我们各个叶子节点的最佳残差拟合值为

由于上式比较难优化,我们一般使用近似值代替

除了负梯度计算和叶子节点的最佳残差拟合的线性搜索外,二元GBDT分类和GBDT回归算法过程相同。

3.2多元GBDT分类算法

多元GBDT要比二元GBDT复杂一些,对应的是多元逻辑回归和二元逻辑回归的复杂度差别。假如类别数为K,则我们的对数似然函数为

其中如果样本输出类别为k,则yk=1。第k类的概率pk(x)的表达式为

集合上两式,我们可以计算出第t轮的第i个样本对应类别l的负梯度误差为

其实这里的误差就是样本i对应类别l的真实概率和t-1轮预测概率的差值。对于生成的决策树,我们各个叶子节点的最佳残差拟合值为

由于上式比较难优化,我们用近似值代替

除了负梯度计算和叶子节点的最佳残差拟合的线性搜索,多元GBDT分类和二元GBDT分类以及GBDT回归算法过程相同。

4.GBDT损失函数

对于回归算法,常用损失函数有均方差、绝对损失、Huber损失和分位数损失。

对于Huber损失和分位数损失,主要用于健壮回归,也就是减少异常点对损失函数的影响。

对于分类算法,常用损失函数有指数损失函数和对数损失函数。

5.GBDT正则化

针对GBDT正则化,我们通过子采样比例方法和定义步长v方法来防止过拟合。

6.Sklearn实现GBDT算法

我们经常需要通过改变参数来让模型达到更好的分类或回归结果,具体参数设置可参考sklearn官方教程。

7.GBDT优缺点

7.1优点
7.2缺点

文章参考

你看到的这篇文章来自于公众号「谓之小一」,欢迎关注我阅读更多文章。

版权声明


相关文章:

  • 密码破解工具手机版2025-01-03 12:01:03
  • 数据库中事务处理的四个特性2025-01-03 12:01:03
  • udp 编程2025-01-03 12:01:03
  • 余弦相似度怎么计算2025-01-03 12:01:03
  • emwin appwizard2025-01-03 12:01:03
  • es6常用新特性2025-01-03 12:01:03
  • 怎么用md5验证包是否出错2025-01-03 12:01:03
  • linux ftrace2025-01-03 12:01:03
  • uboot编译原理2025-01-03 12:01:03
  • 栅格布局一般怎么用2025-01-03 12:01:03