梯度提升决策树(GBDT)与XGBoost、LightGBM

发布时间:2024-06-23 11:01

20211224



【机器学习算法总结】XGBoost_yyy430的博客-CSDN博客_xgboost

xgboost参数

默认:auto。XGBoost中使用的树构造算法。

可选项:auto,exact,approx,hist,gpu_exact,gpu_hist。

分布式和外部存储器版本仅支持tree_method = approx。

auto:使用启发式方法选择最快的方法。(1)对于中小型数据集,将使用精确的贪婪(exact)。(2)对于非常大的数据集,将选择近似算法(approx)。(3)因为旧行为总是在单个机器中使用精确贪婪,所以当选择近似算法来通知该选择时,用户将得到消息。
exact:精确贪心算法。
approx:使用分位数草图和梯度直方图的近似贪婪算法。
hist:快速直方图优化近似贪心算法。 它使用了一些性能改进,例如垃圾箱缓存。
gpu_exact:精确算法的GPU实现。
gpu_hist:hist算法的GPU实现。

文章不全   缺少公式和图

一、提升树

  1. 提升树boostring tree是以决策树为基本学习器的提升方法。它被认为是统计学习中性能最好的方法之一。

  2. 对分类问题,提升树中的决策树是二叉决策树;对回归问题,提升树中的决策树是二叉回归树。

  3. 提升树模型可以表示为决策树为基本学习器的加法模型:  。

    其中 :

    • 表示第 个决策树。
    • 为第 个决策树的参数。
    • 为决策树的数量。
  4. 提升树算法采用前向分步算法。

    • 首先确定初始提升树  。

    • 第  步模型为: 。其中  为待求的第  个决策树。

    • 通过经验风险极小化确定第  个决策树的参数 : 。

      这里没有引入正则化,而在xgboost 中会引入正则化。

  5. 不同问题的提升树学习算法主要区别在于使用的损失函数不同(设预测值为 ,真实值为 ):

    • 回归问题:通常使用平方误差损失函数: 。
    • 分类问题:通常使用指数损失函数: 。


1.1 算法

  1. 给定训练数据集 ,其中  为输入空间,  为输出空间。

    如果将输入空间  划分为  个互不相交的区域 ,并且在每个区域上确定输出的常量 , 则决策树可以表示为: 

    其中:

    • 参数 表示决策树的划分区域和各区域上的输出。
    • 是决策树的复杂度,即叶结点个数。
  2. 回归问题中,提升树采用平方误差损失函数。此时:

    其中  为当前模型拟合数据的残差。

    所以对回归问题的提升树算法,第  个决策树  只需要简单拟合当前模型的残差。

  3. 不仅是回归提升树算法,其它的boosting 回归算法也是拟合当前模型的残差。

  4. 回归提升树算法:

    • 输入:训练数据集 

    • 输出:提升树 

    • 算法步骤:

      • 初始化 

      • 对于 

        • 计算残差: 。构建训练残差 : 。
        • 通过学习一个回归树来拟合残差 ,得到 。
        • 更新
      • 得到回归问题提升树: 。


1.2 GBT

  1. 提升树中,当损失函数是平方损失函数和指数损失函数时,每一步优化都很简单。因为平方损失函数和指数损失函数的求导非常简单。

    当损失函数是一般函数时,往往每一步优化不是很容易。针对这个问题,Freidman提出了梯度提升算法。

  2. 梯度提升树GBT 是利用最速下降法的近似方法。其关键是利用损失函数的负梯度在当前模型的值作为残差的近似值,从而拟合一个回归树。

    根据:

    则有:

    要使得损失函数降低,一个可选的方案是: 。

    • 对于平方损失函数,它就是通常意义上的残差。       看原文更好   有些图没粘贴过来
    • 对于一般损失函数,它就是残差的近似 。
  3. 梯度提升树用于分类模型时,是梯度提升决策树GBDT;用于回归模型时,是梯度提升回归树GBRT

  4. 梯度提升回归树算法GBRT

    • 输入:

      • 训练数据集
      • 损失函数
    • 输出:回归树 

    • 算法步骤:

      • 初始化:  。

        它是一颗只有根结点的树,根结点的输出值为:使得损失函数最小的值。

      • 对于 

        • 对于, 计算:

        • 对  拟合一棵回归树,得到第  棵树的叶结点区域 

        • 对  计算每个区域  上的输出值:

        • 更新 

      • 最终得到回归树:  。

  5. 梯度提升决策树算法GBDTGBRT类似,主要区别是GBDT的损失函数与GBRT的损失函数不同。


1.3 正则化

  1. 在工程应用中,通常利用下列公式来更新模型: 。

    其中  称作学习率。

    学习率是正则化的一部分,它可以降低模型更新的速度(需要更多的迭代)。

    • 经验表明:一个小的学习率 () 可以显著提高模型的泛化能力(相比较于 ) 。
    • 如果学习率较大会导致预测性能出现较大波动。
  2. Freidman 从bagging 策略受到启发,采用随机梯度提升来修改了原始的梯度提升树算法。

    • 每一轮迭代中,新的决策树拟合的是原始训练集的一个子集(而并不是原始训练集)的残差。

      这个子集是通过对原始训练集的无放回随机采样而来。

    • 子集的占比  是一个超参数,并且在每轮迭代中保持不变。

      • 如果 ,则与原始的梯度提升树算法相同。
      • 较小的 会引入随机性,有助于改善过拟合,因此可以视作一定程度上的正则化。
      • 工程经验表明, 会带来一个较好的结果。
    • 这种方法除了改善过拟合之外,另一个好处是:未被采样的另一部分子集可以用来计算包外估计误差。

      因此可以避免额外给出一个独立的验证集。

  3. 梯度提升树会限制每棵树的叶子结点包含的样本数量至少包含  个样本,其中  为超参数。在训练过程中,一旦划分结点会导致子结点的样本数少于  ,则终止划分。

    这也是一种正则化策略,它会改善叶结点的预测方差。


1.4 RF vs GBT

  1. 从模型框架的角度来看:

    • 梯度提升树GBTboosting 模型。
    • 随机森林RFbagging 模型。
  2. 从偏差分解的角度来看:

    • 梯度提升树GBT 采用弱分类器(高偏差,低方差)。梯度提升树综合了这些弱分类器,在每一步的过程中降低了偏差,但是保持低方差。
    • 随机森林RF 采用完全成长的子决策树(低偏差,高方差)。随机森林要求这些子树之间尽可能无关,从而综合之后能降低方差,但是保持低偏差。
  3. 如果在梯度提升树和随机森林之间二选一,几乎总是建议选择梯度提升树。

    • 随机森林的优点:天然的支持并行计算,因为每个子树都是独立的计算。

    • 梯度提升树的优点:

      • 梯度提升树采用更少的子树来获得更好的精度。

        因为在每轮迭代中,梯度提升树会完全接受现有树(投票权为1)。而随机森林中每棵树都是同等重要的(无论它们表现的好坏),它们的投票权都是 ,因此不是完全接受的。

      • 梯度提升树也可以修改从而实现并行化。

      • 梯度提升树有一个明确的数学模型。因此任何能写出梯度的任务,都可以应用梯度提升树(比如 ranking 任务)。而随机森林并没有一个明确的数学模型。


二、xgboost

  1. xgboost 也是使用与提升树相同的前向分步算法。其区别在于:xgboost 通过结构风险极小化来确定下一个决策树的参数 :

    其中:

    • 为第 个决策树的正则化项。这是xgboostGBT的一个重要区别。
    • 为目标函数。
  2. 定义:

    即:

    • 为 在 的一阶导数。
    • 为 在 的二阶导数。

    对目标函数  执行二阶泰勒展开:

    提升树模型只采用一阶泰勒展开。这也是xgboost 和GBT的另一个重要区别。

  3. 对一个决策树  ,假设不考虑复杂的推导过程,仅考虑决策树的效果:

    • 给定输入 ,该决策树将该输入经过不断的划分,最终划分到某个叶结点上去。
    • 给定一个叶结点,该叶结点有一个输出值。

    因此将决策树拆分成结构部分 ,和叶结点权重部分  ,其中  为叶结点的数量。

    • 结构部分 的输出是叶结点编号 。它的作用是将输入 映射到编号为 的叶结点。
    • 叶结点权重部分就是每个叶结点的值。它的作用是输出编号为 的叶结点的值 。

    因此决策树改写为:  。


2.1 结构分

  1. 定义一个决策树的复杂度为: 。

    其中: 为叶结点的个数; 为每个叶结点的输出值; 为系数,控制这两个部分的比重。

    • 叶结点越多,则决策树越复杂。
    • 每个叶结点输出值的绝对值越大,则决策树越复杂。

    该复杂度是一个经验公式。事实上还有很多其他的定义复杂度的方式,只是这个公式效果还不错。

  2. 将树的拆分、树的复杂度代入  的二阶泰勒展开,有:

    对于每个样本 ,它必然被划分到树  的某个叶结点。定义划分到叶结点  的样本的集合为: 。则有:

  3. 定义 : 。

    • 刻画了隶属于叶结点 的那些样本的一阶偏导数之和。
    • 刻画了隶属于叶结点 的那些样本的二阶偏导数之和。

    偏导数是损失函数  关于当前模型的输出  的偏导数。

    则上式化简为: 。

    假设  与 与  无关,对  求导等于0,则得到: 。

    忽略常数项,于是定义目标函数为:

  4. 在推导过程中假设  与 与  无关,这其实假设已知树的结构。

    事实上  是与  相关的,甚至与树的结构相关,因此定义  为结构分。

    结构分刻画了:当已知树的结构时目标函数的最小值。


2.2 分解结点

  1. 现在的问题是:如何得到最佳的树的结构,从而使得目标函数全局最小。


2.2.1 贪心算法

  1. 第一种方法是对现有的叶结点加入一个分裂,然后考虑分裂之后目标函数降低多少。

    • 如果目标函数下降,则说明可以分裂。
    • 如果目标函数不下降,则说明该叶结点不宜分裂。
  2. 对于一个叶结点,假如给定其分裂点,定义划分到左子结点的样本的集合为: ;定义划分到右子结点的样本的集合为: 。则有:

  3. 定义叶结点的分裂增益为:

    其中:

    • 表示:该叶结点的左子树的结构分。
    • 表示:该叶结点的右子树的结构分。
    • 表示:如果不分裂,则该叶结点本身的结构分。
    • 表示:因为分裂导致叶结点数量增大1,从而导致增益的下降。

    每次分裂只一个叶结点,因此其它叶结点不会发生变化。因此:

    • 若 ,则该叶结点应该分裂。
    • 若 ,则该叶结点不宜分裂。
  4. 现在的问题是:不知道分裂点。对于每个叶结点,存在很多个分裂点,且可能很多分裂点都能带来增益。

    解决的办法是:对于叶结点中的所有可能的分裂点进行一次扫描。然后计算每个分裂点的增益,选取增益最大的分裂点作为本叶结点的最优分裂点。

  5. 最优分裂点贪心算法:

    • 输入:

      • 数据集 ,其中样本 。
      • 属于当前叶结点的样本集的下标集合 。
    • 输出:当前叶结点最佳分裂点。

    • 算法:

      • 初始化: 。

      • 遍历各维度:

        • 初始化: 

        • 遍历各拆分点:沿着第  维 :

          • 如果第  维特征为连续值,则将当前叶结点中的样本从小到大排序。然后用  顺序遍历排序后的样本下标:

          • 如果第  维特征为离散值  ,设当前叶结点中第  维取值  样本的下标集合为  ,则遍历  :

      • 选取最大的  对应的维度和拆分点作为最优拆分点。

  6. 分裂点贪心算法尝试所有特征和所有分裂位置,从而求得最优分裂点。

    当样本太大且特征为连续值时,这种暴力做法的计算量太大。


2.2.2 近似算法

  1. 近似算法寻找最优分裂点时不会枚举所有的特征值,而是对特征值进行聚合统计,然后形成若干个桶。

    然后仅仅将桶边界上的特征的值作为分裂点的候选,从而获取计算性能的提升。

  2. 假设数据集  ,样本  。

    对第  个特征进行分桶:

    • 如果第  个特征为连续特征,则执行百分位分桶,得到分桶的区间为: ,其中  。

      分桶的数量、分桶的区间都是超参数,需要仔细挑选。

    • 如果第  个特征为离散特征,则执行按离散值分桶,得到的分桶为: ,其中  为第  个特征的所有可能的离散值。

      分桶的数量  就是所有样本在第  个特征上的取值的数量。

  3. 最优分裂点近似算法:

    • 输入:

      • 数据集 ,其中样本 。
      • 属于当前叶结点的样本集的下标集合 。
    • 输出:当前叶结点最佳分裂点。

    • 算法:

      • 对每个特征进行分桶。 假设对第  个特征上的值进行分桶为: 。

        如果第  个特征为连续特征,则要求满足  。

      • 初始化: 。

      • 遍历各维度:

        • 初始化: 

        • 遍历各拆分点,即遍历  :

          • 如果是连续特征,则设叶结点的样本中,第  个特征取值在区间  的样本的下标集合为 ,则:

          • 如果是离散特征,则设叶结点的样本中,第  个特征取值等于  的样本的下标集合为 ,则:

        • 选取最大的  对应的维度和拆分点作为最优拆分点。

  4. 分桶有两种模式:

    • 全局模式:在算法开始时,对每个维度分桶一次,后续的分裂都依赖于该分桶并不再更新。

      • 优点是:只需要计算一次,不需要重复计算。
      • 缺点是:在经过多次分裂之后,叶结点的样本有可能在很多全局桶中是空的。
    • 局部模式:除了在算法开始时进行分桶,每次拆分之后再重新分桶。

      • 优点是:每次分桶都能保证各桶中的样本数量都是均匀的。
      • 缺点是:计算量较大。

    全局模式会构造更多的候选拆分点。而局部模式会更适合构建更深的树。

  5. 分桶时的桶区间间隔大小是个重要的参数。

    区间间隔越小,则桶越多,则划分的越精细,候选的拆分点就越多。


2.3 加权分桶

  1. 假设候选样本的第  维特征,及候选样本的损失函数的二阶偏导数为:

    定义排序函数:

    它刻画的是:第  维小于  的样本的  之和,占总的  之和的比例。

  2. xgboost 的作者提出了一种带权重的桶划分算法。定义候选样本的下标集合为  ,拆分点  定义为:

    其中  表示样本  的第  个特征。即:

    • 最小的拆分点是所有样本第  维的最小值。

    • 最大的拆分点是所有样本第  维的最大值。

    • 中间的拆分点:选取拆分点,使得相邻拆分点的排序函数值小于  (分桶的桶宽)。

      • 其意义为:第 维大于等于 ,小于 的样本的 之和,占总的 之和的比例小于 。
      • 这种拆分点使得每个桶内的以 为权重的样本数量比较均匀,而不是样本个数比较均匀。
  3. 上述拆分的一个理由是:根据损失函数的二阶泰勒展开有:

    对于第  个决策树,它等价于样本  的真实标记为 、权重为 、损失函数为平方损失函数。因此分桶时每个桶的权重为  。


2.4 缺失值

  1. 真实场景中,有很多可能导致产生稀疏。如:数据缺失、某个特征上出现很多 0 项、人工进行 one-hot 编码导致的大量的 0。

    • 理论上,数据缺失和数值0的含义是不同的,数值 0 是有效的。

    • 实际上,数值0的处理方式类似缺失值的处理方式,都视为稀疏特征。

      xgboost 中,数值0的处理方式和缺失值的处理方式是统一的。这只是一个计算上的优化,用于加速对稀疏特征的处理速度。

    • 对于稀疏特征,只需要对有效值进行处理,无效值则采用默认的分裂方向。

      注意:每个结点的默认分裂方向可能不同。

  2. xgboost 算法的实现中,允许对数值0进行不同的处理。可以将数值0视作缺失值,也可以将其视作有效值。

    如果数值0是有真实意义的,则建议将其视作有效值。

  3. 缺失值处理算法:

    • 输入:

      • 数据集 ,其中样本 。
      • 属于当前叶结点的样本的下标集合 。
      • 属于当前叶结点,且第 维特征有效的样本的下标集合 。
    • 输出:当前叶结点最佳分裂点。

    • 算法:

      • 初始化: 。

      • 遍历各维度:

        • 先从左边开始遍历:

          • 初始化: 

          • 遍历各拆分点:沿着第  维,将当前有效的叶结点的样本从小到大排序。

            这相当于所有无效特征值的样本放在最右侧,因此可以保证无效的特征值都在右子树。

            然后用  顺序遍历排序后的样本下标:

        • 再从右边开始遍历:

          • 初始化: 

          • 遍历各拆分点:沿着  维,将当前叶结点的样本从大到小排序。

            这相当于所有无效特征值的样本放在最左侧,因此可以保证无效的特征值都在左子树。

            然后用  逆序遍历排序后的样本下标:

      • 选取最大的  对应的维度和拆分点作为最优拆分点。

  4. 缺失值处理算法中,通过两轮遍历可以确保稀疏值位于左子树和右子树的情形。


2.5 其他优化


2.5.1 正则化

  1. xgboost 在学习过程中使用了如下的正则化策略来缓解过拟合:

    • 通过学习率 来更新模型: 。
    • 类似于随机森林,采取随机属性选择。


2.5.2 计算速度提升

  1. xgboost 在以下方面提出改进来提升计算速度:

    • 预排序pre-sorted
    • cache-aware 预取。
    • Out-of-Core 大数据集。


2.5.2.1 预排序

  1. xgboost 提出column block 数据结构来降低排序时间。

    • 每一个block 代表一个属性,样本在该block 中按照它在该属性的值排好序。
    • 这些block 只需要在程序开始的时候计算一次,后续排序只需要线性扫描这些block 即可。
    • 由于属性之间是独立的,因此在每个维度寻找划分点可以并行计算。
  2. block 可以仅存放样本的索引,而不是样本本身,这样节省了大量的存储空间。

    如:block_1 代表所有样本在feature_1 上的从小到大排序:sample_no1,sample_no2,.... 。

    其中样本编号出现的位置代表了该样本的排序。


2.5.2.2 预取

  1. 由于在column block 中,样本的顺序会被打乱,这会使得从导数数组中获取  时的缓存命中率较低。

    因此xgboost 提出了cache-aware 预取算法,用于提升缓存命中率。

  2. xgboost 会以minibatch 的方式累加数据,然后在后台开启一个线程来加载需要用到的导数  。

    这里有个折中:minibatch 太大,则会引起cache miss ;太小,则并行程度较低。


2.5.2.3 Out-of-Core

  1. xgboost 利用硬盘来处理超过内存容量的大数据集。其中使用了下列技术:

    • 使用block 压缩技术来缓解内存和硬盘的数据交换IO : 数据按列压缩,并且在硬盘到内存的传输过程中被自动解压缩。
    • 数据随机分片到多个硬盘,每个硬盘对应一个预取线程,从而加大\"内存-硬盘\"交换数据的吞吐量。


三、LightGBM

  1. GBT 的缺点:在构建子决策树时为了获取分裂点,需要在所有特征上扫描所有的样本,从而获得最大的信息增益。

    • 当样本的数量很大,或者样本的特征很多时,效率非常低。
    • 同时GBT 也无法使用类似mini batch 方式进行训练。
  2. xgboost 缺点:

    • 每轮迭代都需要遍历整个数据集多次。

      • 如果把整个训练集装载进内存,则限制了训练数据的大小。
      • 如果不把整个训练集装载进内存,则反复读写训练数据会消耗非常大的IO 时间。
    • 空间消耗大。预排序(pre-sorted)需要保存数据的feature 值,还需要保存feature 排序的结果(如排序后的索引,为了后续的快速计算分割点)。因此需要消耗训练数据两倍的内存。

    • 时间消耗大。为了获取分裂点,需要在所有特征上扫描所有的样本,从而获得最大的信息增益,时间消耗大。

    • cache 优化不友好,造成cache miss 。

      • 预排序后,feature 对于梯度的访问是一种随机访问,并且不同feature 访问的顺序不同,无法对cache 进行优化。
      • 在每一层的树生长时,需要随机访问一个行索引到叶子索引的数组,并且不同feature 访问的顺序也不同。
  3. LightGBM 的优点:

    • 更快的训练效率:在达到同样的准确率的情况下,可以达到比GBT 约20倍的训练速度。
    • 低内存使用。
    • 更高的准确率。
    • 支持并行化学习。
    • 可处理大规模数据。

    \"梯度提升决策树(GBDT)与XGBoost、LightGBM_第1张图片\"


3.1 原理

  1. LightGBM 的思想:若减少训练样本的数量,或者减少样本的训练特征数量,则可以大幅度提高训练速度。

  2. LightGBM 提出了两个策略:

    • Gradient-based One-Side Sampling(GOSS): 基于梯度的采样。该方法用于减少训练样本的数量。
    • Exclusive Feature Bundling(EFB): 基于互斥特征的特征捆绑。该方法用于减少样本的特征。


3.1.1 GOSS


3.1.1.1 算法

  1. 减少样本的数量的难点在于:不知道哪些样本应该被保留,哪些样本被丢弃。

    • 传统方法:采用随机丢弃的策略。
    • GOSS 方法:保留梯度较大的样本,梯度较小的样本则随机丢弃。
  2. AdaBoost 中每个样本都有一个权重,该权重指示了样本在接下来的训练过程中的重要性。

    GBDT 中并没有这样的权重。如果能知道每个样本的重要性(即:权重),那么可以保留比较重要的样本,丢弃不那么重要的样本。

    由于GBDT 中,负的梯度作为当前的残差,接下来的训练就是拟合这个残差。因此GOSS 采用样本的梯度作为样本的权重:

    • 如果权重较小,则说明样本的梯度较小,说明该样本已经得到了很好的训练。因此对于权重较小的样本,则可以随机丢弃。
    • 如果权重较大,则说明样本的梯度较大,说明该样本未能充分训练。因此对于权重较大的样本,则需要保留。
  3. GOSS 丢弃了部分样本,因此它改变了训练样本的分布。这会影响到模型的预测准确性。

    为了解决这个问题,GOSS 对小梯度的样本进行了修正:对每个保留下来的、小梯度的样本,其梯度乘以系数  (即放大一个倍数)。

    其中(假设样本总数为  ):

    •  是一个0.0~1.0 之间的数,表示大梯度采样比。

      其意义为:保留梯度的绝对值在 top  的样本作为重要的样本。

    •  是一个0.0~1.0 之间的数,表示小梯度采样比。

      其意义为:从不重要的样本中随机保留  的样本。

    •  是一个0.0~1.0 之间的数,表示不重要的样本的比例。

    •  刻画了:从不重要的样本中,随机保留的样本的比例的倒数。

  4. GOSS 算法:

    • 输入:

      • 训练集 ,其样本数量为
      • 大梯度采样比
      • 小梯度采样比
      • 当前的模型
    • 输出:下一个子树 

    • 算法:

      • 计算:

        • 修正因子
        • 重要的样本数为
        • 随机丢弃的样本数为
        • 每个样本的损失函数的梯度
      • 根据梯度的绝对值大小,将样本按照从大到小排列。

        • 取其中取 的样本作为重要性样本。
        • 在 之外的样本中,随机选取 的样本作为保留样本,剩下的样本被丢弃。
      • 构建新的训练集:重要性样本+随机保留的样本,其中:

        • 个重要性样本,每个样本的权重都为 1。
        • 个随机保留的样本,每个样本的权重都为 。
      • 根据新的训练集及其权重,训练决策树模型  来拟合残差(即:负梯度 )。返回训练好的  。

  5. 由于需要在所有的样本上计算梯度,因此 丢弃样本的比例 ~ 加速比 并不是线性的关系。


3.1.1.2 理论

  1. GBDT 生成新的子决策树  时,对于当前结点  ,考虑是否对它进行分裂。

    假设结点  包含的样本集合为 , 样本维数为  。对于第  维,假设其拆分点为 。

    • 对于分类问题,其拆分增益为信息增益。它刻画的是划分之后混乱程度的降低,也就是纯净程度的提升:

      其中:

      • 表示样本属于结点 的概率, 为结点 上的样本标记的条件熵。
      • 表示左子结点的样本集合; 表示右子结点的样本集合。
      • 表示样本属于结点 的左子结点概率, 为左子结点的样本标记的条件熵。
      • 表示样本属于结点 的右子结点概率, 为右子结点的样本标记的条件熵。

      对于结点  的任意拆分点,由于  都相同,所以:

    • 对于回归问题,其拆分增益为方差增益(variance gain:VG)。它刻画的是划分之后方差的下降;也就是纯净程度的提升:

      其中:

      • 表示属于结点 的样本的标记的方差。
      • 表示左子结点的样本集合; 表示右子结点的样本集合。
      • 表示属于结点 的左子结点的样本的标记的方差。
      • 表示属于结点 的右子结点的样本的标记的方差。

      对于结点  的任意拆分点,由于  都相同,所以:

  2. 对于样本  ,设其标记为  (它是残差,也是负梯度)。

    对于结点  中的样本,设其样本数量为 ,样本的标记均值为  ,其方差为:

    设总样本数量为 , 则  ,则有:

  3. 现在考虑回归问题。

    对于拆分维度  和拆分点 , 令左子结点的样本下标为 ,样本数量为  右子结点的样本下标为 , 样本数量为  。则方差增益:

    考虑到 ,因此有: 。因此则方差增益:

    考虑到总样本大小 是个恒定值,因此可以去掉  。考虑到  并不随着结点  的不同划分而变化因此定义:对于拆分维度  和拆分点 ,方差增益为:

  4. 考虑在 GOSS 中,在划分结点  的过程中,可能会随机丢弃一部分样本,从而  的样本总数下降。因此重新定义方差增益:

  5. GOSS 中:

    • 首先根据样本的梯度的绝对值大小降序排列。
    • 然后选取其中的 top a 的样本作为重要样本,设其集合为 。则剩下的样本集合 保留了 1-a 比例的样本。
    • 在剩下的样本集合 中,随机选取总样本的 比例的样本保留,设其集合为 。
    • 最后将样本 划分到子结点中。

    重新定义方差增益为:

    其中:

    •  表示所有保留的样本的数量。  分别表示左子结点、右子结点保留的样本的数量。

    •  分别表示左子结点、右子结点的被保留的重要样本的集合。

       分别表示左子结点、右子结点的被保留的不重要样本的集合。

    •  用于补偿由于对  的采样带来的梯度之和的偏离。

    由于  的大小可能远远小于 ,因此估计  需要的计算量可能远远小于估计 。

  6. 定义近似误差为:, 定义标准的梯度均值:

    则可以证明:至少以概率  满足:

    其中:

    • ,刻画的是剩余样本集合 中最大梯度的加权值。
    • , 刻画的是未采取GOSS 时,划分的左子结点的梯度均值、右子结点的梯度均值中,较大的那个。

    结论:

    • 当划分比较均衡(即: ) 时,近似误差由不等式的第二项决定。

      此时,随着样本数量的增长,使用GOSS 和原始的算法的误差逼近于 0 。

    • 当  时,GOSS 退化为随机采样。

  7. GOSS 的采样增加了基学习器的多样性,有助于提升集成模型的泛化能力。


3.1.2 EFB

  1. 减少样本特征的传统方法是:使用特征筛选。

    该方式通常是通过 PCA 来实现的,其中使用了一个关键的假设:不同的特征可能包含了重复的信息。这个假设很有可能在实践中无法满足。

  2. LightBGM 的思路是:很多特征都是互斥的,即:这些特征不会同时取得非零的值。如果能将这些互斥的特征捆绑打包成一个特征,那么可以将特征数量大幅度降低。

    现在有两个问题:

    • 如何找到互斥的特征。
    • 如何将互斥的特征捆绑成一个特征。


3.1.2.1 互斥特征发现

  1. 定义打包特征集为这样的特征的集合:集合中的特征两两互斥。

    给定数据集  ,其中样本  。

    如果对每个  ,都不会出现  ,则特征  和特征  互斥。

  2. 可以证明:将每个特征划分到每个打包特征集中使得打包特征集 的数量最小,这个问题是NP 难的。

    为了解决这个问题,LightGBM 采用了一个贪心算法来求解一个近似的最优解。

  3. 将每个特征视为图中的一个顶点。

    遍历每个样本 , 如果特征  之间不互斥(即  ),则:

    • 如果顶点 之间不存在边,则在顶点 之间连接一条边,权重为 1 。
    • 如果顶点 之间存在边,则顶点 之间的边的权重加 1 。

    最终,如果一组顶点之间都不存在边,则它们是相互互斥的,则可以放入到同一个打包特征集 中。

  4. 事实上有些特征之间并不是完全互斥的,而是存在非常少量的冲突。即:存在少量的样本,在这些样本上,这些特征之间同时取得非零的值。

    如果允许这种少量的冲突,则可以将更多的特征放入打包特征集中,这样就可以减少更多的特征。

  5. 理论上可以证明:如果随机污染小部分的样本的特征的值,则对于训练accuracy 的影响是:最多影响  。其中  为污染样本的比例,  为样本数量 。

  6. 互斥特征发现算法:

    • 输入:

      • 数据集 ,其中样本 。
      • 冲突阈值 。
    • 输出:打包特征集 的集合 

    • 算法:

      • 构建图 :

        • 每个特征作为一个顶点。

        • 遍历每个样本  :

          • 遍历所有的特征对  ,如果特征  之间不互斥 (即 )则:

            • 如果顶点 之间不存在边,则在顶点 之间连接一条边,权重为 1 。
            • 如果顶点 之间存在边,则顶点 之间的边的权重加 1 。
      • 对每个顶点,根据 degree (与顶点相连的边的数量)来降序排列。

      • 初始化:

      • 根据顶点的排序遍历顶点:

        设当前顶点为  。

        • 遍历 打包特征集  ,计算顶点  与 打包特征集  的冲突值  。如果 , 则说明顶点  与 打包特征集  不冲突。此时将顶点  添加到 打包特征集  中,退出循环并考虑下一个顶点。

          顶点  与 bundle 特征集  的冲突值有两种计算方法:

          • 计算最大冲突值:即最大的边的权重:
          • 计算所有的冲突值:即所有的边的权重:
        • 如果顶点  未加入到任何一个 打包特征集 中 ,则:创建一个新的 打包特征集 加入到  中,并将顶点  添加到这个新的 打包特征集 中。

      • 返回 

  7. 互斥特征发现算法的算法复杂度为: ,其中  为样本总数, 为样本维数。

    • 复杂度主要集中在构建图 。
    • 该算法只需要在训练之前执行一次。
    • 当特征数量较小时,该算法的复杂度还可以接受。当特征数量非常庞大时,该算法的复杂度太高。
    • 优化的互斥特征发现算法不再构建图 ,而是仅仅计算每个特征的非零值。
  8. 优化的互斥特征发现算法:

    • 输入:

      • 数据集 ,其中样本 。
      • 冲突阈值 。
    • 输出:打包特征集 的集合 

    • 算法:

      • 初始化:所有特征的非零值数量组成的数组 

      • 计算每个特征的非零值 (复杂度 ) :遍历所有的特征  、遍历所有所有的样本  ,获取特征  的非零值  。

      • 根据  对顶点降序排列。

      • 初始化:

      • 根据顶点的排序遍历顶点:

        设当前顶点为  。

        • 遍历 打包特征集 ,计算顶点  与 打包特征集  的冲突值  。如果 , 则说明顶点  与 打包特征集  不冲突。此时将顶点  添加到 打包特征集  中,退出循环并考虑下一个顶点。

          顶点  与 bundle 特征集  的冲突值有两种计算方法:

          • 计算最大冲突值:即最大的非零值:
          • 计算所有的冲突值:即所有的非零值:

          这里简单的将两个特征的非零值之和认为是它们的冲突值。它是实际的冲突值的上界。

        • 如果顶点  未加入到任何一个 打包特征集 中 ,则:创建一个新的 打包特征集 加入到  中,并将顶点  添加到这个新的 打包特征集 中。

      • 返回 


3.1.2.2 互斥特征打包

  1. 互斥特征打包的思想:可以从打包的特征中分离出原始的特征。

    假设特征 a 的取值范围为 [0,10), 特征 b 的取值范围为 [0,20) 。如果a,b 是互斥特征,那么打包的时候:对于特征 b的值,给它一个偏移量,比如 20。

    最终打包特征的取值范围为:[0,40)

    • 如果打包特征的取值在 [0,10), 说明该值来自于特征 a
    • 如果打包特征的取值在[20,40),说明该值来自于特征 b
  2. 基于histogram 的算法需要考虑分桶,但是原理也是类似:将 [0,x] 之间的桶分给特征 a, 将 [x+offset,y] 之间的桶分给特征 b。 其中 offset > 0 。

  3. 互斥特征打包算法:

    • 输入:

      • 数据集 ,其中样本 。
      • 待打包的特征集合 。
    • 输出:打包之后的分桶

    • 算法:

      • 令  记录总的分桶数量,  记录不同的特征的边界。初始化: 。

      • 计算特征边界:遍历所有的特征 :

        • 获取特征 的分桶数量 ,增加到 :
        • 获取特征 的分桶边界:
      • 创建新特征,它有  个桶。

      • 计算分桶点:遍历每个样本  :

        • 计算每个特征  :

          • 如果 ,则:如果 在特征 的第 个分桶中, 那么在打包后的特征中,它位于桶 中。
          • 如果 ,则不考虑。
  4. 互斥特征打包算法的算法复杂度为 ,其中  为样本总数, 为样本维数。

  5. 也可以首先扫描所有的样本,然后建立一张扫描表,该表中存放所有样本所有特征的非零值。

    这样互斥特征打包算法在每个特征上仅仅需要扫描非零的样本即可。这样每个特征的扫描时间从  降低为 , 其中  为该特征上非零的样本数。

    该方法的缺陷是:消耗更多的内存,因为需要在整个训练期间保留这样的一张表。


3.2 优化

  1. LightGBM 优化思路:

    • 单个机器在不牺牲速度的情况下,尽可能多地用上更多的数据。
    • 多机并行时通信的代价尽可能地低,并且在计算上可以做到线性加速。
  2. LightGBM 的优化:

    • 基于histogram 的决策树算法。
    • 带深度限制的leaf-wise 的叶子生长策略。
    • 直方图做差加速。
    • 直接支持类别(categorical) 特征。
    • 并行优化。


3.2.1 histogram 算法

  1. 基本思想:先把连续的浮点特征值离散化成  个整数,同时构造一个宽度为  的直方图。

    在遍历数据时:

    • 根据离散化后的值作为索引在直方图中累积统计量。
    • 当遍历一次数据后,直方图累积了需要的统计量。
    • 然后根据直方图的离散值,遍历寻找最优的分割点。
  2. 优点:节省空间。假设有  个样本,每个样本有  个特征,每个特征的值都是 32 位浮点数。

    • 对于每一列特征,都需要一个额外的排好序的索引(32位的存储空间)。则pre-sorted 算法需要消耗 字节内存。
    • 如果基于 histogram 算法,仅需要存储feature bin value(离散化后的数值),不需要原始的feature value,也不用排序。而bin valueunit8_t 即可,因此histogram 算法消耗 字节内存,是预排序算法的 。
  3. 缺点:不能找到很精确的分割点,训练误差没有pre-sorted 好。但从实验结果来看, histogram 算法在测试集的误差和 pre-sorted 算法差异并不是很大,甚至有时候效果更好。

    实际上可能决策树对于分割点的精确程度并不太敏感,而且较“粗”的分割点也自带正则化的效果。

  4. 采用histogram 算法之后,寻找拆分点的算法复杂度为:

    • 构建histogram: 。
    • 寻找拆分点: ,其中 为分桶的数量。
  5. 与其他算法相比:

    • scikit-learn GBDTgbm in R 使用的是基于pre-sorted 的算法。
    • pGBRT 使用的是基于histogram 的算法。
    • xgboost 既提供了基于pre-sorted 的算法,又提供了基于histogram 的算法。
    • lightgbm 使用的是基于histogram 的算法。


3.2.2 leaf-wise 生长策略

  1. 大部分梯度提升树算法采用level-wise 的叶子生长策略:

\"梯度提升决策树(GBDT)与XGBoost、LightGBM_第2张图片\"

lightgbm 采用leaf-wise 的叶子生长策略:

  1. level-wise :

    • 优点:过一遍数据可以同时分裂同一层的叶子,容易进行多线程优化,也好控制模型复杂度,不容易过拟合。
    • 缺点:实际上level-wise是一种低效算法 。它不加区分的对待同一层的叶子,带来了很多没必要的开销:实际上很多叶子的分裂增益较低,没必要进行搜索和分裂。
  2. leaf-wise:是一种更为高效的策略。每次从当前所有叶子中,找到分裂增益最大的一个叶子来分裂。

    • 优点:同level-wise 相比,在分裂次数相同的情况下,leaf-wise 可以降低更多的误差,得到更好的精度。

    • 缺点:可能会长出比较深的决策树,产生过拟合。

      因此 lightgbm 在 leaf-wise 之上增加了一个最大深度限制,在保证高效率的同时防止过拟合。


3.2.3 直方图做差加速

  1. 通常构造直方图,需要遍历该叶子上的所有数据。但是事实上一个叶子的直方图可以由它的父亲结点的直方图与它兄弟的直方图做差得到。

    LightGBM 在构造一个叶子的直方图后,可以用非常微小的代价得到它兄弟叶子的直方图,在速度上可以提升一倍。


3.2.4 直接支持 categorical 特征

  1. 通常对categorical 特征进行one-hot 编码,但是这个做法在决策树学习中并不好:对于取值集合较多的categorical feature,学习到的树模型会非常不平衡;树的深度需要很深才能达到较高的准确率。

    LightGBM 直接支持categorical 特征。(因为基于直方图 所有天然的 每个值就是一个分桶)


3.2.5 并行优化


3.2.5.1 特征并行

  1. 传统的特征并行算法主要体现在决策树中的最优拆分过程中的并行化处理:

    • 沿特征维度垂直划分数据集,使得不同机器具有不同的特征集合。(多机子)
    • 在本地数据集中寻找最佳划分点:(划分特征,划分阈值)
    • 将所有机器上的最佳划分点整合,得到全局的最佳划分点。
    • 利用全局最佳划分点对数据集进行划分,完成本次最优拆分过程。
  2. LightGBM 在特征并行上进行了优化,流程如下:

    • 每个机器都有全部样本的全部特征集合。

    • 每个机器在本地数据集中寻找最佳划分点:(划分特征,划分阈值) 。

      但是不同的机器在不同的特征集上运行。

    • 将所有机器上的最佳划分点整合,得到全局的最佳划分点。

    • 利用全局最佳划分点对数据集进行划分,完成本次最优拆分过程。

  3. LightGBM 不再沿特征维度垂直划分数据集,而是每个机器都有全部样本的全部特征集合。这样就节省了数据划分的通信开销。

    • 传统的特征并行算法需要在每次最优拆分中,对数据划分并分配到每台机器上。
    • LightGBM 特征并行算法只需要在程序开始时,将全量样本拷贝到每个机器上。

    二者交换的数据相差不大,但是后者花费的时间更少。

  4. LightGBM 的特征并行算法在数据量很大时,仍然存在计算上的局限。因此建议在数据量很大时采用数据并行。


3.2.5.2 数据并行

  1. 传统的数据并行算法主要体现在决策树的学习过程中的并行化处理:

    • 水平划分数据集,使得不同机器具有不同的样本集合。
    • 以本地数据集构建本地直方图
    • 将本地直方图整合为全局直方图
    • 在全局直方图中寻找最佳划分点。
  2. LightGBM 在数据并行上进行了优化,流程如下:

    • LightGBM 使用Reduce scatter 的方式对不同机器上的不同特征进行整合。每个机器从本地整合直方图中寻找最佳划分点,并同步到全局最佳划分点中。
    • LightGBM 通过直方图做差分加速。

20210113

案例

GBDT算法原理以及实例理解_Freemanzxp-CSDN博客_gbdt算法

gbdt详解_kyle1314608的博客-CSDN博客_gbdt

重点

gbdt 的算法的流程?
gbdt 如何选择特征 ?
gbdt 如何构建特征 ?
gbdt 如何用于分类?
gbdt 通过什么方式减少误差 ?
gbdt的效果相比于传统的LR,SVM效果为什么好一些 ?
gbdt 如何加速训练?
gbdt的参数有哪些,如何调参 ?
gbdt 实战当中遇到的一些问题 ?
gbdt的优缺点 ?

机器学习算法GBDT - Alexander - 博客园

今天是周末,之前给自己定了一个小目标:每周都要写一篇博客,不管是关于什么内容的都行,关键在于总结和思考,今天我选的主题是梯度提升树的一些方法,主要从这些方法的原理以及实现过程入手讲解这个问题。

本文按照这些方法出现的先后顺序叙述。

GBDT

梯度提升树实在提升树的基础上发展而来的一种使用范围更广的方法,当处理回归问题时,提升树可以看作是梯度提升树的特例(分类问题时是不是特例?)。 因为提升树在构建树每一步的过程中都是去拟合上一步获得模型在训练集上的残差。后面我们将会介绍,这个残存正好是损失函数的梯度,对应于GBDT每一步要拟合的对象。

主要思想

在目标函数所在的函数空间中做梯度下降,即把待求的函数模型当作参数,每一步要拟合目标函数关于上一步获得的模型的梯度,从而使得参数朝着最小化目标函数的方向更新。

一些特性

  1. 每次迭代获得的决策树模型都要乘以一个缩减系数,从而降低每棵树的作用,提升可学习空间。
  2. 每次迭代拟合的是一阶梯度。

XGBoost

XGBoost 是GBDT的一个变种,最大的区别是xgboost通过对目标函数做二阶泰勒展开,从而求出下一步要拟合的树的叶子节点权重(需要先确定树的结构),从而根据损失函数求出每一次分裂节点的损失减小的大小,从而根据分裂损失选择合适的属性进行分裂。

这个利用二阶展开的到的损失函数公式与分裂节点的过程是息息相关的。先遍历所有节点的所有属性进行分裂,假设选择了这个a属性的一个取值作为分裂节点,根据泰勒展开求得的公式可计算该树结构各个叶子节点的权重,从而计算损失减小的程度,从而综合各个属性选择使得损失减小最大的那个特征作为当前节点的分裂属性。依次类推,直到满足终止条件。

一些特性

  1. 除了类似于GBDT的缩减系数外,xgboost对每棵树的叶子节点个数和权重都做了惩罚,避免过拟合
  2. 类似于随机森林,XGBoost在构建树的过程中,对每棵树随机选择一些属性作为分裂属性。
  3. 分裂算法有两种,一种是精确的分裂,一种是近似分裂算法,精确分裂算法就是把每个属性的每个取值都当作一次阈值进行遍历,采用的决策树是CART。近似分裂算法是对每个属性的所有取值进行分桶,按照各个桶之间的值作为划分阈值,xgboost提出了一个特殊的分桶策略,一般的分桶策略是每个样本的权重都是相同 的,但是xgboost使每个样本的权重为损失函数在该样本点的二阶导(泰勒展开不应该是损失函数关于模型的展开吗?为什么会有在该样本点的二阶导这种说法? 因为模型是对所有样本点都通用的,把该样本输入到二阶导公式中就可以得到了)。

  4. xgboost添加了对稀疏数据的支持,在计算分裂收益的时候只利用没有missing值的那些样本,但是在推理的时候,也就是在确定了树的结构,需要将样本映射到叶子节点的时候,需要对含有缺失值的样本进行划分,xgboost分别假设该样本属于左子树和右子树,比较两者分裂增益,选择增益较大的那一边作为该样本的分裂方向。

  5. xgboost在实现上支持并行化,这里的并行化并不是类似于rf那样树与树之间的并行化,xgboost同boosting方法一样,在树的粒度上是串行的,但是在构建树的过程中,也就是在分裂节点的时候支持并行化,比如同时计算多个属性的多个取值作为分裂特征及其值,然后选择收益最大的特征及其取值对节点分裂。

  6. xgboost 在实现时,需要将所有数据导入内存,做一次pre-sort(exact algorithm),这样在选择分裂节点时比较迅速。

缺点

  1. level-wise 建树方式对当前层的所有叶子节点一视同仁,有些叶子节点分裂收益非常小,对结果没影响,但还是要分裂,加重了计算代价。
  2. 预排序方法空间消耗比较大,不仅要保存特征值,也要保存特征的排序索引,同时时间消耗也大,在遍历每个分裂点时都要计算分裂增益(不过这个缺点可以被近似算法所克服)

lightGBM

Features · microsoft/LightGBM Wiki · GitHub
关于lightGBM的论文目前并没有放出来,只是从网上一些信息得出以下的一些与xgboost不同的地方:

  • 3、max_depth[默认6]

    表示树的最大深度。也是用来避免过拟合的。当它的值越大时,模型会学到更具体更局部的样本,可能会导致过拟合。需要使用CV函数来进行调优。 典型值:3-10

    4、max_leaf_nodes

    表示树上最大的节点或叶子的数量。可以替代max_depth的作用。因为如果生成的是二叉树,一个深度为n的树最多生成n2个叶子。  

    1. xgboost采用的是level-wise的分裂策略,而lightGBM采用了leaf-wise的策略,区别是xgboost对每一层所有节点做无差别分裂,可能有些节点的增益非常小,对结果影响不大,但是xgboost也进行了分裂,带来了务必要的开销。 leaft-wise的做法是在当前所有叶子节点中选择分裂收益最大的节点进行分裂,如此递归进行,很明显leaf-wise这种做法容易过拟合,因为容易陷入比较高的深度中,因此需要对最大深度做限制,从而避免过拟合。

    2. lightgbm使用了基于histogram的决策树算法,这一点不同与xgboost中的 exact 算法,histogram算法在内存和计算代价上都有不小优势。
      -. 内存上优势:很明显,直方图算法的内存消耗为(#data* #features * 1Bytes)(因为对特征分桶后只需保存特征离散化之后的值),而xgboost的exact算法内存消耗为:(2 * #data * #features* 4Bytes),因为xgboost既要保存原始feature的值,也要保存这个值的顺序索引,这些值需要32位的浮点数来保存。
      -. 计算上的优势,预排序算法在选择好分裂特征计算分裂收益时需要遍历所有样本的特征值,时间为(#data),而直方图算法只需要遍历桶就行了,时间为(#bin)

    3. 直方图做差加速
      -. 一个子节点的直方图可以通过父节点的直方图减去兄弟节点的直方图得到,从而加速计算。

    4. lightgbm支持直接输入categorical 的feature
      -. 在对离散特征分裂时,每个取值都当作一个桶,分裂时的增益算的是”是否属于某个category“的gain。类似于one-hot编码。

    5. 但实际上xgboost的近似直方图算法也类似于lightgbm这里的直方图算法,为什么xgboost的近似算法比lightgbm还是慢很多呢?
      -. xgboost在每一层都动态构建直方图, 因为xgboost的直方图算法不是针对某个特定的feature,而是所有feature共享一个直方图(每个样本的权重是二阶导),所以每一层都要重新构建直方图,而lightgbm中对每个特征都有一个直方图,所以构建一次直方图就够了。
      -. lightgbm做了cache优化?

    6. lightgbm哪些方面做了并行?
      -. feature parallel
      一般的feature parallel就是对数据做垂直分割(partiion data vertically,就是对属性分割),然后将分割后的数据分散到各个workder上,各个workers计算其拥有的数据的best splits point, 之后再汇总得到全局最优分割点。但是lightgbm说这种方法通讯开销比较大,lightgbm的做法是每个worker都拥有所有数据,再分割?(没懂,既然每个worker都有所有数据了,再汇总有什么意义?这个并行体现在哪里??)
      -. data parallel
      传统的data parallel是将对数据集进行划分,也叫 平行分割(partion data horizontally), 分散到各个workers上之后,workers对得到的数据做直方图,汇总各个workers的直方图得到全局的直方图。 lightgbm也claim这个操作的通讯开销较大,lightgbm的做法是使用”Reduce Scatter“机制,不汇总所有直方图,只汇总不同worker的不同feature的直方图(原理?),在这个汇总的直方图上做split,最后同步。  

    7.   GBDT算法原理以及实例理解_Freemanzxp-CSDN博客_gbdt算法  gbdt原理和案例

    8. xgboost重要参数1_kyle1314608的博客-CSDN博客 xgboost 参数1

    9.   xgboost重要参数2为主但不全要参照1_kyle1314608的博客-CSDN博客   xgboost 参数2

    • 3、max_depth[默认6]

      表示树的最大深度。也是用来避免过拟合的。当它的值越大时,模型会学到更具体更局部的样本,可能会导致过拟合。需要使用CV函数来进行调优。 典型值:3-10

      4、max_leaf_nodes

      表示树上最大的节点或叶子的数量。可以替代max_depth的作用。因为如果生成的是二叉树,一个深度为n的树最多生成n2个叶子。

    • 二者可以任选其一

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号