提升树

一、提升树

  1. 提升树boostring tree是以决策树为基本学习器的提升方法。它被认为是统计学习中性能最好的方法之一。

  2. 对分类问题,提升树中的决策树是二叉决策树;对回归问题,提升树中的决策树是二叉回归树。

  3. 提升树模型可以表示为决策树为基本学习器的加法模型:

    其中 :

    • 表示第 个决策树。
    • 为第 个决策树的参数。
    • 为决策树的数量。
  4. 提升树算法采用前向分步算法。

    • 首先确定初始提升树

    • 步模型为: 。其中 为待求的第 个决策树。

    • 通过经验风险极小化确定第 个决策树的参数

      这里没有引入正则化,而在xgboost 中会引入正则化。

  5. 不同问题的提升树学习算法主要区别在于使用的损失函数不同(设预测值为 ,真实值为 ):

    • 回归问题:通常使用平方误差损失函数:
    • 分类问题:通常使用指数损失函数:

1.1 算法

  1. 给定训练数据集 ,其中 为输入空间, 为输出空间。

    如果将输入空间 划分为 个互不相交的区域 ,并且在每个区域上确定输出的常量 , 则决策树可以表示为:

    其中:

    • 参数 表示决策树的划分区域和各区域上的输出。
    • 是决策树的复杂度,即叶结点个数。
  2. 回归问题中,提升树采用平方误差损失函数。此时:

    其中 为当前模型拟合数据的残差。

    所以对回归问题的提升树算法,第 个决策树 只需要简单拟合当前模型的残差。

  3. 不仅是回归提升树算法,其它的boosting 回归算法也是拟合当前模型的残差。

  4. 回归提升树算法:

    • 输入:训练数据集

    • 输出:提升树

    • 算法步骤:

      • 初始化

      • 对于

        • 计算残差: 。构建训练残差 :
        • 通过学习一个回归树来拟合残差 ,得到
        • 更新
      • 得到回归问题提升树:

1.2 GBT

  1. 提升树中,当损失函数是平方损失函数和指数损失函数时,每一步优化都很简单。因为平方损失函数和指数损失函数的求导非常简单。

    当损失函数是一般函数时,往往每一步优化不是很容易。针对这个问题,Freidman提出了梯度提升算法。

  2. 梯度提升树GBT 是利用最速下降法的近似方法。其关键是利用损失函数的负梯度在当前模型的值作为残差的近似值,从而拟合一个回归树。

    根据:

    则有:

    要使得损失函数降低,一个可选的方案是:

    • 对于平方损失函数,它就是通常意义上的残差。
    • 对于一般损失函数,它就是残差的近似 。
  3. 梯度提升树用于分类模型时,是梯度提升决策树GBDT;用于回归模型时,是梯度提升回归树GBRT

  4. 梯度提升回归树算法GBRT

    • 输入:

      • 训练数据集
      • 损失函数
    • 输出:回归树

    • 算法步骤:

      • 初始化:

        它是一颗只有根结点的树,根结点的输出值为:使得损失函数最小的值。

      • 对于

        • 对于, 计算:

        • 拟合一棵回归树,得到第 棵树的叶结点区域

        • 计算每个区域 上的输出值:

        • 更新

      • 最终得到回归树:

  5. 梯度提升决策树算法GBDTGBRT类似,主要区别是GBDT的损失函数与GBRT的损失函数不同。

1.3 正则化

  1. 在工程应用中,通常利用下列公式来更新模型:

    其中 称作学习率。

    学习率是正则化的一部分,它可以降低模型更新的速度(需要更多的迭代)。

    • 经验表明:一个小的学习率 () 可以显著提高模型的泛化能力(相比较于 ) 。
    • 如果学习率较大会导致预测性能出现较大波动。
  2. Freidmanbagging 策略受到启发,采用随机梯度提升来修改了原始的梯度提升树算法。

    • 每一轮迭代中,新的决策树拟合的是原始训练集的一个子集(而并不是原始训练集)的残差。

      这个子集是通过对原始训练集的无放回随机采样而来。

    • 子集的占比 是一个超参数,并且在每轮迭代中保持不变。

      • 如果 ,则与原始的梯度提升树算法相同。
      • 较小的 会引入随机性,有助于改善过拟合,因此可以视作一定程度上的正则化。
      • 工程经验表明, 会带来一个较好的结果。
    • 这种方法除了改善过拟合之外,另一个好处是:未被采样的另一部分子集可以用来计算包外估计误差。

      因此可以避免额外给出一个独立的验证集。

  3. 梯度提升树会限制每棵树的叶子结点包含的样本数量至少包含 个样本,其中 为超参数。在训练过程中,一旦划分结点会导致子结点的样本数少于 ,则终止划分。

    这也是一种正则化策略,它会改善叶结点的预测方差。

1.4 RF vs GBT

  1. 从模型框架的角度来看:

    • 梯度提升树GBTboosting 模型。
    • 随机森林RFbagging 模型。
  2. 从偏差分解的角度来看:

    • 梯度提升树GBT 采用弱分类器(高偏差,低方差)。梯度提升树综合了这些弱分类器,在每一步的过程中降低了偏差,但是保持低方差。
    • 随机森林RF 采用完全成长的子决策树(低偏差,高方差)。随机森林要求这些子树之间尽可能无关,从而综合之后能降低方差,但是保持低偏差。
  3. 如果在梯度提升树和随机森林之间二选一,几乎总是建议选择梯度提升树。

    • 随机森林的优点:天然的支持并行计算,因为每个子树都是独立的计算。

    • 梯度提升树的优点:

      • 梯度提升树采用更少的子树来获得更好的精度。

        因为在每轮迭代中,梯度提升树会完全接受现有树(投票权为1)。而随机森林中每棵树都是同等重要的(无论它们表现的好坏),它们的投票权都是 ,因此不是完全接受的。

      • 梯度提升树也可以修改从而实现并行化。

      • 梯度提升树有一个明确的数学模型。因此任何能写出梯度的任务,都可以应用梯度提升树(比如 ranking 任务)。而随机森林并没有一个明确的数学模型。

二、xgboost

  1. xgboost 也是使用与提升树相同的前向分步算法。其区别在于:xgboost 通过结构风险极小化来确定下一个决策树的参数

    其中:

    • 为第 个决策树的正则化项。这是xgboostGBT的一个重要区别。
    • 为目标函数。
  2. 定义:

    即:

    • 的一阶导数。
    • 的二阶导数。

    对目标函数 执行二阶泰勒展开:

    提升树模型只采用一阶泰勒展开。这也是xgboostGBT的另一个重要区别。

  3. 对一个决策树 ,假设不考虑复杂的推导过程,仅考虑决策树的效果:

    • 给定输入 ,该决策树将该输入经过不断的划分,最终划分到某个叶结点上去。
    • 给定一个叶结点,该叶结点有一个输出值。

    因此将决策树拆分成结构部分 ,和叶结点权重部分 ,其中 为叶结点的数量。

    • 结构部分 的输出是叶结点编号 。它的作用是将输入 映射到编号为 的叶结点。
    • 叶结点权重部分就是每个叶结点的值。它的作用是输出编号为 的叶结点的值

    因此决策树改写为:

2.1 结构分

  1. 定义一个决策树的复杂度为:

    其中: 为叶结点的个数; 为每个叶结点的输出值; 为系数,控制这两个部分的比重。

    • 叶结点越多,则决策树越复杂。
    • 每个叶结点输出值的绝对值越大,则决策树越复杂。

    该复杂度是一个经验公式。事实上还有很多其他的定义复杂度的方式,只是这个公式效果还不错。

  2. 将树的拆分、树的复杂度代入 的二阶泰勒展开,有:

    对于每个样本 ,它必然被划分到树 的某个叶结点。定义划分到叶结点 的样本的集合为: 。则有:

  3. 定义 :

    • 刻画了隶属于叶结点 的那些样本的一阶偏导数之和。
    • 刻画了隶属于叶结点 的那些样本的二阶偏导数之和。

    偏导数是损失函数 关于当前模型的输出 的偏导数。

    则上式化简为:

    假设 与 与 无关,对 求导等于0,则得到:

    忽略常数项,于是定义目标函数为:

  4. 在推导过程中假设 与 与 无关,这其实假设已知树的结构。

    事实上 是与 相关的,甚至与树的结构相关,因此定义 为结构分。

    结构分刻画了:当已知树的结构时目标函数的最小值。

2.2 分解结点

  1. 现在的问题是:如何得到最佳的树的结构,从而使得目标函数全局最小。

2.2.1 贪心算法

  1. 第一种方法是对现有的叶结点加入一个分裂,然后考虑分裂之后目标函数降低多少。

    • 如果目标函数下降,则说明可以分裂。
    • 如果目标函数不下降,则说明该叶结点不宜分裂。
  2. 对于一个叶结点,假如给定其分裂点,定义划分到左子结点的样本的集合为: ;定义划分到右子结点的样本的集合为: 。则有:

  3. 定义叶结点的分裂增益为:

    其中:

    • 表示:该叶结点的左子树的结构分。
    • 表示:该叶结点的右子树的结构分。
    • 表示:如果不分裂,则该叶结点本身的结构分。
    • 表示:因为分裂导致叶结点数量增大1,从而导致增益的下降。

    每次分裂只一个叶结点,因此其它叶结点不会发生变化。因此:

    • ,则该叶结点应该分裂。
    • ,则该叶结点不宜分裂。
  4. 现在的问题是:不知道分裂点。对于每个叶结点,存在很多个分裂点,且可能很多分裂点都能带来增益。

    解决的办法是:对于叶结点中的所有可能的分裂点进行一次扫描。然后计算每个分裂点的增益,选取增益最大的分裂点作为本叶结点的最优分裂点。

  5. 最优分裂点贪心算法:

    • 输入:

      • 数据集 ,其中样本
      • 属于当前叶结点的样本集的下标集合
    • 输出:当前叶结点最佳分裂点。

    • 算法:

      • 初始化:

      • 遍历各维度:

        • 初始化:

        • 遍历各拆分点:沿着第 维 :

          • 如果第 维特征为连续值,则将当前叶结点中的样本从小到大排序。然后用 顺序遍历排序后的样本下标:

          • 如果第 维特征为离散值 ,设当前叶结点中第 维取值 样本的下标集合为 ,则遍历

      • 选取最大的 对应的维度和拆分点作为最优拆分点。

  6. 分裂点贪心算法尝试所有特征和所有分裂位置,从而求得最优分裂点。

    当样本太大且特征为连续值时,这种暴力做法的计算量太大。

2.2.2 近似算法

  1. 近似算法寻找最优分裂点时不会枚举所有的特征值,而是对特征值进行聚合统计,然后形成若干个桶。

    然后仅仅将桶边界上的特征的值作为分裂点的候选,从而获取计算性能的提升。

  2. 假设数据集 ,样本

    对第 个特征进行分桶:

    • 如果第 个特征为连续特征,则执行百分位分桶,得到分桶的区间为: ,其中

      分桶的数量、分桶的区间都是超参数,需要仔细挑选。

    • 如果第 个特征为离散特征,则执行按离散值分桶,得到的分桶为: ,其中 为第 个特征的所有可能的离散值。

      分桶的数量 就是所有样本在第 个特征上的取值的数量。

  3. 最优分裂点近似算法:

    • 输入:

      • 数据集 ,其中样本
      • 属于当前叶结点的样本集的下标集合
    • 输出:当前叶结点最佳分裂点。

    • 算法:

      • 对每个特征进行分桶。 假设对第 个特征上的值进行分桶为:

        如果第 个特征为连续特征,则要求满足

      • 初始化:

      • 遍历各维度:

        • 初始化:

        • 遍历各拆分点,即遍历

          • 如果是连续特征,则设叶结点的样本中,第 个特征取值在区间 的样本的下标集合为 ,则:

          • 如果是离散特征,则设叶结点的样本中,第 个特征取值等于 的样本的下标集合为 ,则:

        • 选取最大的 对应的维度和拆分点作为最优拆分点。

  4. 分桶有两种模式:

    • 全局模式:在算法开始时,对每个维度分桶一次,后续的分裂都依赖于该分桶并不再更新。

      • 优点是:只需要计算一次,不需要重复计算。
      • 缺点是:在经过多次分裂之后,叶结点的样本有可能在很多全局桶中是空的。
    • 局部模式:除了在算法开始时进行分桶,每次拆分之后再重新分桶。

      • 优点是:每次分桶都能保证各桶中的样本数量都是均匀的。
      • 缺点是:计算量较大。

    全局模式会构造更多的候选拆分点。而局部模式会更适合构建更深的树。

  5. 分桶时的桶区间间隔大小是个重要的参数。

    区间间隔越小,则桶越多,则划分的越精细,候选的拆分点就越多。

2.3 加权分桶

  1. 假设候选样本的第 维特征,及候选样本的损失函数的二阶偏导数为:

    定义排序函数:

    它刻画的是:第 维小于 的样本的 之和,占总的 之和的比例。

  2. xgboost 的作者提出了一种带权重的桶划分算法。定义候选样本的下标集合为 ,拆分点 定义为:

    其中 表示样本 的第 个特征。即:

    • 最小的拆分点是所有样本第 维的最小值。

    • 最大的拆分点是所有样本第 维的最大值。

    • 中间的拆分点:选取拆分点,使得相邻拆分点的排序函数值小于 (分桶的桶宽)。

      • 其意义为:第 维大于等于 ,小于 的样本的 之和,占总的 之和的比例小于
      • 这种拆分点使得每个桶内的以 为权重的样本数量比较均匀,而不是样本个数比较均匀。
  3. 上述拆分的一个理由是:根据损失函数的二阶泰勒展开有:

    对于第 个决策树,它等价于样本 的真实标记为 、权重为 、损失函数为平方损失函数。因此分桶时每个桶的权重为

2.4 缺失值

  1. 真实场景中,有很多可能导致产生稀疏。如:数据缺失、某个特征上出现很多 0 项、人工进行 one-hot 编码导致的大量的 0。

    • 理论上,数据缺失和数值0的含义是不同的,数值 0 是有效的。

    • 实际上,数值0的处理方式类似缺失值的处理方式,都视为稀疏特征。

      xgboost 中,数值0的处理方式和缺失值的处理方式是统一的。这只是一个计算上的优化,用于加速对稀疏特征的处理速度。

    • 对于稀疏特征,只需要对有效值进行处理,无效值则采用默认的分裂方向。

      注意:每个结点的默认分裂方向可能不同。

  2. xgboost 算法的实现中,允许对数值0进行不同的处理。可以将数值0视作缺失值,也可以将其视作有效值。

    如果数值0是有真实意义的,则建议将其视作有效值。

  3. 缺失值处理算法:

    • 输入:

      • 数据集 ,其中样本
      • 属于当前叶结点的样本的下标集合
      • 属于当前叶结点,且第 维特征有效的样本的下标集合
    • 输出:当前叶结点最佳分裂点。

    • 算法:

      • 初始化:

      • 遍历各维度:

        • 先从左边开始遍历:

          • 初始化:

          • 遍历各拆分点:沿着第 维,将当前有效的叶结点的样本从小到大排序。

            这相当于所有无效特征值的样本放在最右侧,因此可以保证无效的特征值都在右子树。

            然后用 顺序遍历排序后的样本下标:

        • 再从右边开始遍历:

          • 初始化:

          • 遍历各拆分点:沿着 维,将当前叶结点的样本从大到小排序。

            这相当于所有无效特征值的样本放在最左侧,因此可以保证无效的特征值都在左子树。

            然后用 逆序遍历排序后的样本下标:

      • 选取最大的 对应的维度和拆分点作为最优拆分点。

  4. 缺失值处理算法中,通过两轮遍历可以确保稀疏值位于左子树和右子树的情形。

2.5 其他优化

2.5.1 正则化

  1. xgboost 在学习过程中使用了如下的正则化策略来缓解过拟合:

    • 通过学习率 来更新模型:
    • 类似于随机森林,采取随机属性选择。

2.5.2 计算速度提升

  1. xgboost 在以下方面提出改进来提升计算速度:

    • 预排序pre-sorted
    • cache-aware 预取。
    • Out-of-Core 大数据集。
2.5.2.1 预排序
  1. xgboost 提出column block 数据结构来降低排序时间。

    • 每一个block 代表一个属性,样本在该block 中按照它在该属性的值排好序。
    • 这些block 只需要在程序开始的时候计算一次,后续排序只需要线性扫描这些block 即可。
    • 由于属性之间是独立的,因此在每个维度寻找划分点可以并行计算。
  2. block 可以仅存放样本的索引,而不是样本本身,这样节省了大量的存储空间。

    如:block_1 代表所有样本在feature_1 上的从小到大排序:sample_no1,sample_no2,....

    其中样本编号出现的位置代表了该样本的排序。

2.5.2.2 预取
  1. 由于在column block 中,样本的顺序会被打乱,这会使得从导数数组中获取 时的缓存命中率较低。

    因此xgboost 提出了cache-aware 预取算法,用于提升缓存命中率。

  2. xgboost 会以minibatch 的方式累加数据,然后在后台开启一个线程来加载需要用到的导数

    这里有个折中:minibatch 太大,则会引起cache miss ;太小,则并行程度较低。

2.5.2.3 Out-of-Core
  1. xgboost 利用硬盘来处理超过内存容量的大数据集。其中使用了下列技术:

    • 使用block 压缩技术来缓解内存和硬盘的数据交换IO : 数据按列压缩,并且在硬盘到内存的传输过程中被自动解压缩。
    • 数据随机分片到多个硬盘,每个硬盘对应一个预取线程,从而加大"内存-硬盘"交换数据的吞吐量。

三、LightGBM

  1. GBT 的缺点:在构建子决策树时为了获取分裂点,需要在所有特征上扫描所有的样本,从而获得最大的信息增益。

    • 当样本的数量很大,或者样本的特征很多时,效率非常低。
    • 同时GBT 也无法使用类似mini batch 方式进行训练。
  2. xgboost 缺点:

    • 每轮迭代都需要遍历整个数据集多次。

      • 如果把整个训练集装载进内存,则限制了训练数据的大小。
      • 如果不把整个训练集装载进内存,则反复读写训练数据会消耗非常大的IO 时间。
    • 空间消耗大。预排序(pre-sorted)需要保存数据的feature 值,还需要保存feature 排序的结果(如排序后的索引,为了后续的快速计算分割点)。因此需要消耗训练数据两倍的内存。

    • 时间消耗大。为了获取分裂点,需要在所有特征上扫描所有的样本,从而获得最大的信息增益,时间消耗大。

    • cache 优化不友好,造成cache miss

      • 预排序后,feature 对于梯度的访问是一种随机访问,并且不同feature 访问的顺序不同,无法对cache 进行优化。
      • 在每一层的树生长时,需要随机访问一个行索引到叶子索引的数组,并且不同feature 访问的顺序也不同。
  3. LightGBM 的优点:

    • 更快的训练效率:在达到同样的准确率的情况下,可以达到比GBT 约20倍的训练速度。
    • 低内存使用。
    • 更高的准确率。
    • 支持并行化学习。
    • 可处理大规模数据。

    good

3.1 原理

  1. LightGBM 的思想:若减少训练样本的数量,或者减少样本的训练特征数量,则可以大幅度提高训练速度。

  2. LightGBM 提出了两个策略:

    • Gradient-based One-Side Sampling(GOSS): 基于梯度的采样。该方法用于减少训练样本的数量。
    • Exclusive Feature Bundling(EFB): 基于互斥特征的特征捆绑。该方法用于减少样本的特征。

3.1.1 GOSS

3.1.1.1 算法
  1. 减少样本的数量的难点在于:不知道哪些样本应该被保留,哪些样本被丢弃。

    • 传统方法:采用随机丢弃的策略。
    • GOSS 方法:保留梯度较大的样本,梯度较小的样本则随机丢弃。
  2. AdaBoost 中每个样本都有一个权重,该权重指示了样本在接下来的训练过程中的重要性。

    GBDT 中并没有这样的权重。如果能知道每个样本的重要性(即:权重),那么可以保留比较重要的样本,丢弃不那么重要的样本。

    由于GBDT 中,负的梯度作为当前的残差,接下来的训练就是拟合这个残差。因此GOSS 采用样本的梯度作为样本的权重:

    • 如果权重较小,则说明样本的梯度较小,说明该样本已经得到了很好的训练。因此对于权重较小的样本,则可以随机丢弃。
    • 如果权重较大,则说明样本的梯度较大,说明该样本未能充分训练。因此对于权重较大的样本,则需要保留。
  3. GOSS 丢弃了部分样本,因此它改变了训练样本的分布。这会影响到模型的预测准确性。

    为了解决这个问题,GOSS 对小梯度的样本进行了修正:对每个保留下来的、小梯度的样本,其梯度乘以系数 (即放大一个倍数)。

    其中(假设样本总数为 ):

    • 是一个0.0~1.0 之间的数,表示大梯度采样比。

      其意义为:保留梯度的绝对值在 top 的样本作为重要的样本。

    • 是一个0.0~1.0 之间的数,表示小梯度采样比。

      其意义为:从不重要的样本中随机保留 的样本。

    • 是一个0.0~1.0 之间的数,表示不重要的样本的比例。

    • 刻画了:从不重要的样本中,随机保留的样本的比例的倒数。

  4. GOSS 算法:

    • 输入:

      • 训练集 ,其样本数量为
      • 大梯度采样比
      • 小梯度采样比
      • 当前的模型
    • 输出:下一个子树

    • 算法:

      • 计算:

        • 修正因子
        • 重要的样本数为
        • 随机丢弃的样本数为
        • 每个样本的损失函数的梯度
      • 根据梯度的绝对值大小,将样本按照从大到小排列。

        • 取其中取 的样本作为重要性样本。
        • 之外的样本中,随机选取 的样本作为保留样本,剩下的样本被丢弃。
      • 构建新的训练集:重要性样本+随机保留的样本,其中:

        • 个重要性样本,每个样本的权重都为 1。
        • 个随机保留的样本,每个样本的权重都为
      • 根据新的训练集及其权重,训练决策树模型 来拟合残差(即:负梯度 )。返回训练好的

  5. 由于需要在所有的样本上计算梯度,因此 丢弃样本的比例 ~ 加速比 并不是线性的关系。

3.1.1.2 理论
  1. GBDT 生成新的子决策树 时,对于当前结点 ,考虑是否对它进行分裂。

    假设结点 包含的样本集合为 , 样本维数为 。对于第 维,假设其拆分点为

    • 对于分类问题,其拆分增益为信息增益。它刻画的是划分之后混乱程度的降低,也就是纯净程度的提升:

      其中:

      • 表示样本属于结点 的概率, 为结点 上的样本标记的条件熵。
      • 表示左子结点的样本集合; 表示右子结点的样本集合。
      • 表示样本属于结点 的左子结点概率, 为左子结点的样本标记的条件熵。
      • 表示样本属于结点 的右子结点概率, 为右子结点的样本标记的条件熵。

      对于结点 的任意拆分点,由于 都相同,所以:

    • 对于回归问题,其拆分增益为方差增益(variance gain:VG)。它刻画的是划分之后方差的下降;也就是纯净程度的提升:

      其中:

      • 表示属于结点 的样本的标记的方差。
      • 表示左子结点的样本集合; 表示右子结点的样本集合。
      • 表示属于结点 的左子结点的样本的标记的方差。
      • 表示属于结点 的右子结点的样本的标记的方差。

      对于结点 的任意拆分点,由于 都相同,所以:

  2. 对于样本 ,设其标记为 (它是残差,也是负梯度)。

    对于结点 中的样本,设其样本数量为 ,样本的标记均值为 ,其方差为:

    设总样本数量为 , 则 ,则有:

  3. 现在考虑回归问题。

    对于拆分维度 和拆分点 , 令左子结点的样本下标为 ,样本数量为 右子结点的样本下标为 , 样本数量为 。则方差增益:

    考虑到 ,因此有: 。因此则方差增益:

    考虑到总样本大小 是个恒定值,因此可以去掉 。考虑到 并不随着结点 的不同划分而变化因此定义:对于拆分维度 和拆分点 ,方差增益为:

  4. 考虑在 GOSS 中,在划分结点 的过程中,可能会随机丢弃一部分样本,从而 的样本总数下降。因此重新定义方差增益:

  5. GOSS 中:

    • 首先根据样本的梯度的绝对值大小降序排列。
    • 然后选取其中的 top a 的样本作为重要样本,设其集合为 。则剩下的样本集合 保留了 1-a 比例的样本。
    • 在剩下的样本集合 中,随机选取总样本的 比例的样本保留,设其集合为
    • 最后将样本 划分到子结点中。

    重新定义方差增益为:

    其中:

    • 表示所有保留的样本的数量。 分别表示左子结点、右子结点保留的样本的数量。

    • 分别表示左子结点、右子结点的被保留的重要样本的集合。

      分别表示左子结点、右子结点的被保留的不重要样本的集合。

    • 用于补偿由于对 的采样带来的梯度之和的偏离。

    由于 的大小可能远远小于 ,因此估计 需要的计算量可能远远小于估计

  6. 定义近似误差为:, 定义标准的梯度均值:

    则可以证明:至少以概率 满足:

    其中:

    • ,刻画的是剩余样本集合 中最大梯度的加权值。
    • , 刻画的是未采取GOSS 时,划分的左子结点的梯度均值、右子结点的梯度均值中,较大的那个。

    结论:

    • 当划分比较均衡(即: ) 时,近似误差由不等式的第二项决定。

      此时,随着样本数量的增长,使用GOSS 和原始的算法的误差逼近于 0 。

    • 时,GOSS 退化为随机采样。

  7. GOSS 的采样增加了基学习器的多样性,有助于提升集成模型的泛化能力。

3.1.2 EFB

  1. 减少样本特征的传统方法是:使用特征筛选。

    该方式通常是通过 PCA 来实现的,其中使用了一个关键的假设:不同的特征可能包含了重复的信息。这个假设很有可能在实践中无法满足。

  2. LightBGM 的思路是:很多特征都是互斥的,即:这些特征不会同时取得非零的值。如果能将这些互斥的特征捆绑打包成一个特征,那么可以将特征数量大幅度降低。

    现在有两个问题:

    • 如何找到互斥的特征。
    • 如何将互斥的特征捆绑成一个特征。
3.1.2.1 互斥特征发现
  1. 定义打包特征集为这样的特征的集合:集合中的特征两两互斥。

    给定数据集 ,其中样本

    如果对每个 ,都不会出现 ,则特征 和特征 互斥。

  2. 可以证明:将每个特征划分到每个打包特征集中使得打包特征集 的数量最小,这个问题是NP 难的。

    为了解决这个问题,LightGBM 采用了一个贪心算法来求解一个近似的最优解。

  3. 将每个特征视为图中的一个顶点。

    遍历每个样本 , 如果特征 之间不互斥(即 ),则:

    • 如果顶点 之间不存在边,则在顶点 之间连接一条边,权重为 1 。
    • 如果顶点 之间存在边,则顶点 之间的边的权重加 1 。

    最终,如果一组顶点之间都不存在边,则它们是相互互斥的,则可以放入到同一个打包特征集 中。

  4. 事实上有些特征之间并不是完全互斥的,而是存在非常少量的冲突。即:存在少量的样本,在这些样本上,这些特征之间同时取得非零的值。

    如果允许这种少量的冲突,则可以将更多的特征放入打包特征集中,这样就可以减少更多的特征。

  5. 理论上可以证明:如果随机污染小部分的样本的特征的值,则对于训练accuracy 的影响是:最多影响 。其中 为污染样本的比例, 为样本数量 。

  6. 互斥特征发现算法:

    • 输入:

      • 数据集 ,其中样本
      • 冲突阈值
    • 输出:打包特征集 的集合

    • 算法:

      • 构建图

        • 每个特征作为一个顶点。

        • 遍历每个样本

          • 遍历所有的特征对 ,如果特征 之间不互斥 (即 )则:

            • 如果顶点 之间不存在边,则在顶点 之间连接一条边,权重为 1 。
            • 如果顶点 之间存在边,则顶点 之间的边的权重加 1 。
      • 对每个顶点,根据 degree (与顶点相连的边的数量)来降序排列。

      • 初始化:

      • 根据顶点的排序遍历顶点:

        设当前顶点为

        • 遍历 打包特征集 ,计算顶点 打包特征集 的冲突值 。如果 , 则说明顶点 打包特征集 不冲突。此时将顶点 添加到 打包特征集 中,退出循环并考虑下一个顶点。

          顶点 bundle 特征集 的冲突值有两种计算方法:

          • 计算最大冲突值:即最大的边的权重:
          • 计算所有的冲突值:即所有的边的权重:
        • 如果顶点 未加入到任何一个 打包特征集 中 ,则:创建一个新的 打包特征集 加入到 中,并将顶点 添加到这个新的 打包特征集 中。

      • 返回

  7. 互斥特征发现算法的算法复杂度为: ,其中 为样本总数, 为样本维数。

    • 复杂度主要集中在构建图
    • 该算法只需要在训练之前执行一次。
    • 当特征数量较小时,该算法的复杂度还可以接受。当特征数量非常庞大时,该算法的复杂度太高。
    • 优化的互斥特征发现算法不再构建图 ,而是仅仅计算每个特征的非零值。
  8. 优化的互斥特征发现算法:

    • 输入:

      • 数据集 ,其中样本
      • 冲突阈值
    • 输出:打包特征集 的集合

    • 算法:

      • 初始化:所有特征的非零值数量组成的数组

      • 计算每个特征的非零值 (复杂度 ) :遍历所有的特征 、遍历所有所有的样本 ,获取特征 的非零值

      • 根据 对顶点降序排列。

      • 初始化:

      • 根据顶点的排序遍历顶点:

        设当前顶点为

        • 遍历 打包特征集 ,计算顶点 打包特征集 的冲突值 。如果 , 则说明顶点 打包特征集 不冲突。此时将顶点 添加到 打包特征集 中,退出循环并考虑下一个顶点。

          顶点 bundle 特征集 的冲突值有两种计算方法:

          • 计算最大冲突值:即最大的非零值:
          • 计算所有的冲突值:即所有的非零值:

          这里简单的将两个特征的非零值之和认为是它们的冲突值。它是实际的冲突值的上界。

        • 如果顶点 未加入到任何一个 打包特征集 中 ,则:创建一个新的 打包特征集 加入到 中,并将顶点 添加到这个新的 打包特征集 中。

      • 返回

3.1.2.2 互斥特征打包
  1. 互斥特征打包的思想:可以从打包的特征中分离出原始的特征。

    假设特征 a 的取值范围为 [0,10), 特征 b 的取值范围为 [0,20) 。如果a,b 是互斥特征,那么打包的时候:对于特征 b的值,给它一个偏移量,比如 20。

    最终打包特征的取值范围为:[0,40)

    • 如果打包特征的取值在 [0,10), 说明该值来自于特征 a
    • 如果打包特征的取值在[20,40),说明该值来自于特征 b
  2. 基于histogram 的算法需要考虑分桶,但是原理也是类似:将 [0,x] 之间的桶分给特征 a, 将 [x+offset,y] 之间的桶分给特征 b。 其中 offset > 0

  3. 互斥特征打包算法:

    • 输入:

      • 数据集 ,其中样本
      • 待打包的特征集合
    • 输出:打包之后的分桶

    • 算法:

      • 记录总的分桶数量, 记录不同的特征的边界。初始化:

      • 计算特征边界:遍历所有的特征

        • 获取特征 的分桶数量 ,增加到
        • 获取特征 的分桶边界:
      • 创建新特征,它有 个桶。

      • 计算分桶点:遍历每个样本

        • 计算每个特征

          • 如果 ,则:如果 在特征 的第 个分桶中, 那么在打包后的特征中,它位于桶 中。
          • 如果 ,则不考虑。
  4. 互斥特征打包算法的算法复杂度为 ,其中 为样本总数, 为样本维数。

  5. 也可以首先扫描所有的样本,然后建立一张扫描表,该表中存放所有样本所有特征的非零值。

    这样互斥特征打包算法在每个特征上仅仅需要扫描非零的样本即可。这样每个特征的扫描时间从 降低为 , 其中 为该特征上非零的样本数。

    该方法的缺陷是:消耗更多的内存,因为需要在整个训练期间保留这样的一张表。

3.2 优化

  1. LightGBM 优化思路:

    • 单个机器在不牺牲速度的情况下,尽可能多地用上更多的数据。
    • 多机并行时通信的代价尽可能地低,并且在计算上可以做到线性加速。
  2. LightGBM 的优化:

    • 基于histogram 的决策树算法。
    • 带深度限制的leaf-wise 的叶子生长策略。
    • 直方图做差加速。
    • 直接支持类别(categorical) 特征。
    • 并行优化。

3.2.1 histogram 算法

  1. 基本思想:先把连续的浮点特征值离散化成 个整数,同时构造一个宽度为 的直方图。

    在遍历数据时:

    • 根据离散化后的值作为索引在直方图中累积统计量。
    • 当遍历一次数据后,直方图累积了需要的统计量。
    • 然后根据直方图的离散值,遍历寻找最优的分割点。
  2. 优点:节省空间。假设有 个样本,每个样本有 个特征,每个特征的值都是 32 位浮点数。

    • 对于每一列特征,都需要一个额外的排好序的索引(32位的存储空间)。则pre-sorted 算法需要消耗 字节内存。
    • 如果基于 histogram 算法,仅需要存储feature bin value(离散化后的数值),不需要原始的feature value,也不用排序。而bin valueunit8_t 即可,因此histogram 算法消耗 字节内存,是预排序算法的
  3. 缺点:不能找到很精确的分割点,训练误差没有pre-sorted 好。但从实验结果来看, histogram 算法在测试集的误差和 pre-sorted 算法差异并不是很大,甚至有时候效果更好。

    实际上可能决策树对于分割点的精确程度并不太敏感,而且较“粗”的分割点也自带正则化的效果。

  4. 采用histogram 算法之后,寻找拆分点的算法复杂度为:

    • 构建histogram
    • 寻找拆分点: ,其中 为分桶的数量。
  5. 与其他算法相比:

    • scikit-learn GBDTgbm in R 使用的是基于pre-sorted 的算法。
    • pGBRT 使用的是基于histogram 的算法。
    • xgboost 既提供了基于pre-sorted 的算法,又提供了基于histogram 的算法。
    • lightgbm 使用的是基于histogram 的算法。

3.2.2 leaf-wise 生长策略

  1. 大部分梯度提升树算法采用level-wise 的叶子生长策略:

    level-wise

    lightgbm 采用leaf-wise 的叶子生长策略:

    leaf_wise

  2. level-wise

    • 优点:过一遍数据可以同时分裂同一层的叶子,容易进行多线程优化,也好控制模型复杂度,不容易过拟合。
    • 缺点:实际上level-wise是一种低效算法 。它不加区分的对待同一层的叶子,带来了很多没必要的开销:实际上很多叶子的分裂增益较低,没必要进行搜索和分裂。
  3. leaf-wise:是一种更为高效的策略。每次从当前所有叶子中,找到分裂增益最大的一个叶子来分裂。

    • 优点:同level-wise 相比,在分裂次数相同的情况下,leaf-wise 可以降低更多的误差,得到更好的精度。

    • 缺点:可能会长出比较深的决策树,产生过拟合。

      因此 lightgbmleaf-wise 之上增加了一个最大深度限制,在保证高效率的同时防止过拟合。

3.2.3 直方图做差加速

  1. 通常构造直方图,需要遍历该叶子上的所有数据。但是事实上一个叶子的直方图可以由它的父亲结点的直方图与它兄弟的直方图做差得到。

    LightGBM 在构造一个叶子的直方图后,可以用非常微小的代价得到它兄弟叶子的直方图,在速度上可以提升一倍。

3.2.4 直接支持 categorical 特征

  1. 通常对categorical 特征进行one-hot 编码,但是这个做法在决策树学习中并不好:对于取值集合较多的categorical feature,学习到的树模型会非常不平衡;树的深度需要很深才能达到较高的准确率。

    LightGBM 直接支持categorical 特征。

3.2.5 并行优化

3.2.5.1 特征并行
  1. 传统的特征并行算法主要体现在决策树中的最优拆分过程中的并行化处理:

    • 沿特征维度垂直划分数据集,使得不同机器具有不同的特征集合。
    • 在本地数据集中寻找最佳划分点:(划分特征,划分阈值)
    • 将所有机器上的最佳划分点整合,得到全局的最佳划分点。
    • 利用全局最佳划分点对数据集进行划分,完成本次最优拆分过程。
  2. LightGBM 在特征并行上进行了优化,流程如下:

    • 每个机器都有全部样本的全部特征集合。

    • 每个机器在本地数据集中寻找最佳划分点:(划分特征,划分阈值)

      但是不同的机器在不同的特征集上运行。

    • 将所有机器上的最佳划分点整合,得到全局的最佳划分点。

    • 利用全局最佳划分点对数据集进行划分,完成本次最优拆分过程。

  3. LightGBM 不再沿特征维度垂直划分数据集,而是每个机器都有全部样本的全部特征集合。这样就节省了数据划分的通信开销。

    • 传统的特征并行算法需要在每次最优拆分中,对数据划分并分配到每台机器上。
    • LightGBM 特征并行算法只需要在程序开始时,将全量样本拷贝到每个机器上。

    二者交换的数据相差不大,但是后者花费的时间更少。

  4. LightGBM 的特征并行算法在数据量很大时,仍然存在计算上的局限。因此建议在数据量很大时采用数据并行。

3.2.5.2 数据并行
  1. 传统的数据并行算法主要体现在决策树的学习过程中的并行化处理:

    • 水平划分数据集,使得不同机器具有不同的样本集合。
    • 以本地数据集构建本地直方图
    • 将本地直方图整合为全局直方图
    • 在全局直方图中寻找最佳划分点。
  2. LightGBM 在数据并行上进行了优化,流程如下:

    • LightGBM 使用Reduce scatter 的方式对不同机器上的不同特征进行整合。每个机器从本地整合直方图中寻找最佳划分点,并同步到全局最佳划分点中。
    • LightGBM 通过直方图做差分加速。