XGBoost原理
1 提升方法(Boosting)
提升方法使用加法模型和前向分步算法。
加法模型
其中,$b\left(x;\gamma_m\right)$为基函数,$\gamma_m$为基函数的参数,$\beta_m$为基函数的系数。
在给定训练数据$\{\left(x_i,y_i\right)\}_{i=1}^N$及损失函数$L\left(y,f\left(x\right)\right)$的条件下,学习加法模型$f\left(x\right)$成为经验风险极小化问题:
前向分步算法求解这一优化问题的思路:因为学习的是加法模型,可以从前向后,每一步只学习一个基函数及其系数,逐步逼近优化目标函数,则可以简化优化复杂度。具体地,每步只需优化如下损失函数:
算法1.1 前向分步算法
输入:训练数据集$T=\{\left(x_1,y_1\right),\left(x_2,y_2\right),\dots,\left(x_N,y_N\right)\}$; 损失函数$L\left(y,f\left(x\right)\right)$;基函数集合$\{b\left(x;\gamma\right)\}$;
输出:加法模型$f\left(x\right)$
(1)初始化$f_0\left(x\right)=0$
(2)对$m=1,2,\dots,M$
(a)极小化损失函数
得到参数$\beta_m$,$\gamma_m$
(b)更新
(3)得到加法模型
前向分步算法将同时求解从$m=1$到$M$所有参数$\beta_m,\gamma_m$的优化问题简化为逐次求解各个$\beta_m, \gamma_m$的优化问题。
2 提升决策树 (BDT,Boosting Decision Tree)
以决策树为基函数的提升方法为提升决策树。
提升决策树模型可以表示为决策树的加法模型:
其中,$T\left(x;\Theta_m\right)$表示决策树;$\Theta_m$为决策树的参数;$M$为树的个数。
提升决策树采用前向分步算法。首先确定初始提升决策树$f_0\left(x\right)=0$,第$m$步的模型是
其中,$f_{m-1}\left(x\right)$为当前模型,通过经验风险极小化确定下一棵决策树的参数$\Theta_m$,
已知训练数据集$T=\{\left(x_1,y_1\right),\left(x_2,y_2\right),\dots\left(x_N,y_N\right)\}$,$x_i\in\mathcal{X}\subseteq\mathbb{R}^n$,$\mathcal{X}$为输入空间,$y_i\in\mathcal{Y}\subseteq\mathbb{R}$,$\mathcal{Y}$为输出空间。如果将输入空间$\mathcal{X}$划分为$J$个互不相交的区域$R_1,R_2,\dots,R_J$,并且在每个区域上确定输出的常量$c_j$,那么决策树可表示为
其中,参数$\Theta=\{\left(R_1,c_1\right),\left(R_2,c_2\right),\dots,\left(R_J,c_J\right)\}$表示决策树的区域划分和各区域上的常量值。$J$是决策树的复杂度即叶子结点个数。
提升决策树使用以下前向分步算法:
在前向分步算法的第$m$步,给定当前模型$f_{m-1}\left(x\right)$,需要求解
得到$\hat{\Theta}_m$,即第$m$棵树的参数。
当采用平方误差损失函数时,
其损失变为
其中,
是当前模型拟合数据的残差(residual)。对回归问题的提升决策树,只需要简单地拟合当前模型的残差。
算法2.1 回归问题的提升决策树算法
输入:训练数据集$T=\{\left(x_1,y_1\right),\left(x_2,y_2\right),\dots,\left(x_N,y_N\right)\}$;
输出:提升决策树$f_M\left(x\right)$
(1)初始化$f_0\left(x\right)=0$
(2)对$m=1,2,\dots,M$
(a)按照式(2.5)计算残差
(b)拟合残差$r_{mi}$学习一个回归树,得到$T\left(x;\Theta_m\right)$
(c)更新$f_m\left(x\right)=f_{m-1}\left(x\right)+T\left(x;\Theta_m\right) $
(3)得到回归提升决策树
3 梯度提升决策树 (GBDT,Gradient Boosting Decision Tree)
梯度提升算法使用损失函数的负梯度在当前模型的值
作为回归问题提升决策树算法中残差的近似值,拟合一个回归树。
算法3.1 梯度提升算法
输入:训练数据集$T=\{\left(x_1,y_1\right),\left(x_2,y_2\right),\dots,\left(x_N,y_N\right)\}$; 损失函数$L\left(y,f\left(x\right)\right)$
输出:梯度提升决策树$\hat{f}\left(x\right)$
(1)初始化
(2)对$m=1,2,\dots,M$
(a)对$i=1,2,\dots,N$,计算
(b)对$r_{mi}$拟合一个回归树,得到第$m$棵树的叶结点区域$R_{mj},j=1,2,\dots,J$
(c)对$j=1,2,\dots,J$,计算
(d)更新$f_m\left(x\right)=f_{m-1}\left(x\right)+\sum_{j=1}^J c_{mj} I\left(x\in R_{mj}\right)$
(3)得到回归梯度提升决策树
4 极致梯度提升决策树(XGBoost,eXtreme Gradient Boosting Decision Tree)
训练数据集$\mathcal{D}=\{\left(\mathbf{x}_i,y_i\right)\}$,其中$\mathbf{x}_i\in\mathbb{R}^m,y_i\in\mathbb{R},\left|\mathcal{D}\right|=n$。
决策树模型
其中,$q:\mathbb{R}^m\to \{1,\dots,T\}$是有输入$\mathbf{x}$向叶子结点编号的映射,$w\in\mathbb{R}^T$是叶子结点向量,$T$为决策树叶子节点数。
提升决策树模型预测输出
其中,$f_k\left(\mathbf{x}\right)$为第$k$棵决策树。
正则化目标函数
其中,$\Omega\left(f\right)=\gamma T+\frac{1}{2}\lambda|w|^2=\gamma T+\frac{1}{2}\lambda\sum_{j=1}^T w_j^2$。
第$t$轮目标函数
第$t$轮目标函数$\mathcal{L}^{\left(t\right)}$在$\hat{y}^{\left(t-1\right)}$处的二阶泰勒展开
其中,$g_i=\partial_{\hat{y}^{\left(t-1\right)}}l\left(y_i,\hat{y}^{\left(t-1\right)}\right),h_i=\partial^2_{\hat{y}^{\left(t-1\right)}}l\left(y_i,\hat{y}^{\left(t-1\right)}\right)$。
第$t$轮目标函数$\mathcal{L}^{\left(t\right)}$的二阶泰勒展开移除关于$f_t\left(\mathbf{x}_i\right)$的常数项
定义叶结点$j$上的样本的下标集合$I_j=\{i|q\left(\mathbf{x}_i\right)=j\}$,则目标函数可表示为按叶结点累加的形式
由于
可令
得到每个叶结点$j$的最优分数为
代入每个叶结点$j$的最优分数,得到最优化目标函数值
假设$I_L$和$I_R$分别为分裂后左右结点的实例集,令$I=I_L\cup I_R$,则分裂后损失减少量由下式得出
用以评估待分裂结点。
算法4.1 分裂查找的精确贪婪算法
输入:当前结点实例集$I$;特征维度$d$
输出:根据最大分值分裂
(1)$gain\leftarrow 0$
(2)$G\leftarrow\sum_{i\in I}g_i$,$H\leftarrow\sum_{i\in I}h_i$
(3)for $k=1$ to $d$ do
(3.1)$G_L \leftarrow 0$,$H_L \leftarrow 0$
(3.2)for $j$ in sorted($I$, by $\mathbf{x}_{jk}$) do
(3.2.1)$G_L \leftarrow G_L+g_j$,$H_L \leftarrow H_L+h_j$
(3.2.2)$G_R \leftarrow G-G_L$,$H_R=H-H_L$
(3.2.3)$score \leftarrow \max\left(score,\frac{G_L^2}{H_L+\lambda}+\frac{G_R^2}{H_R+\lambda}-\frac{G^2}{H+\lambda}\right)$
(3.3)end
(4)end
算法4.2 分裂查找的近似贪婪算法
输入:当前结点实例集$I$;特征维度$d$
输出:根据最大分值分裂
(1)for $k=1$ to $d$ do
(1.1)通过特征$k$的百分位数求候选分割点$S_k=\{s_{k1},s_{k2},\dots,s_{kl}\}$
(1.2)可以在每颗树生成后(全局),可以在每次分裂后(局部)
(2)end
(3)for $k=1$ to $m$ do
(3.1)$G_{kv}\gets =\sum_{j\in\{j|s_{k,v}\geq\mathbf{x}_{jk}>s_{k,v-1}\}}g_j$
(3.2)$H_{kv}\gets =\sum_{j\in\{j|s_{k,v}\geq\mathbf{x}_{jk}>s_{k,v-1}\}}h_j$
(4)end
按照与前一节相同的步骤,在提议的分割中找到最大值。
候选分割点$S_k=\{s_{k1},s_{k2},\dots,s_{kl}\}$中,
令
其余各分割点满足
其中,函数$r_k:\mathbb{R}\to[0,+\infty)$
其中$\mathcal{D}_k=\{\left(x_{1k},h_1\right),\left(x_{2k},h_2\right),\dots,\left(x_{nk},h_n\right)\} $
如果$h_i$作为数据点权重
即是权重为$h_i$的$f_t\left(\mathbf{x}_i\right)$对$g_i/h_i$的加权平方损失。
Machine Learning decision tree boosting gbdt xgboost
本博客所有文章除特别声明外,均采用 CC BY-SA 3.0协议 。转载请注明出处!