机器学习算法之LightGBM,比XGBoost表现更为优秀

2020-03-2910:07:55数据结构与算法Comments4,641 views1字数 23773阅读模式

LigthGBM是boosting集合模型中的新进成员,由微软提供,它和XGBoost一样是对GBDT的高效实现,原理上它和GBDT及XGBoost类似,都采用损失函数的负梯度作为当前决策树的残差近似值,去拟合新的决策树。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM在很多方面会比XGBoost表现的更为优秀。它有以下优势:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 更快的训练效率
  • 低内存使用
  • 更高的准确率
  • 支持并行化学习
  • 可处理大规模数据
  • 支持直接使用category特征

从下图实验数据可以看出, LightGBM比XGBoost快将近10倍,内存占用率大约为XGBoost的1/6,并且准确率也有提升。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

看完这些惊人的实验结果以后,对下面两个问题产生了疑惑:XGBoost已经十分完美了,为什么还要追求速度更快、内存使用更小的模型?对GBDT算法进行改进和提升的技术细节是什么?文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

提出LightGBM的动机

常用的机器学习算法,例如神经网络等算法,都可以以mini-batch的方式训练,训练数据的大小不会受到内存限制。而GBDT在每一次迭代的时候,都需要遍历整个训练数据多次。如果把整个训练数据装进内存则会限制训练数据的大小;如果不装进内存,反复地读写训练数据又会消耗非常大的时间。尤其面对工业级海量的数据,普通的GBDT算法是不能满足其需求的。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM提出的主要原因就是为了解决GBDT在海量数据遇到的问题,让GBDT可以更好更快地用于工业实践。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

XGBoost的优缺点

精确贪心算法文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

每轮迭代时,都需要遍历整个训练数据多次。如果把整个训练数据装进内存则会限制训练数据的大小;如果不装进内存,反复地读写训练数据又会消耗非常大的时间。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

优点:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

缺点:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

Level-wise迭代方式文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

预排序方法(pre-sorted):首先,空间消耗大。这样的算法需要保存数据的特征值,还保存了特征排序的结果(例如排序后的索引,为了后续快速的计算分割点),这里需要消耗训练数据两倍的内存。其次时间上也有较大的开销,在遍历每一个分割点的时候,都需要进行分裂增益的计算,消耗的代价大。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

优点:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

缺点:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

对cache优化不友好文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

在预排序后,特征对梯度的访问是一种随机访问,并且不同的特征访问的顺序不一样,无法对cache进行优化。同时,在每一层长树的时候,需要随机访问一个行索引到叶子索引的数组,并且不同特征访问的顺序也不一样,也会造成较大的cache miss。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM在哪些地方进行了优化?

以上与其说是XGBoost的不足,倒不如说是LightGBM作者们构建新算法时着重瞄准的点。解决了什么问题,那么原来模型没解决就成了原模型的缺点。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

概括来说,lightGBM主要有以下特点:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 基于Histogram的决策树算法
  • 带深度限制的Leaf-wise的叶子生长策略
  • 直方图做差加速
  • 直接支持类别特征(Categorical Feature)
  • Cache命中率优化
  • 基于直方图的稀疏特征优化
  • 多线程优化

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

决策树算法

XGBoost使用的是pre-sorted算法,能够更精确的找到数据分隔点。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 首先,对所有特征按数值进行预排序。
  • 其次,在每次的样本分割时,用O(# data)的代价找到每个特征的最优分割点。
  • 最后,找到最后的特征以及分割点,将数据分裂成左右两个子节点。

这种pre-sorting算法能够准确找到分裂点,但是在空间和时间上有很大的开销。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 由于需要对特征进行预排序并且需要保存排序后的索引值(为了后续快速的计算分裂点),因此内存需要训练数据的两倍。
  • 在遍历每一个分割点的时候,都需要进行分裂增益的计算,消耗的代价大。

LightGBM使用的是histogram算法,占用的内存更低,数据分隔的复杂度更低。其思想是将连续的浮点特征离散成k个离散值,并构造宽度为k的Histogram。然后遍历训练数据,统计每个离散值在直方图中的累计统计量。在进行特征选择时,只需要根据直方图的离散值,遍历寻找最优的分割点。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

使用直方图算法有很多优点。首先最明显就是内存消耗的降低,直方图算法不仅不需要额外存储预排序的结果,而且可以只保存特征离散化后的值,而这个值一般用8位整型存储就足够了,内存消耗可以降低为原来的1/8。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

然后在计算上的代价也大幅降低,预排序算法每遍历一个特征值就需要计算一次分裂的增益,而直方图算法只需要计算k次(k可以认为是常数),时间复杂度从O(#data*#feature)优化到O(k*#features)。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

Histogram algorithm文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

Histogram algorithm应该翻译为直方图算法,直方图算法的思想也很简单,首先将连续的浮点数据转换为bin数据,具体过程是首先确定对于每一个特征需要多少的桶bin,然后均分,将属于该桶的样本数据更新为bin的值,最后用直方图表示。(看起来很高大上,其实就是直方图统计,最后我们将大规模的数据放在了直方图中)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

直方图算法有几个需要注意的地方:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 使用bin替代原始数据相当于增加了正则化;
  • 使用bin意味着很多数据的细节特征被放弃了,相似的数据可能被划分到相同的桶中,这样的数据之间的差异就消失了;
  • bin数量选择决定了正则化的程度,bin越少惩罚越严重,欠拟合风险越高。

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

直方图算法需要注意的地方:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 构建直方图时不需要对数据进行排序(比XGBoost快),因为预先设定了bin的范围;
  • 直方图除了保存划分阈值和当前bin内样本数以外还保存了当前bin内所有样本的一阶梯度和(一阶梯度和的平方的均值等价于均方损失);
  • 阈值的选取是按照直方图从小到大遍历,使用了上面的一阶梯度和,目的是得到划分之后△loss最大的特征及阈值。

Histogram 算法的优缺点:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • Histogram算法并不是完美的。由于特征被离散化后,找到的并不是很精确的分割点,所以会对结果产生影响。但在实际的数据集上表明,离散化的分裂点对最终的精度影响并不大,甚至会好一些。原因在于decision tree本身就是一个弱学习器,采用Histogram算法会起到正则化的效果,有效地防止模型的过拟合。
  • 时间上的开销由原来的O(#data * #features)降到O(k * #features)。由于离散化,#bin远小于#data,因此时间上有很大的提升。

Histogram算法还可以进一步加速。一个叶子节点的Histogram可以直接由父节点的Histogram和兄弟节点的Histogram做差得到。一般情况下,构造Histogram需要遍历该叶子上的所有数据,通过该方法,只需要遍历Histogram的k个捅。速度提升了一倍。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

决策树生长策略

在Histogram算法之上,LightGBM进行进一步的优化。首先它抛弃了大多数GBDT工具使用的按层生长 (level-wise)的决策树生长策略,而使用了带有深度限制的按叶子生长 (leaf-wise)算法。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

XGBoost采用的是按层生长level(depth)-wise生长策略,能够同时分裂同一层的叶子,从而进行多线程优化,不容易过拟合;但不加区分的对待同一层的叶子,带来了很多没必要的开销。因为实际上很多叶子的分裂增益较低,没必要进行搜索和分裂。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM采用leaf-wise生长策略,每次从当前所有叶子中找到分裂增益最大(一般也是数据量最大)的一个叶子,然后分裂,如此循环。因此同Level-wise相比,在分裂次数相同的情况下,Leaf-wise可以降低更多的误差,得到更好的精度。Leaf-wise的缺点是可能会长出比较深的决策树,产生过拟合。因此LightGBM在Leaf-wise之上增加了一个最大深度的限制,在保证高效率的同时防止过拟合。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

直方图差加速

LightGBM另一个优化是Histogram(直方图)做差加速。一个容易观察到的现象:一个叶子的直方图可以由它的父亲节点的直方图与它兄弟的直方图做差得到。通常构造直方图,需要遍历该叶子上的所有数据,但直方图做差仅需遍历直方图的k个桶。利用这个方法,LightGBM可以在构造一个叶子的直方图后,可以用非常微小的代价得到它兄弟叶子的直方图,在速度上可以提升一倍。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

直接支持类别特征

实际上大多数机器学习工具都无法直接支持类别特征,一般需要把类别特征,转化one-hotting特征,降低了空间和时间的效率。而类别特征的使用是在实践中很常用的。基于这个考虑,LightGBM优化了对类别特征的支持,可以直接输入类别特征,不需要额外的0/1展开。并在决策树算法上增加了类别特征的决策规则。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

one-hot编码是处理类别特征的一个通用方法,然而在树模型中,这可能并不一定是一个好的方法,尤其当类别特征中类别个数很多的情况下。主要的问题是:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 可能无法在这个类别特征上进行切分(即浪费了这个特征)。使用one-hot编码的话,意味着在每一个决策节点上只能使用one vs rest(例如是不是狗,是不是猫等)的切分方式。当类别值很多时,每个类别上的数据可能会比较少,这时候切分会产生不平衡,这意味着切分增益也会很小(比较直观的理解是,不平衡的切分和不切分没有区别)。
  • 会影响决策树的学习。因为就算可以在这个类别特征进行切分,也会把数据切分到很多零碎的小空间上,如图1左边所示。而决策树学习时利用的是统计信息,在这些数据量小的空间上,统计信息不准确,学习会变差。但如果使用下图右边的分裂方式,数据会被切分到两个比较大的空间,进一步的学习也会更好。

下图右边叶子节点的含义是X=A或者X=C放到左孩子,其余放到右孩子。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM处理分类特征大致流程:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

为了解决one-hot编码处理类别特征的不足。LightGBM采用了Many vs many的切分方式,实现了类别特征的最优切分。用LightGBM可以直接输入类别特征,并产生上图右边的效果。在1个k维的类别特征中寻找最优切分,朴素的枚举算法的复杂度是O(2k) ,而LightGBM采用了如On Grouping For Maximum Homogeneity的方法实现了O(klogk) 的算法。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

算法流程下图所示:在枚举分割点之前,先把直方图按每个类别的均值进行排序;然后按照均值的结果依次枚举最优分割点。从下图可以看到,Sum(y)/Count(y)为类别的均值。当然,这个方法很容易过拟合,所以在LGBM中加入了很多对这个方法的约束和正则化。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

下图是一个简单的对比实验,可以看到该最优方法在AUC上提升了个点,并且时间只多了20%。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

下面具体来讲下在代码中如何求解类别特征的最优切分的流程:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 离散特征建立直方图的过程:统计该特征下每一种离散值出现的次数,并从高到低排序,并过滤掉出现次数较少的特征值, 然后为每一个特征值,建立一个bin容器, 对于在bin容器内出现次数较少的特征值直接过滤掉,不建立bin容器。
  • 计算分裂阈值的过程:
    • 先看该特征下划分出的bin容器的个数,如果bin容器的数量小于4,直接使用one vs other方式, 逐个扫描每一个bin容器,找出最佳分裂点;
    • 对于bin容器较多的情况, 先进行过滤,只让子集合较大的bin容器参加划分阈值计算, 对每一个符合条件的bin容器进行公式计算(公式如下: 该bin容器下所有样本的一阶梯度之和/该bin容器下所有样本的二阶梯度之和 + 正则项(参数cat_smooth),这里为什么不是label的均值呢?其实上例中只是为了便于理解,只针对了学习一棵树且是回归问题的情况, 这时候一阶导数是Y, 二阶导数是1),得到一个值,根据该值对bin容器从小到大进行排序,然后分从左到右、从右到左进行搜索,得到最优分裂阈值。但是有一点,没有搜索所有的bin容器,而是设定了一个搜索bin容器数量的上限值,程序中设定是32,即参数max_num_cat。LightGBM中对离散特征实行的是many vs many 策略,这32个bin中最优划分的阈值的左边或者右边所有的bin容器就是一个many集合,而其他的bin容器就是另一个many集合。
    • 对于连续特征,划分阈值只有一个,对于离散值可能会有多个划分阈值,每一个划分阈值对应着一个bin容器编号,当使用离散特征进行分裂时,只要数据样本对应的bin容器编号在这些阈值对应的bin集合之中,这条数据就加入分裂后的左子树,否则加入分裂后的右子树。

直接支持高效并行

LightGBM原生支持并行学习,目前支持特征并行和数据并行的两种。特征并行的主要思想是在不同机器在不同的特征集合上分别寻找最优的分割点,然后在机器间同步最优的分割点。数据并行则是让不同的机器先在本地构造直方图,然后进行全局的合并,最后在合并的直方图上面寻找最优分割点。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM针对这两种并行方法都做了优化,在特征并行算法中,通过在本地保存全部数据避免对数据切分结果的通信;在数据并行中使用分散规约(Reduce scatter)把直方图合并的任务分摊到不同的机器,降低通信和计算,并利用直方图做差,进一步减少了一半的通信量。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

基于投票的数据并行则进一步优化数据并行中的通信代价,使通信代价变成常数级别。在数据量很大的时候,使用投票并行可以得到非常好的加速效果。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

更具体的内容可以看NIPS2016的文章:A Communication-Efficient Parallel Algorithm for Decision Tree文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

网络通信优化

XGBoost由于采用pre-sorted算法,通信代价非常大,所以在并行的时候也是采用histogram算法;LightGBM采用的histogram算法通信代价小,通过使用集合通信算法,能够实现并行计算的线性加速。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

LightGBM原理

论文地址:LightGBM A Highly Efficient Gradient Boosting文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

提升树是利用加模型与前向分布算法实现学习的优化过程,它有一些高效实现,如XGBoost, pGBRT,GBDT(Gradient Boosting Decision Tree)等。其中GBDT采用负梯度作为划分的指标(信息增益),XGBoost则利用到二阶导数。他们共同的不足是,计算信息增益需要扫描所有样本,从而找到最优划分点。在面对大量数据或者特征维度很高时,它们的效率和扩展性很难使人满意。解决这个问题的直接方法就是减少特征量和数据量而且不影响精确度,有部分工作根据数据权重采样来加速booisting的过程,但由于GBDT没有样本权重不能应用。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

微软开源的LightGBM(基于GBDT的)则很好的解决这些问题,它主要包含两个算法:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

单边梯度采样,Gradient-based One-Side Sampling(GOSS)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

GOSS(从减少样本角度):排除大部分小梯度的样本,仅用剩下的样本计算信息增益。GBDT虽然没有数据权重,但每个数据实例有不同的梯度,根据计算信息增益的定义,梯度大的实例对信息增益有更大的影响,因此在下采样时,我们应该尽量保留梯度大的样本(预先设定阈值,或者最高百分位间),随机去掉梯度小的样本。我们证明此措施在相同的采样率下比随机采样获得更准确的结果,尤其是在信息增益范围较大时。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

互斥特征绑定,Exclusive Feature Bundling(EFB)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • EFB(从减少特征角度):捆绑互斥特征,也就是他们很少同时取非零值(也就是用一个合成特征代替)。通常真是应用中,虽然特征量比较多,但是由于特征空间十分稀疏,是否可以设计一种无损的方法来减少有效特征呢?特别在稀疏特征空间上,许多特征几乎是互斥的(例如许多特征不会同时为非零值,像one-hot),我们可以捆绑互斥的特征。最后,我们将捆绑问题归约到图着色问题,通过贪心算法求得近似解。

结合使用 GOSS 和 EFB 的 GBDT 算法就是 LightGBM。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

Gradient-based One-Side Sampling(GOSS)

GOSS是一种在减少数据量和保证精度上平衡的算法。GOSS是通过区分不同梯度的实例,保留较大梯度实例同时对较小梯度随机采样的方式减少计算量,从而达到提升效率的目的。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

算法描述文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

AdaBoost中,样本权重是数据实例重要性的指标。然而在GBDT中没有原始样本权重,不能应用权重采样。幸运的事,我们观察到GBDT中每个数据都有不同的梯度值,对采样十分有用,即实例的梯度小,实例训练误差也就较小,已经被学习得很好了,直接想法就是丢掉这部分梯度小的数据。然而这样做会改变数据的分布,将会影响训练的模型的精确度,为了避免此问题,我们提出了GOSS。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

GOSS保留所有的梯度较大的实例,在梯度小的实例上使用随机采样。为了抵消对数据分布的影响,计算信息增益的时候,GOSS对小梯度的数据引入常量乘数。GOSS首先根据数据的梯度绝对值排序,选取top a个实例。然后在剩余的数据中随机采样b个实例。接着计算信息增益时为采样出的小梯度数据乘以(1-a)/b,这样算法就会更关注训练不足的实例,而不会过多改变原数据集的分布。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

理论分析文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

GBDT使用决策树,来学习获得一个将输入空间映射到梯度空间的函数。假设训练集有n个实例x1,…,xn ,特征维度为s。每次梯度迭时,模型数据变量的损失函数的负梯度方向表示为g1,…,gn ,决策树通过最优切分点(最大信息增益点)将数据分到各个节点。GBDT通过分割后的方差衡量信息增益。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

定义:O表示某个固定节点的训练集,分割特征j的分割点d定义为:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

Vj|O(d)=1nO((∑{xi∈O:xij≤d}gi)2njl|O(d)+(∑{xi∈O:xij>d}gi)2njr|O(d))文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

其中,nO=∑I[xi∈O],njl|O=∑I[xi∈O:xi≥d],njr|O=∑I[xi∈O:xi>d]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

遍历每个特征的每个分裂点,找到d∗j=argmaxdVj(d) 并计算最大的信息增益Vj(d∗j) ,然后,将数据根据特征j∗ 的分裂点d∗j 将数据分到左右子节点。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

在GOSS中,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 首先根据数据的梯度将训练降序排序。
  • 保留top a个数据实例,作为数据子集A。
  • 对于剩下的数据的实例,随机采样获得大小为b的数据子集B。
  • 最后我们通过以下方程估计信息增益:

V~j(d)=1n((∑xi∈A:xij≤dgi+1−ab∑xi∈B:xij≤dgi)2njl(d)+(∑xi∈A:xij>dgi+1−ab∑xi∈B:xij>dgi)2njr(d))(1)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

此处GOSS通过较小的数据集估计信息增益V~j(d) 将大大地减小计算量。更重要的,我们接下来理论表明GOSS不会丢失许多训练精度,胜过随机采样,理论的证明在附加材料。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

我们定义GOSS近似误差为:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

ε(d)=|V~j(d)–Vj(d)|文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

g¯jl(d)=∑xi∈(A∪Ac)l|gi|njl(d)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

概率至少是1−δ1 ,有:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

ε(d)≤C2a,bln(1/δ)∗max{1njl(d),1njr(d)}+2∗D∗Ca,bln(1/δ)n−−−−−−−√(2)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

其中Ca,b=1−ab√maxx∈Ac|gi|,D=max(g¯jl(d),g¯jr(d))文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

根据上述理论,我们得出以下结论:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • GOSS的渐近逼近比率O(1njl(d)+1njr(d)+1n√) 。如果数据分割不是极不平衡(例如njl(d)≥O(n−−√) 和 njr≥O(n−−√) ),那么不等式(2)中近似误差将由第二项主导,当n趋于无穷(数据量很大时),O(n−−√) 将趋于0,即数据量越大,误差越小,精度越高。
  • 随机采样是GOSS在a=0的一种情况。多数情况下,GOSS性能优于随机采样,即以下情况:C0,β>Ca,β−a ,即αaβ√>1−aβ−a√ ,其中αa=maxxi∈A∪Ac|gi|/maxxi∈Ac|gi|

下面分析GOSS的泛化性。考虑GOSS泛化误差εGOSSgen(d)=|V~j(d)–V∗(d)| ,这是GOSS抽样的的实例计算出的方差增益与实际样本方差增益之间的差距。变换为εGOSSgen(d)=|V~j(d)–Vj(d)|+|Vj(d)–V∗(d)|:=εGOSS(d)+εgen(d) ,因此,在GOSS准确的情况下,GOSS泛化误差近似于全量的真实数据。另一方面,采样将增加基学习器的多样性(因为每次采样获得的数据可能会不同),这将提高泛化性。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

Exclusive Feature Bundling(EFB)

EFB是通过特征捆绑的方式减少特征维度(其实是降维技术)的方式,来提升计算效率。通常被捆绑的特征都是互斥的(一个特征值为零,一个特征值不为零),这样两个特征捆绑起来才不会丢失信息。如果两个特征并不是完全互斥(部分情况下两个特征都是非零值),可以用一个指标对特征不互斥程度进行衡量,称之为冲突比率,当这个值较小时,我们可以选择把不完全互斥的两个特征捆绑,而不影响最后的精度。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

EBF的算法步骤如下:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 将特征按照非零值的个数进行排序
  • 计算不同特征之间的冲突比率
  • 遍历每个特征并尝试合并特征,使冲突比率最小化

高位的数据通常是稀疏的,这种稀疏性启发我们设计一种无损地方法来减少特征的维度。特别的,稀疏特征空间中,许多特征是互斥的,例如他们从不同时为非零值。我们可以绑定互斥的特征为单一特征,通过仔细设计特征臊面算法,我们从特征捆绑中构建了与单个特征相同的特征直方图。这种方式的间直方图时间复杂度从O(#data * #feature)降到O(#data * #bundle),由于#bundle << # feature,我们能够极大地加速GBDT的训练过程而且损失精度。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

有两个问题:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 怎么判定那些特征应该绑在一起(build bundled)?
  • 怎么把特征绑为一个(merge feature)?

bundle(什么样的特征被绑定)?文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

**理论1:**将特征分割为较小量的互斥特征群是NP难的。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

证明:将图着色问题归约为此问题,而图着色是NP难的,所以此问题就是NP难的。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

给定图着色实例G=(V, E)。以G的关联矩阵的每一行为特征,得到我们问题的一个实例有|V|个特征。 很容易看到,在我们的问题中,一个独特的特征包与一组具有相同颜色的顶点相对应,反之亦然。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

理论1说明多项式时间中求解这个NP难问题不可行。为了寻找好的近似算法,我们将最优捆绑问题归结为图着色问题,如果两个特征之间不是相互排斥,那么我们用一个边将他们连接,然后用合理的贪婪算法(具有恒定的近似比)用于图着色来做特征捆绑。 此外,我们注意到通常有很多特征,尽管不是100%相互排斥的,也很少同时取非零值。 如果我们的算法可以允许一小部分的冲突,我们可以得到更少的特征包,进一步提高计算效率。经过简单的计算,随机污染小部分特征值将影响精度最多O([(1–γ)n]−2/3) ,γ 是每个绑定中的最大冲突比率,当其相对较小时,能够完成精度和效率之间的平衡。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

**算法3:**基于上面的讨论,我们设计了算法3,伪代码见下图,具体算法:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 建立一个图,每个点代表特征,每个边有权重,其权重和特征之间总体冲突相关。
  • 按照降序排列图中的度数来排序特征。
  • 检查排序之后的每个特征,对他进行特征绑定或者建立新的绑定使得操作之后的总体冲突最小。

算法3的时间复杂度是O(feature2) ,训练之前只处理一次,其时间复杂度在特征不是特别多的情况下是可以接受的,但难以应对百万维的特征。为了继续提高效率,我们提出了一个更加高效的无图的排序策略:将特征按照非零值个数排序,这和使用图节点的度排序相似,因为更多的非零值通常会导致冲突,新算法在算法3基础上改变了排序策略。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

机器学习算法之LightGBM,比XGBoost表现更为优秀文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

merging features(特征合并)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

如何合并同一个bundle的特征来降低训练时间复杂度。关键在于原始特征值可以从bundle中区分出来。鉴于直方图算法存储离散值而不是连续特征值,我们通过将互斥特征放在不同的箱中来构建bundle。这可以通过将偏移量添加到特征原始值中实现,例如,假设bundle中有两个特征,原始特征A取值[0, 10],B取值[0, 20]。我们添加偏移量10到B中,因此B取值[10, 30]。通过这种做法,就可以安全地将A、B特征合并,使用一个取值[0, 30]的特征取代AB。算法见算法4,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

EFB算法能够将许多互斥的特征变为低维稠密的特征,就能够有效的避免不必要0值特征的计算。实际,通过用表记录数据中的非零值,来忽略零值特征,达到优化基础的直方图算法。通过扫描表中的数据,建直方图的时间复杂度将从O(#data)降到O(#non_zero_data)。当然,这种方法在构建树过程中需要而额外的内存和计算开销来维持预特征表。我们在lightGBM中将此优化作为基本函数,因为当bundles是稀疏的时候,这个优化与EFB不冲突(可以用于EFB)。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

参考链接:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

如何使用LightGBM

LightGBM调参指导

针对 leaf-wise 树的参数优化:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • num_leaves:控制了叶节点的数目。它是控制树模型复杂度的主要参数。
  • 如果是level-wise,则该参数为2depth ,其中depth为树的深度。但是当叶子数量相同时,leaf-wise的树要远远深过level-wise树,非常容易导致过拟合。因此应该让num_leaves小于2depth 。在leaf-wise树中,并不存在depth的概念。因为不存在一个从leaves到depth的合理映射。
  • min_data_in_leaf:每个叶节点的最少样本数量。它是处理leaf-wise树的过拟合的重要参数。将它设为较大的值,可以避免生成一个过深的树。但是也可能导致欠拟合。
  • max_depth: 控制了树的最大深度。该参数可以显式的限制树的深度。

针对更快的训练速度:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 通过设置 bagging_fraction 和 bagging_freq 参数来使用 bagging 方法
  • 通过设置 feature_fraction 参数来使用特征的子抽样
  • 使用较小的 max_bin
  • 使用 save_binary 在未来的学习过程对数据加载进行加速

获取更好的准确率:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 使用较大的 max_bin (学习速度可能变慢)
  • 使用较小的 learning_rate 和较大的 num_iterations
  • 使用较大的 num_leaves (可能导致过拟合)
  • 使用更大的训练数据
  • 尝试 dart

缓解过拟合:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • 使用较小的 max_bin
  • 使用较小的 num_leaves
  • 使用 min_data_in_leaf 和 min_sum_hessian_in_leaf
  • 通过设置 bagging_fraction 和 bagging_freq 来使用 bagging
  • 通过设置 feature_fraction 来使用特征子抽样
  • 使用更大的训练数据
  • 使用 lambda_l1, lambda_l2 和 min_gain_to_split 来使用正则
  • 尝试 max_depth 来避免生成过深的树

核心参数:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • config 或者config_file:一个字符串,给出了配置文件的路径。默认为空字符串。
  • task: 一个字符串,给出了要执行的任务。可以为:
    • ‘train’ 或者 ‘training’:表示是训练任务。默认为’train’。
    • ‘predict’ 或者 ‘prediction’或者’test’:表示是预测任务。
    • ‘convert_model’: 表示是模型转换任务。将模型文件转换成if-else 格式。
  • application或者objective或者app:一个字符串,表示问题类型。可以为:
    • ‘regression’或’regression_l2’或’mean_squared_error’或’mse’或’l2_root’或’root_mean_squred_error’或’rmse’:表示回归任务,但是使用L2损失函数。默认为’regression’
    • ‘regression_l1’或者mae或者mean_absolute_error:表示回归任务,但是使用L1损失函数。
    • ‘huber’: 表示回归任务,但是使用huber 损失函数。
    • ‘fair’: 表示回归任务,但是使用fair 损失函数。
    • ‘poisson’: 表示Poisson 回归任务。
    • ‘quantile’: 表示quantile回归任务。
    • ‘quantile_l2’:表示quantile回归任务,但是使用了L2 损失函数。
    • ‘mape’ 或者’mean_absolute_precentage_error’: 表示回归任务,但是使用MAPE 损失函数
    • ‘gamma’: 表示gamma 回归任务。
    • ‘tweedie’: 表示tweedie 回归任务。
    • ‘binary’: 表示二分类任务,使用对数损失函数作为目标函数。
    • ‘multiclass’: 表示多分类任务,使用softmax 函数作为目标函数。必须设置num_class 参数
    • ‘multiclassova’ 或者’multiclass_ova’ 或者’ova’ 或者’ovr’: 表示多分类任务,使用one-vs-all 的二分类目标函数。必须设置num_class 参数
    • ‘xentropy’ 或者’cross_entropy’: 目标函数为交叉熵(同时具有可选择的线性权重)。要求标签是[0,1] 之间的数值。
    • ‘xentlambda’ 或者’cross_entropy_lambda’: 替代了参数化的cross_entropy 。要求标签是[0,1]之间的数值。
    • ‘lambdarank’:表示排序任务。在lambdarank 任务中,标签应该为整数类型,数值越大表示相关性越高。label_gain 参数可以用于设置整数标签的增益(权重)
  • boosting 或者’boost’ 或者 ‘boosting_type’: 一个字符串,给出了基学习器模型算法。可以为:
    • ‘gbdt’: 表示传统的梯度提升决策树。默认值为’gbdt’
    • ‘rf’: 表示随机森林。
    • ‘dart’: 表示带dropout 的gbdt
    • goss:表示Gradient-based One-Side Sampling 的gbdt
  • data或者train或者train_data:一个字符串,给出了训练数据所在的文件的文件名。默认为空字符串。lightgbm将使用它来训练模型。
  • valid或者test或者valid_data或者test_data:一个字符串,表示验证集所在的文件的文件名。默认为空字符串。lightgbm将输出该数据集的度量。如果有多个验证集,则用逗号分隔。
  • num_iterations或者num_iteration或者num_tree或者num_trees或者num_round或者num_rounds或者num_boost_round 一个整数,给出了boosting的迭代次数。默认为 100。
    • 对于python/R包,该参数是被忽略的。对于python,使用train()/cv()的输入参数num_boost_round来代替。
    • 在内部,lightgbm对于multiclass 问题设置了num_class*num_iterations 棵树。
  • learning_rate或者shrinkage_rate: 个浮点数,给出了学习率。默认为1。在dart 中,它还会影响dropped trees 的归一化权重。
  • num_leaves或者num_leaf:一个整数,给出了一棵树上的叶子数。默认为 31
  • tree_learner或者tree:一个字符串,给出了tree learner,主要用于并行学习。 默认为’serial’。 可以为:
    • ‘serial’: 单台机器的tree learner
    • ‘feature’: 特征并行的tree learner
    • ‘data’: 数据并行的tree learner
    • ‘voting’: 投票并行的tree learner
  • num_threads 或者num_thread 或者nthread:一个整数, 给出了lightgbm 的线程数。默认为OpenMP_default。
    • 为了更快的速度,应该将它设置为真正的CPU 内核数,而不是线程的数量(大多数CPU 使用超线程来使每个CPU内核生成2个线程)。
    • 当数据集较小的时候,不要将它设置的过大
    • 对于并行学习,不应该使用全部的CPU核心,因为这会使得网络性能不佳
  • device: 一个字符串,指定计算设备。默认为’cpu’。 可以为’gpu’,’cpu’。
    • 建议使用较小的max_bin 来获得更快的计算速度
    • 为了加快学习速度,GPU 默认使用32位浮点数来求和。你可以设置gpu_use_dp=True 来启动64位浮点数,但是它会使得训练速度降低。

学习控制参数:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • max_depth: 一个整数,限制了树模型的最大深度,默认值为-1。如果小于0,则表示没有限制。
  • min_data_in_leaf 或者 min_data_per_leaf 或者 min_data或者min_child_samples: 一个整数,表示一个叶子节点上包含的最少样本数量。默认值为 20
  • min_sum_hessian_in_leaf 或者 min_sum_hessian_per_leaf或者 min_sum_hessian 或者 min_hessian或者min_child_weight: 一个浮点数,表示一个叶子节点上的最小hessian 之和。(也就是叶节点样本权重之和的最小值) 默认为1e-3 。
  • feature_fraction或者sub_feature或者colsample_bytree:一个浮点数,取值范围为[], 默认值为0。如果小于,则lightgbm 会在每次迭代中随机选择部分特征。如 表示:在每棵树训练之前选择80% 的特征来训练。
  • feature_fraction_seed: 一个整数,表示feature_fraction 的随机数种子,默认为2。
  • bagging_fraction 或者sub_row 或者 subsample:一个浮点数,取值范围为[], 默认值为0。如果小于,则lightgbm 会在每次迭代中随机选择部分样本来训练(非重复采样)。如 表示:在每棵树训练之前选择80% 的样本(非重复采样)来训练。
  • bagging_freq 或者subsample_freq:一个整数,表示每bagging_freq 次执行bagging。如果该参数为0,表示禁用bagging。
  • bagging_seed 或者 bagging_fraction_seed:一个整数,表示bagging 的随机数种子,默认为 3 。
  • early_stopping_round 或者 early_stopping_rounds或者early_stopping:一个整数,默认为0。如果一个验证集的度量在early_stopping_round 循环中没有提升,则停止训练。如果为0则表示不开启早停。
  • lambda_l1 或者reg_alpha: 一个浮点数,表示L1正则化系数。默认为0
  • lambda_l2 或者reg_lambda: 一个浮点数,表示L2正则化系数。默认为0
  • min_split_gain 或者min_gain_to_split: 一个浮点数,表示执行切分的最小增益,默认为0
  • drop_rate: 一个浮点数,取值范围为[],表示dropout 的比例,默认为1。 该参数仅在dart 中使用
  • skip_drop: 一个浮点数,取值范围为[],表示跳过dropout 的概率,默认为5。 该参数仅在dart 中使用
  • max_drop: 一个整数,表示一次迭代中删除树的最大数量,默认为50。 如果小于等于0,则表示没有限制。 该参数仅在dart 中使用
  • uniform_drop:一个布尔值,表示是否想要均匀的删除树,默认值为False。 该参数仅在dart 中使用
  • xgboost_dart_mode: 一个布尔值,表示是否使用xgboost dart 模式,默认值为False。该参数仅在dart 中使用
  • drop_seed: 一个整数,表示dropout 的随机数种子,默认值为 4。 该参数仅在dart 中使用
  • top_rate: 一个浮点数,取值范围为[],表示在goss 中,大梯度数据的保留比例,默认值为2。该参数仅在goss 中使用
  • other_rate: 一个浮点数,取值范围为[],表示在goss 中,小梯度数据的保留比例,默认值为1。该参数仅在goss 中使用
  • min_data_per_group:一个整数,表示每个分类组的最小数据量,默认值为100。用于排序任务
  • max_cat_threshold: 一个整数,表示category 特征的取值集合的最大大小。默认为 32 。
  • cat_smooth: 一个浮点数,用于category 特征的概率平滑。默认值为 10。它可以降低噪声在category 特征中的影响,尤其是对于数据很少的类。
  • cat_l2: 一个浮点数,用于category 切分中的L2 正则化系数。默认为 10 。
  • top_k 或者 topk: 一个整数,用于投票并行中。默认为20 。将它设置为更大的值可以获得更精确的结果,但是会降低训练速度。

IO 参数:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • max_bin: 一个整数,表示最大的桶的数量。默认值为 255。lightgbm 会根据它来自动压缩内存。如max_bin=255 时,则lightgbm 将使用uint8 来表示特征的每一个值。
  • min_data_in_bin: 一个整数,表示每个桶的最小样本数。默认为3。该方法可以避免出现一个桶只有一个样本的情况。
  • data_random_seed: 一个整数,表示并行学习数据分隔中的随机数种子。默认为1它不包括特征并行。
  • output_model或者model_output或者model_out: 一个字符串,表示训练中输出的模型被保存的文件的文件名。默认txt 。
  • input_model或者model_input或者model_in: 一个字符串,表示输入模型的文件的文件名。默认空字符串。对于prediction任务,该模型将用于预测数据,对于train任务,训练将从该模型继续
  • output_result或者 predict_result或者prediction_result:一个字符串,给出了prediction 结果存放的文件名。默认为txt。
  • pre_partition 或者 is_pre_partition: 一个布尔值,指示数据是否已经被划分。默认值为False。 如果为true,则不同的机器使用不同的partition 来训练。它用于并行学习(不包括特征并行)
  • is_sparse或者 is_enable_sparse或者enable_sparse: 一个布尔值,表示是否开启稀疏优化,默认为True。如果为True则启用稀疏优化。
  • two_round 或者two_round_loading或者 use_two_round_loading: 一个布尔值,指示是否启动两次加载。默认值为False,表示只需要进行一次加载。默认情况下,lightgbm 会将数据文件映射到内存,然后从内存加载特征,这将提供更快的数据加载速度。但是当数据文件很大时,内存可能会被耗尽。如果数据文件太大,则将它设置为True
  • save_binary或者is_save_binary或者 is_save_binary_file: 一个布尔值,表示是否将数据集(包括验证集)保存到二进制文件中。默认值为False。如果为True,则可以加快数据的加载速度。
  • verbosity 或者verbose:一个整数,表示是否输出中间信息。默认值为1。如果小于0,则仅仅输出critical 信息;如果等于0,则还会输出error,warning 信息; 如果大于0,则还会输出info 信息。
  • header或者has_header:一个布尔值,表示输入数据是否有头部。默认为False。
  • label 或者label_column:一个字符串,表示标签列。默认为空字符串。你也可以指定一个整数,如label=0 表示第0列是标签列。你也可以为列名添加前缀,如label=prefix:label_name
  • weight 或者weight_column: 一个字符串,表示样本权重列。默认为空字符串。你也可以指定一个整数,如weight=0 表示第0列是权重列。注意:它是剔除了标签列之后的索引。假如标签列为0,权重列为1,则这里weight=0。你也可以为列名添加前缀,如weight=prefix:weight_name
  • query 或者query_column或者gourp 或者group_column: 一个字符串,query/group ID 列。默认为空字符串。你也可以指定一个整数,如query=0 表示第0列是query列。注意:它是剔除了标签列之后的索引。假如标签列为0,query列为1,则这里query=0。你也可以为列名添加前缀,如query=prefix:query_name
  • ignore_column 或者 ignore_feature或者blacklist: 一个字符串,表示训练中忽略的一些列,默认为空字符串。可以用数字做索引,如ignore_column=0,1,2 表示第0,1,2 列将被忽略。注意:它是剔除了标签列之后的索引。
  • 你也可以为列名添加前缀,如ignore_column=prefix:ign_name1,ign_name2
  • categorical_feature 或者categorical_column或者cat_feature或者 cat_column:一个字符串,指定category 特征的列。默认为空字符串。可以用数字做索引,如categorical_feature=0,1,2 表示第0,1,2 列将作为category 特征。注意:它是剔除了标签列之后的索引。你也可以为列名添加前缀,如categorical_feature=prefix:cat_name1,cat_name2 在categorycal 特征中,负的取值被视作缺失值。
  • predict_raw_score 或者raw_score或者 is_predict_raw_score:一个布尔值,表示是否预测原始得分。默认为False。如果为True则仅预测原始得分。该参数只用于prediction 任务。
  • predict_leaf_index 或者 leaf_index或者 is_predict_leaf_index: 一个布尔值,表示是否预测每个样本在每棵树上的叶节点编号。默认为False。在预测时,每个样本都会被分配到每棵树的某个叶子节点上。该参数就是要输出这些叶子节点的编号。该参数只用于prediction 任务。
  • predict_contrib 或者 contrib或者 is_predict_contrib: 一个布尔值,表示是否输出每个特征对于每个样本的预测的贡献。默认为False。输出的结果形状为[nsamples,nfeatures+1], 之所以+1 是考虑到bais 的贡献。所有的贡献加起来就是该样本的预测结果。该参数只用于prediction 任务。
  • bin_construct_sample_cnt 或者 subsample_for_bin:一个整数,表示用来构建直方图的样本的数量。默认为200000。如果数据非常稀疏,则可以设置为一个更大的值,如果设置更大的值,则会提供更好的训练效果,但是会增加数据加载时间。
  • num_iteration_predict: 一个整数,表示在预测中使用多少棵子树。默认为-1。小于等于0表示使用模型的所有子树。该参数只用于prediction 任务。
  • pred_early_stop:一个布尔值,表示是否使用早停来加速预测。默认为False。如果为True,则可能影响精度。
  • pred_early_stop_freq: 一个整数,表示检查早停的频率。默认为10
  • pred_early_stop_margin: 一个浮点数,表示早停的边际阈值。默认为0
  • use_missing: 一个布尔值,表示是否使用缺失值功能。默认为True如果为False 则禁用缺失值功能。
  • zero_as_missing: 一个布尔值,表示是否将所有的零(包括在libsvm/sparse矩阵 中未显示的值)都视为缺失值。 默认为False。如果为False,则将nan 视作缺失值。如果为True,则 和 零都将视作缺失值。
  • init_score_file: 一个字符串,表示训练时的初始化分数文件的路径。默认为空字符串,表示train_data_file+”.init” (如果存在)
  • valid_init_score_file: 一个字符串,表示验证时的初始化分数文件的路径。默认为空字符串,表示valid_data_file+”.init” (如果存在)。如果有多个(对应于多个验证集),则可以用逗号, 来分隔。

目标函数的参数:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • sigmoid: 一个浮点数,用sigmoid 函数的参数,默认为0。它用于二分类任务和lambdarank 任务。
  • alpha: 一个浮点数,用于Huber 损失函数和Quantile regression ,默认值为0。它用于huber回归任务和Quantile 回归任务。
  • fair_c: 一个浮点数,用于Fair 损失函数,默认值为0 。它用于fair 回归任务。
  • gaussian_eta: 一个浮点数,用于控制高斯函数的宽度,默认值为0 。它用于regression_l1 回归任务和huber回归任务。
  • posson_max_delta_step: 一个浮点数,用于Poisson regression 的参数,默认值为7 。它用于poisson 回归任务。
  • scale_pos_weight: 一个浮点数,用于调整正样本的权重,默认值为0它用于二分类任务。
  • boost_from_average: 一个布尔值,指示是否将初始得分调整为平均值(它可以使得收敛速度更快)。默认为True。它用于回归任务。
  • is_unbalance或者unbalanced_set : 一个布尔值,指示训练数据是否均衡的。默认为True。它用于二分类任务。
  • max_position: 一个整数,指示将在这个NDCG 位置优化。默认为 20 。它用于lambdarank 任务。
  • label_gain: 一个浮点数序列,给出了每个标签的增益。默认值为0,1,3,7,15,….它用于lambdarank 任务。
  • num_class或者num_classes : 一个整数,指示了多分类任务中的类别数量。默认为 1它用于多分类任务。
  • reg_sqrt: 一个布尔值,默认为False。如果为True,则拟合的结果为:label−−−−√ 。同时预测的结果被自动转换为:pred2 。它用于回归任务。

度量参数:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

  • metric:一个字符串,指定了度量的指标,默认为:对于回归问题,使用l2 ;对于二分类问题,使用binary_logloss;对于lambdarank 问题,使用ndcg。如果有多个度量指标,则用逗号, 分隔。
    • ‘l1’ 或者 mean_absolute_error或者 mae或者 regression_l1: 表示绝对值损失
    • ‘l2’ 或者mean_squared_error或者 mse或者 regression_l2或者 regression:表示平方损失
    • ‘l2_root’ 或者root_mean_squared_error或者 rmse:表示开方损失
    • ‘quantile’: 表示Quantile 回归中的损失
    • ‘mape’ 或者 ‘mean_absolute_percentage_error’ :表示MAPE 损失
    • ‘huber’: 表示huber 损失
    • ‘fair’: 表示fair 损失
    • ‘poisson’: 表示poisson 回归的负对数似然
    • ‘gamma’: 表示gamma 回归的负对数似然
    • ‘gamma_deviance’: 表示gamma 回归的残差的方差
    • ‘tweedie’: 表示Tweedie 回归的负对数似然
    • ‘ndcg’: 表示NDCG
    • ‘map’ 或者’mean_average_precision’: 表示平均的精度
    • ‘auc’: 表示AUC
    • ‘binary_logloss’或者’binary’: 表示二类分类中的对数损失函数
    • ‘binary_error’: 表示二类分类中的分类错误率
    • ‘multi_logloss’或者 ‘multiclass’或者 ‘softmax’或者 ‘multiclassova’或者 ‘multiclass_ova’,或者’ova’或者 ‘ovr’: 表示多类分类中的对数损失函数
    • ‘multi_error’: 表示多分类中的分类错误率
    • ‘xentropy’或者’cross_entropy’: 表示交叉熵
    • ‘xentlambda’ 或者’cross_entropy_lambda’: 表示intensity 加权的交叉熵
    • ‘kldiv’或者’kullback_leibler’: 表示KL 散度
  • metric_freq或者’output_freq’:一个正式,表示每隔多少次输出一次度量结果。默认为1。
  • train_metric 或者training_metric或者 is_training_metric: 一个布尔值,默认为False。如果为True,则在训练时就输出度量结果。
  • ndcg_at 或者 ndcg_eval_at 或者eval_at: 一个整数列表,指定了NDCG 评估点的位置。默认为1,2,3,4,5 。

参考链接:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

调参示例:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

1文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

2文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

3文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

4文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

5文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

6文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

7文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

8文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

9文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

10文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

11文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

12文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

13文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

14文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

15文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

16文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

17文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

18文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

19文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

20文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

21文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

22文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

23文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

24文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

25文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

26文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

27文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

28文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

29文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

30文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

31文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

32文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

33文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

34文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

35文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

36文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

37文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

38文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

39

import lightgbm as lgb文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

X = [:,:-1]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

y = [:,-1]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

category_feature=[0,1,2,3,4,5,6,7,8,9,10,11,12,13]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

cv_params = {文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'num_leaves': [13,14,15],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'max_depth': [-1,4,6,8],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'learning_rate': [],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'n_estimators':[10,15,20],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'min_child_samples':[15,20,25],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'subsample':[],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'colsample_bytree':[],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'reg_alpha':[0,1,2,3,5,8],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'reg_lambda':[7,8,9,10],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'num_iterations':[30,40,50],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'min_data_in_leaf': [30, 50, 100, 300, 400],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

#     'cat_smooth':[150,160,170,180,190]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

}文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# cv_params = {'learning_rate': [0.06,]}文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

other_params = {文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'max_depth' : 4,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'num_leaves': 15,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'learning_rate': ,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'cat_smooth':180,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'num_iterations':100,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'colsample_bytree': ,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'subsample': ,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'reg_alpha':3,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'reg_lambda':9,文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

}文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

model_lgb = (**other_params)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

optimized_lgb = GridSearchCV(estimator=model_lgb, param_grid=cv_params, scoring='r2', cv=5, verbose=1, n_jobs=2)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

(X, y, categorical_feature=category_feature)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print('参数的最佳取值:{0}'.format())文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print('最佳模型得分:{0}'.format())文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print(['mean_test_score'])文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print(['params'])

sklearn接口形式的LightGBM示例

1文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

2文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

3文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

4文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

5文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

6文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

7文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

8文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

9文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

10文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

11文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

12文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

13文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

14文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

15文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

16文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

17文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

18文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

19文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

20文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

21文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

22文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

23文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

24文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

25文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

26文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

27文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

28文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

29文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

30文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

31文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

32文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

33文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

34

import lightgbm as lgb文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.metrics import mean_squared_error文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.model_selection import GridSearchCV文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.datasets import load_iris文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.model_selection import train_test_split文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 加载数据文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

iris = load_iris()文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

data = iris.data文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

target = iris.target文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 创建模型,训练模型文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

gbm = (objective='regression', num_leaves=31, learning_rate=, n_estimators=20)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

(X_train, y_train, eval_set=[(X_test, y_test)], eval_metric='l1', early_stopping_rounds=5)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 测试机预测文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

y_pred = (X_test, num_iteration=)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 模型评估文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print('The rmse of prediction is:', mean_squared_error(y_test, y_pred) ** )文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# feature importances文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print('Feature importances:', list())文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 网格搜索,参数优化文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

estimator = (num_leaves=31)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

param_grid = {文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'learning_rate': [0.01, 0.1, 1],文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'n_estimators': [20, 40]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

}文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

gbm = GridSearchCV(estimator, param_grid)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

(X_train, y_train)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print('Best parameters found by grid search are:', )

原生形式使用lightgbm

1文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

2文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

3文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

4文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

5文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

6文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

7文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

8文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

9文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

10文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

11文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

12文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

13文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

14文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

15文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

16文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

17文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

18文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

19文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

20文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

21文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

22文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

23文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

24文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

25文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

26文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

27文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

28文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

29文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

30文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

31文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

32文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

33文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

34文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

35文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

36文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

37文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

38文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

39

import lightgbm as lgb文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.metrics import mean_squared_error文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.datasets import load_iris文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

from sklearn.model_selection import train_test_split文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

iris = load_iris()文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

data = iris.data文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

target = iris.target文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 创建成lgb特征的数据集格式文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

lgb_train = (X_train, y_train)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

lgb_eval = (X_test, y_test, reference=lgb_train)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 将参数写成字典下形式文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

params = {文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'task': 'train',文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'boosting_type': 'gbdt',  # 设置提升类型文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'objective': 'regression',  # 目标函数文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'metric': {'l2', 'auc'},  # 评估函数文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'num_leaves': 31,  # 叶子节点数文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'learning_rate': ,  # 学习速率文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'feature_fraction': ,  # 建树的特征选择比例文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'bagging_fraction': ,  # 建树的样本采样比例文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'bagging_freq': 5,  # k 意味着每 k 次迭代执行bagging文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

'verbose': 1  # <0 显示致命的, =0 显示错误 (警告), >0 显示信息文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

}文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 训练 cv and train文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

gbm = (params, lgb_train, num_boost_round=20, valid_sets=lgb_eval, early_stopping_rounds=5)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 保存模型到文件文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

('')文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 预测数据集文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

y_pred = (X_test, num_iteration=)文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

# 评估模型文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html

print('The rmse of prediction is:', mean_squared_error(y_test, y_pred) ** )

参数速查

xgblgbxgb.sklearnlgb.sklearn
booster=’gbtree’boosting=’gbdt’booster=’gbtree’boosting_type=’gbdt’
objective=’binary:logistic’application=’binary’objective=’binary:logistic’objective=’binary’
max_depth=7num_leaves=2**7max_depth=7num_leaves=2**7
eta=0.1learning_rate=0.1learning_rate=0.1learning_rate=0.1
num_boost_round=10num_boost_round=10n_estimators=10n_estimators=10
gamma=0min_split_gain=0.0gamma=0min_split_gain=0.0
min_child_weight=5min_child_weight=5min_child_weight=5min_child_weight=5
subsample=1bagging_fraction=1subsample=subsample=
colsample_bytree=feature_fraction=1colsample_bytree=colsample_bytree=
alpha=0lambda_l1=0reg_alpha=0.0reg_alpha=0.0
lambda=1lambda_l2=0reg_lambda=1reg_lambda=0.0
scale_pos_weight=1scale_pos_weight=1scale_pos_weight=1scale_pos_weight=1
seedbagging_seed feature_fraction_seedrandom_state=888random_state=888
nthreadnum_threadsn_jobs=4n_jobs=4
evalsvalid_setseval_seteval_set
eval_metricmetriceval_metriceval_metric
early_stopping_roundsearly_stopping_roundsearly_stopping_roundsearly_stopping_rounds
verbose_evalverbose_evalverboseverbose
文章源自菜鸟学院-https://www.cainiaoxueyuan.com/suanfa/17962.html
  • 本站内容整理自互联网,仅提供信息存储空间服务,以方便学习之用。如对文章、图片、字体等版权有疑问,请在下方留言,管理员看到后,将第一时间进行处理。
  • 转载请务必保留本文链接:https://www.cainiaoxueyuan.com/suanfa/17962.html

Comment

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定