Skip to content

实验

对比实验

详细的实验脚本和输出日志部分请参考 repo.

数据集

我们使用4个数据集进行对比实验,有关数据的细节在下表列出:

数据集 任务 链接 训练集 特征 注释
Higgs 二分类 link 10,500,000 28 使用余下50万个样本作为测试集
Yahoo LTR 机器学习排序 link 473,134 700 set1.train为训练集,set1.test为测试集
MS LTR 机器学习排序 link 2,270,296 137 {S1,S2,S3}为训练集,{S5} 为测试集
Expo 二分类 link 11,000,000 700 使用余下100W个样本作为测试集
Allstate 二分类 link 13,184,290 4228 使用余下100W个样本作为测试集

硬件环境

我们使用一台Linux服务器作为实验平台,具体配置如下:

OS CPU Memory
Ubuntu 14.04 LTS 2 * E5-2670 v3 DDR4 2133Mhz, 256GB

底层

我们使用 xgboost 作为底层算法。

并且 xgboost 和 LightGBM 都基于 OpenMP 构建。

设置

我们为该实验建立了3个设置 , 这些设置的参数如下:

  1. xgboost:
eta = 0.1
max_depth = 8
num_round = 500
nthread = 16
tree_method = exact
min_child_weight = 100

  1. xgboost_hist (使用直方图算法):
eta = 0.1
num_round = 500
nthread = 16
tree_method = approx
min_child_weight = 100
tree_method = hist
grow_policy = lossguide
max_depth = 0
max_leaves = 255

  1. LightGBM:
learning_rate = 0.1
num_leaves = 255
num_trees = 500
num_threads = 16
min_data_in_leaf = 0
min_sum_hessian_in_leaf = 100

xgboost 通过 max_depth 对建树进行深度限制与模型复杂度控制 。

LightGBM 通过 num_leaves 执行带深度限制的 leaf-wise 叶子生长策略与模型复杂度控制。

因此我们无法设置完全相同的模型进行比较。为了相对权衡, 我们在xgboost中设置 max_depth=8 以使叶子数量达到最大数量 255 与 LightGBM 中设置 num_leves=255 进行比较。

其他参数皆为默认值

结论

效率

为了比较效率, 我们只运行没有任何测试或者度量输出的训练进程,并且我们不计算 IO 的时间。

如下是耗时的对比表格:

Data xgboost xgboost_hist LightGBM
Higgs 3794.34 s 551.898 s 238.505513 s
Yahoo LTR 674.322 s 265.302 s 150.18644 s
MS LTR 1251.27 s 385.201 s 215.320316 s
Expo 1607.35 s 588.253 s 138.504179 s
Allstate 2867.22 s 1355.71 s 348.084475 s

我们发现在所有数据集上 LightGBM 都比 xgboost 快。

准确率

为了比较准确率, 我们使用数据集测试集部分的准确率进行公平比较。

Data Metric xgboost xgboost_hist LightGBM
Higgs AUC 0.839593 0.845605 0.845154
Yahoo LTR NDCG<sub>1</sub> 0.719748 0.720223 0.732466
NDCG<sub>3</sub> 0.717813 0.721519 0.738048
NDCG<sub>5</sub> 0.737849 0.739904 0.756548
NDCG<sub>10</sub> 0.78089 0.783013 0.796818
MS LTR NDCG<sub>1</sub> 0.483956 0.488649 0.524255
NDCG<sub>3</sub> 0.467951 0.473184 0.505327
NDCG<sub>5</sub> 0.472476 0.477438 0.510007
NDCG<sub>10</sub> 0.492429 0.496967 0.527371
Expo AUC 0.756713 0.777777 0.777543
Allstate AUC 0.607201 0.609042 0.609167

内存消耗

我们在运行训练任务时监视 RES,并在 LightGBM 中设置 two_round=true (将增加数据载入时间,但会减少峰值内存使用量,不影响训练速度和准确性)以减少峰值内存使用量。

Data xgboost xgboost_hist LightGBM
Higgs 4.853GB 3.784GB 0.868GB
Yahoo LTR 1.907GB 1.468GB 0.831GB
MS LTR 5.469GB 3.654GB 0.886GB
Expo 1.553GB 1.393GB 0.543GB
Allstate 6.237GB 4.990GB 1.027GB

并行测试

数据集

我们使用 terabyte click log 数据集进行并行测试,详细信息如下表:

数据 任务 链接 数据集 特征
Criteo 二分类 link 1,700,000,000 67

该数据集包含了 24 天点击记录,其中有 13 个整数特征与 26 个类别特征。

我们统计了该数据集 26 个类别前十天的点击率和计数,使用接下来十天的数据作为训练集并且该训练集中类别已与点击率和计数相对应。

处理后的训练集共有 17 亿条数据和 67 个特征。

环境

我们使用了 16 台 Windows 服务器作为实验平台,详细信息如下表:

OS CPU Memory Network Adapter
Windows Server 2012 2 * E5-2670 v2 DDR3 1600Mhz, 256GB Mellanox ConnectX-3, 54Gbps, RDMA support

设置:

learning_rate = 0.1
num_leaves = 255
num_trees = 100
num_thread = 16
tree_learner = data

我们在此使用并行数据,因为该数据集数据量大但是特征少。

其他参数皆为默认值

结论

#Machine Time per Tree Memory Usage(per Machine)
1 627.8 s 176GB
2 311 s 87GB
4 156 s 43GB
8 80 s 22GB
16 42 s 11GB

从结果看,我们发现 LightGBM 在分布式学习中可以做到线性加速。

GPU 实验

参考 GPU 性能.


我们一直在努力

apachecn/AiLearning

【布客】中文翻译组