[问题] xgboost 在 python 与 r 上的差异

楼主: f496328mm (为什么会流泪)   2017-05-12 01:17:36
文章分类提示:
- 问题: 当你想要问问题时,请使用这个类别。
建议先到 http://tinyurl.com/mnerchs 搜寻本板旧文。
[问题类型]:
意见调查(我对R 有个很棒的想法,想问问大家的意见)
[软件熟悉度]:
入门(写过其他程式,只是对语法不熟悉)
[问题叙述]:
最近发现 xgboost 在 R 与 python 上好像不太一样,python的好像比较好?
所以拿 iris data 进行测试
python
http://imgur.com/Z9qB7B3
R
http://imgur.com/bu5RN3D
参数都设一样,
发现 python 的表现比较好,1 次 vs 7 次
而且 python 做出的 model 比较好,
在 best_iteration 上也有差异,
所以 python 的 xgboost 比较快也比较强?
作者: a78998042a (Benjimine)   2017-05-12 08:22:00
对结果有兴趣,如果觉得seed可能产生影响,是否直接多做几次? 减轻随机误差,反正iris data set也不大
楼主: f496328mm (为什么会流泪)   2017-05-12 09:14:00
实际上做过多次,甚至其它data,一样发生相同问题,应该跟seed无关
作者: a78998042a (Benjimine)   2017-05-12 09:22:00
您的意思是做过多次python的结果都显著优于r的版本?
楼主: f496328mm (为什么会流泪)   2017-05-12 11:12:00
YES 特别在KAGGLE上 几乎大家都用 python实际上我用 R 去重现对方的 python 效果也比较差可能是因为这个原因 所以比较少人用 R而且我有google找过 其他人也有相同的疑问我认为不太可能因为种子 产生这么大的区别目前不知道原因 只好先转用PYTHON去train model
作者: clansoda (小笨)   2017-05-12 11:39:00
何不直接去问DMLC?
楼主: f496328mm (为什么会流泪)   2017-05-12 12:45:00
已经问了 等待回应
作者: spiderway (spiderway)   2017-05-21 23:32:00
有随机性...
作者: Wush978 (拒看低质媒体)   2017-05-23 15:56:00
直接被close了

Links booklink

Contact Us: admin [ a t ] ucptt.com