对大家有帮助的问答会被标记为“推荐”,看完课程过来浏览一下别人提的问题,会帮你学得更全面
老师我想问一下,这种GBDT+LR做文本分类效果怎么样,这种用GBDT+LR做分类和直接用GBDT做分类相比有啥优缺点或者他们的应用场景分别是什么
老师我想问一下弱分类器对预测错的样本增加权重之后,下一个弱分类器为什么就能变得更强,就是他是怎么更加注意到这些权重变大的样本的,为什么注意到了这些权重变大的样本分类就更准确了,可以从数学原理上解释一下吗
老师我想问一下验证集和测试集相比有什么本质性的区别吗,或者说验证集到底是怎么评估模型的,他和测试集的功能有什么区别
此处代码warn的原因可能是存在什么问题呢
[object Object]
老师,小树是去拟合-η*gt,为什么加上权重η之后,就变成了拟合负梯度了呢
老师,为什么用回归树结果得到-无穷,+无穷才有意义呢,为什么拿到分类概率就没有意义呢?不太明白这里的意义是指什么
老师,我想问下是不是训练到后面的模型就越好呀,因为是贪婪的 算法,是不是之前的模型的权重会比之后的权重大呀。
利用bagging得到的不同模型有着不同的权重,怎么去判断哪些模型权重大 哪些模型权重小呢?