对大家有帮助的问答会被标记为“推荐”,看完课程过来浏览一下别人提的问题,会帮你学得更全面
老师,GBDT多分类中,第0棵树初始化的概率没有用吗,第一棵树的y,不是真实的标签-初始化概率吗
老师好,GBDT用于特征组合降维,是先有了模型之后,将特征作为输入,通过模型再进行特征的划分吧?随着划分的进行,假如特征都是列向量,共n列,那么每一次划分就横向切一刀,随着不断地横切,到叶子节点时,可能有些叶子节点时,可能有些特征的值就很稀疏,甚至可能为0吧,这个时候特征为0的就可以忽略吧,然后把还有值的特征进行组合。组合出来特征的数量与GBDT模型本身的trees的数量以及树的节点数目相关。我是这么理解的,不知道正确不?
老师好,对于adaboost通常分裂出的决策桩,它的分裂方式大多都是按照cart的gini系数来进行分裂的吧,那么对于信息增益与信息增益率是不是也可以呢?是不是总体来说用cart会好一些?
老师你好:
gmm进行男女语音样本分类的时候,这里分别对男女训练两个gmm_male,gmm_female模型,并且设置n_componets=8,而语音样本通过mfcc已经变为很多个特征维度,gmm模型是分维度去做参数估计的,那么对于gmm_male模型来说,难道就是说男人的语音样本的分布是由8个高斯分布混合而成,每个高斯分布代表一个维度吗,训练出这8个高斯分布的参数,待参数稳定收敛后,我们就可以计算γ,看测试样本有多大的概率符合这个男人的语音样本分布是吗?也就是score
如果以上我理解的都对,那么训练样本的维度不一定是8个啊,如果多余8个怎么办?是需要对样本数据进行降维吗?降到8个,然后再训练gmm_male。
在pca降维时,如果无法投影到超平面坐标,我们会通过核函数来升维,在高维度空间投影后进行降维,使得降维后的维度比初始维度小。那么实际操作时无法投影到超平面坐标的具体表现是什么样的呢?就是说,我们怎么能够直到,我们需要用kpca,而不是普通的pca
EM算法中的E-STEP过程中,p(x_i,z_i;θ)/Q_i(z_i) = constant,令constant=Σ_{z} p(x_i,z_i;θ)=p(x_i;θ),
那么Q_i(z_i)=γ=p(z_i|x_i;θ),但是这里的p(x_i;θ)因为什么是一个常量呢?而且这么多constant不去选择,
为何偏偏选择这个作为常量?
老师你好,svd是可以帮助我们求协方差矩阵的特征向量,就是v,但是它具体是怎么回避XTX的特征分解的呢?难道说svd有不用求特征向量与特征值的方法,采用更高效容易的方式进行奇异值分解吗?
老师好:我有点不太明白SMO算法中,选择第一个变量的时候说的违反KKT条件,这个KKT条件是怎么来的?
我知道原始SVM问题是一个二次优化问题,通过KKT条件来求解,优化空间从w与b变换到了α空间进行优化,此时仍然带着原始问题的KKT条件。接着对α的求解我们采用SMO算法,虽然SMO的求解思路是大二次优化问题花间为多个二元的小二次优化问题,但是求解的思路是直接对二元目标函数直接求导来寻找最优解,并通过约束条件对求导找到的最优解进行剪裁,来得到满足约束条件的最优解。
但是对于优化参数选择中第一个参数的选择上,说找到第一个违反KKT条件的参数α,这里所说的KKT条件是怎么一会事?是指SMO算法所要求解的目标函数的KKT条件吗?如果是这样,在视频中并未提及这个KKT是怎么来的,只是直接给出,我自己试着退了一下,并未得到对应结果,所以想请教老师,在SMO算法选择第一个参数α,所说的KKT条件是怎么来的?
老师你好,超平面是高维度空间中的平面,那么再高维空间它表现是平面,如果从低维角度取理解它是不是就是一个复杂的曲面呢?
为什么代码在pycharm里跑的时候,提示出错,说series对象不能reshape,但是把reshape去掉,同样也会报错,请问该怎么处理
说明:我的package 文件没有带点,我按照老师的方法,但是程序命名不一样,
我这样并不能引用这个,说找不到,原因是我的命名错误么? from package01.1 import my_deca
再讲装饰器的中,是相当于形式参数func变成了参数my_deca?