对大家有帮助的问答会被标记为“推荐”,看完课程过来浏览一下别人提的问题,会帮你学得更全面
class TextClassfier: def __init__(self): self.classfier=MultinomialNB(), self.cv=CountVectorizer(max_features=4000) def features(self,x): return self.cv.transform(x) def fit(self,x,y): self.cv.fit(x) self.classfier.fit(self.features(x),y) def score(self,x,y): return self.model.score(self.features(x),y) def predict(self,x,y): return self.model.predict(self.features([x]))
model=TextClassfier() model.fit(x_train,y_train) display(model.socre(x_test,y_test)) display(model.predict(['中旬 备战 冲刺']))
老师 分类器为什么会是tuple类型呢?
老师 数据集的处理与划分,模型的选择和您的一样 为什么最后model.score()得到的评估分数和您的不一样呢,而且很低,是什么原因呢?
cv=CountVectorizer(max_features=4000) model.fit(cv.fit_transform(x_train),y_train) model.fit(cv.transform(x_train),y_train)
老师 cv.fit_transform与cv.transform有什么区别吗?
cv=CountVectorizer(max_features=4000)
老师 max_features是指挑选4000个词汇并指定唯一的ID吗
dictionary=corpora.Dictionary(segments)
老师 通过corproa.Dictionary生成的是语料库吗?
for line in data.content.values: segs=jieba.lcut(line) segs=filter(lambda x: len(x.strip())>1,segs)
老师 filter是对传入的列表对象中的每一个元素使用匿名函数吗?
老师 这两种热编码方式有什么不同吗?
OneHotEncoder.fit_transform OneHotEncoder.transform
老师 这两种编码方式有什么不同吗?
OneHotEncoder.fit_transform OneHotEncoder.transfor
lr=LogisticRegression(max_iter=1000)
老师 这个max_iter=1000是将所有的训练数据切分成1000份进行训练还是将所有数据看作一个整体训练1000次呢?
data_con_end=pca.fit_transform(data_con)
老师 使用pca对连续型数据进行处理 为什么会对特征值报错呢?
老师 使用PCA无法对连续型数据降维吗?
data_bin=data_bin.astype(str) data_bin_res=pca.fit_transform(data_bin)
我已经将数据类型转化为字符串类型了,但是使用pca时候报错