如何发现数据集中的哪些要素具有预测性



我正在为此处提供的数据集开发机器学习算法。

有 26 列数据。其中大部分是毫无意义的。如何有效快速地确定哪些特征是有趣的 - 哪些特征以一种或另一种方式告诉我给定的 URL 是临时的还是常绿的(这是数据集中的因变量)?是否有智能的、程序化的 scikit 学习方法来做到这一点,或者只是将每个特征与依赖特征("标签",第 26 列)进行图形化并查看效果?

肯定有比这更好的方法!

谁能帮忙?:)

编辑:我找到的分类器的一些代码 - 如何打印出这里赋予每个功能的权重?

import numpy as np
import matplotlib.pyplot as plt
  from sklearn import metrics,preprocessing,cross_validation
  from sklearn.feature_extraction.text import TfidfVectorizer
  import sklearn.linear_model as lm
  import pandas as p
  loadData = lambda f: np.genfromtxt(open(f,'r'), delimiter=' ')
  print "loading data.."
  traindata = list(np.array(p.read_table('train.tsv'))[:,2])
  testdata = list(np.array(p.read_table('test.tsv'))[:,2])
  y = np.array(p.read_table('train.tsv'))[:,-1]
  tfv = TfidfVectorizer(min_df=3,  max_features=None, strip_accents='unicode',  
        analyzer='word',token_pattern=r'w{1,}',ngram_range=(1, 2), use_idf=1,smooth_idf=1,sublinear_tf=1)
  rd = lm.LogisticRegression(penalty='l2', dual=True, tol=0.0001, 
                             C=1, fit_intercept=True, intercept_scaling=1.0, 
                             class_weight=None, random_state=None)
  X_all = traindata + testdata
  lentrain = len(traindata)
  print "fitting pipeline"
  tfv.fit(X_all)
  print "transforming data"
  X_all = tfv.transform(X_all)
  X = X_all[:lentrain]
  X_test = X_all[lentrain:]
  print "20 Fold CV Score: ", np.mean(cross_validation.cross_val_score(rd, X, y, cv=20, scoring='roc_auc'))
  print "training on full data"
  rd.fit(X,y)
  pred = rd.predict_proba(X_test)[:,1]
  testfile = p.read_csv('test.tsv', sep="t", na_values=['?'], index_col=1)
  pred_df = p.DataFrame(pred, index=testfile.index, columns=['label'])
  pred_df.to_csv('benchmark.csv')
  print "submission file created.."

许多拟合的scikit-learn估计器都有一个属性feature_importances_(线性模型除外,它称之为coef_),其中包含某种特征权重。权重越高通常意味着特征对最终预测的贡献更大,这可以解释为这些特征更具预测性。(*)

这些属性包含 NumPy 数组,其形状(n_features,)用于二元分类、回归和非线性模型,(n_features, n_classes)用于多类线性模型。

有关如何使用这些属性,请参阅文档分类示例。

(*) 所有关于过度拟合的常见警告都适用:在一个糟糕的模型中,错误的特征可能会获得更高的权重。

相关内容

  • 没有找到相关文章

最新更新