每次运行代码时,sklearn中的决策边界都会发生变化



在Udacity的机器学习入门课程中,我发现每次运行代码时,代码的结果都会发生变化。正确的值是acc_min_samples_split_2=.908和acc_min_samples_split _2=.912,但当我运行脚本时,有时acc_min _samples_split_2=.1912的值也是如此。这种情况发生在我的本地机器和Udacity中的web界面上。为什么会发生这种情况?

该程序使用python的SciKit学习库。这是我写的代码的一部分:

def classify(features, labels, samples):
# Creates a new Decision Tree Classifier, and fits it based on sample data 
# and a specified min_sample_split value
from sklearn import tree
clf = tree.DecisionTreeClassifier(min_samples_split = samples)
clf = clf.fit(features, labels)
return clf
#Create a classifier with a min sample split of 2, and test its accuracy
clf2 = classify(features_train, labels_train, 2)
acc_min_samples_split_2 = clf2.score(features_test,labels_test)
#Create a classifier with a min sample split of 50, and test its accuracy
clf50 = classify(features_train, labels_train, 50)
acc_min_samples_split_50 = clf50.score(features_test,labels_test)
def submitAccuracies():
return {"acc_min_samples_split_2":round(acc_min_samples_split_2,3),
"acc_min_samples_split_50":round(acc_min_samples_split_50,3)}
print submitAccuracies()

scikit learn中的一些分类器具有随机性质,使用一些PRNG在内部生成随机数。

决策树就是其中之一。检查文档并使用参数random_state使随机行为具有确定性。

只需创建适合您的对象,如:

clf = tree.DecisionTreeClassifier(min_samples_split = samples, random_state=0)  # or any other constant

如果您没有像上面的例子中那样提供random_state或一些种子/整数,那么PRNG将由一些外部源(很可能基于系统时间)进行种子设置,从而在运行该脚本时产生不同的结果。*

两次运行,共享代码和给定的常量将表现相同(忽略一些病态的架构/平台内容)。

相关内容

  • 没有找到相关文章

最新更新