我有一个多类分类问题,我的数据集有偏差,我有一个特定类的 100 个实例,比如说某个不同类的 10 个实例,所以我想在类之间拆分我的数据集保持比率,如果我有一个特定类的 100 个实例,我希望 30% 的记录进入训练集,我想有 30 个实例,我的 100 个记录表示类和 3 个实例我的 10 条记录代表类等等。
您可以使用 sklearn 的StratifiedKFold
,来自在线文档:
分层 K 折叠交叉验证迭代器
提供训练/测试 用于在训练测试集中拆分数据的索引。
此交叉验证对象 是 KFold 的变体,返回分层折叠。褶皱是 通过保留每个类的样本百分比进行。
>>> from sklearn import cross_validation
>>> X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
>>> y = np.array([0, 0, 1, 1])
>>> skf = cross_validation.StratifiedKFold(y, n_folds=2)
>>> len(skf)
2
>>> print(skf)
sklearn.cross_validation.StratifiedKFold(labels=[0 0 1 1], n_folds=2,
shuffle=False, random_state=None)
>>> for train_index, test_index in skf:
... print("TRAIN:", train_index, "TEST:", test_index)
... X_train, X_test = X[train_index], X[test_index]
... y_train, y_test = y[train_index], y[test_index]
TRAIN: [1 3] TEST: [0 2]
TRAIN: [0 2] TEST: [1 3]
这将保留您的班级比例,以便拆分保留班级比例,这将适用于熊猫 dfs。
正如@Ali_m所建议的,您可以使用接受分流比参数的StratifiedShuffledSplit
:
sss = StratifiedShuffleSplit(y, 3, test_size=0.7, random_state=0)
将产生 70% 的拆分。
简单如下:
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y,
stratify=y,
test_size=0.25)