分类神经网络中如何处理培训数据中的系统不确定性(上下)



i具有分类神经网络和名义输入数据,但是对每个功能的输入数据都具有系统的(上下(不确定性。使用这些输入数据不确定性,应如何将分类器的准确性合格和可视化?我有一个使用虹膜数据集组成的简单MWE示例;目的是应该轻松地复制到jupyter笔记本中。

lota进口:

import numpy as np
import datetime
from IPython.display import SVG
from keras.datasets import mnist
from keras import activations
from keras import backend as K
from keras.layers import Dense, Input, concatenate, Conv1D, Conv2D, Dropout, MaxPooling1D, MaxPooling2D
from keras.layers import Dense, Flatten
from keras.models import Model, Sequential, load_model
from keras.utils import plot_model
from keras.utils.vis_utils import model_to_dot
from matplotlib import gridspec
from matplotlib.ticker import NullFormatter, NullLocator, MultipleLocator
from scipy import stats
from sklearn.datasets import load_iris
from sklearn.metrics import auc, roc_curve
from sklearn.model_selection import train_test_split
from vis.utils import utils
from vis.visualization import visualize_activation
from vis.visualization import visualize_saliency
import datetime
import keras
import matplotlib.pylab as plt
import pandas as pd
import random
import seaborn as sns
import talos as ta
sns.set_palette('husl')
sns.set(style='ticks')
import warnings
warnings.filterwarnings('ignore')
%matplotlib inline
plt.rcParams['figure.figsize'] = [10, 10]

让我们加载虹膜数据集并将其限制为两个类,然后准备培训。

iris = load_iris()
df = pd.DataFrame(
    data    = np.c_[iris['data'], iris['target']],
    columns = iris['feature_names'] + ['target']
)
df = df.query('target != 2')
df.head()
df['labels'] = df['target'].astype('category').cat.codes
x = df[['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']]
y = df['target']
# Convert class vectors to binary class matrices using 1 hot encoding.
# 0 ---> 1, 0, 0
# 1 ---> 0, 1, 0
# 2 ---> 0, 0, 1
num_classes = len(y.unique())
y = keras.utils.to_categorical(y, len(y.unique()))
x = np.asarray(x)
y = np.asarray(y)
x = x.reshape(len(x), 4, 1)
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.33, shuffle = True)

让我们制作一些简单的分类模型。

model = Sequential()
model.add(Dense(5, input_shape = (4, 1),         activation = 'tanh'))
model.add(Dropout(rate=0.7))
model.add(Flatten())
model.add(Dense(5,                               activation = 'tanh'))
model.add(Dense(num_classes,                     activation = 'softmax', name = 'preds'))
model.compile(loss = "categorical_crossentropy", optimizer  = "nadam", metrics = ['accuracy'])
model.summary()
SVG(model_to_dot(model).create(prog='dot', format='svg'))

现在要快速培训...

%%time
def model_evaluation(model, x_test, y_test, verbose=False):
    score = model.evaluate(x_test, y_test, verbose=verbose)
    print('max. test accuracy observed:', max(model.history.history['val_acc']))
    print('max. test accuracy history index:', model.history.history['val_acc'].index(max(model.history.history['val_acc'])))
    plt.plot(model.history.history['acc'])
    plt.plot(model.history.history['val_acc'])
    plt.ylabel('accuracy')
    plt.xlabel('epoch')
    plt.legend(['train_accuracy', 'test_accuracy'], loc='best')
    plt.show()
model.fit(
    x_train,
    y_train,
    batch_size      = 2,
    epochs          = 100,
    verbose         = False,
    validation_data = (x_test, y_test),
)
model_evaluation(model, x_test, y_test, verbose=False)

现在,让我们为每个功能添加一些不确定性:

for column in ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']:
    uncertainties_up   = 0.1 * df[column].mean() * np.random.random_sample(size=(len(df)))
    uncertainties_down = df[column].mean() * np.random.random_sample(size=(len(df)))
    df[column + " uncertainty up"] = df[column] + uncertainties_up
df.head()

和现在 实际上是什么,以便给定这些各种输入数据不确定性的分类器?

这是一个有趣的问题。如果我理解您正确的话,您的目标是处理分类设置中的Aleatoric(数据固有(不确定性。

如上所述,一种选择是应用蒙特垃圾辍学物(在训练时使用辍学,并在推断时打开以估算差异(。然而,已经表明,这仅模拟了核心不确定性的部分模型(https://arxiv.org/abs/1703.04977(,质量可能会随着UR模型的表现而变化。如果您走得更远,您还可以检查这项工作(https://arxiv.org/abs/1908.00598(,在其中作者通过神经网引入错误传播,以消除推理时间的采样。也许您的特定情况可能会引起错误传播。

更重要的是,有些作品将所得软敏度的熵作为不确定性估计。事实证明,这对于认知(模型(不确定性失败。但是,如果没有手头上的相应工作,我认为它会为态度的不确定性表现不错,

您需要做什么?在UR嘈杂的数据集上训练UR模型,然后使用SoftMax的熵应与息肉不确定性相关。您可以通过对分类错误绘制绘制来尝试。

最佳

最新更新