当我加载一个经过训练的模型并向其提供新的数据以进行预测时(model.prdict(textstr((,我得到:
[[0.3345264 0.33339804 0.33207548]]
该模型使用一个数据帧进行训练,该数据帧看起来像:
text sent
1 Textstring1... 1
2 Textstring2... 2
3 Textstring3... 0
4 Textstring4... 0
5 Textstring5... 2
我如何判断哪个类(已发送,训练值(对应于我得到的输出?上面的0.3345264值是否对应于发送的0作为模型的答案?
以下是该型号及其配置的一些细节:
model = tf.keras.Sequential([
tf.keras.layers.Embedding(VOC, EMB_SIZE),
tf.keras.layers.GlobalAveragePooling1D(),
tf.keras.layers.Dense(node1,activation='relu'),
tf.keras.layers.Dropout(dropout),
tf.keras.layers.Dense(3, activation='softmax')])
model.compile(optimizer='adadelta',
loss='sparse_categorical_crossentropy',
metrics=['sparse_categorical_accuracy'])
提前谢谢。
更新版本2:我使用了类似的标记器来创建train_seqs:
tokenizer = tf.keras.preprocessing.text.Tokenizer(
num_words=WORDS
, oov_token='<UNK>')
tokenizer.fit_on_texts(train_df['text'])
#convert text data to numerical indexes
train_seqs=tokenizer.texts_to_sequences(train_df['text'])
test_seqs=tokenizer.texts_to_sequences(test_df['text'])
#pad data up to SEQ_LEN (note that we truncate if there are more than SEQ_LEN tokens)
train_seqs=tf.keras.preprocessing.sequence.pad_sequences(
train_seqs
, maxlen=SEQ_LEN
, padding="post")
test_seqs=tf.keras.preprocessing.sequence.pad_sequences(
test_seqs
, maxlen=SEQ_LEN
, padding="post")
train_seqs
Out[12]:
array([[ 144, 8, 46, ..., 42, 3, 1734],
[ 6, 315, 277, ..., 44, 2247, 2095],
[ 5, 18, 162, ..., 159, 56, 1483],
...,
[ 9, 132, 76, ..., 194, 234, 1628],
[ 660, 66, 7, ..., 0, 0, 0],
[ 514, 879, 126, ..., 6, 68, 590]], dtype=int32)
train_df['sent'].values
Out[13]: array([1, 0, 2, ..., 0, 1, 0])
history = model.fit(train_seqs, train_df['sent'].values
, batch_size=BATCH_SIZE
, epochs=EPOCHS
, validation_split=0.2
, callbacks=callbacks)
如果我理解正确,您希望预测sent
列,它似乎是一个分类变量,其值可能是0、1或2。你的最后一层是3个神经元(具有softmax激活(,所以你将有3个输出每个推理。我想您对地面实况输出使用了类似One Hot Encoding的东西。预测的顺序将与one Hot Encoder设置的顺序相同。
您是如何准备数据集的地面实况输出的?
更新:
这实际上是一个很好的问题,因为没有太多关于它的文档。我搜索过,在SO上发现了一个类似的问题,所以我在这里询问了更多细节:
如果使用
sparse_categorical_crossentropy
分配给数字0的实际上是类0;您所属的类别分配给数字1实际上是类别1;等等。例如,如果如果使用sklearn中的LabelEncoder,则可以找到此映射via.classes_attribute(请参阅文档和示例(。
希望这能有所帮助!