如何使用与模型输入形状兼容的tensorflow.data.experimental.CsvDataset创建小批量?



我将使用TensorFlow 2中的tensorflow.data.experimental.CsvDataset来训练小批量。但是张量的形状不适合我模型的输入形状。

请让我知道通过TensorFlow的数据集进行小批量训练的最佳方式是什么。

我尝试了如下:

# I have a dataset with 4 features and 1 label
feature = tf.data.experimental.CsvDataset(['C:/data/iris_0.csv'], record_defaults=[.0] * 4, header=True, select_cols=[0,1,2,3])
label = tf.data.experimental.CsvDataset(['C:/data/iris_0.csv'], record_defaults=[.0] * 1, header=True, select_cols=[4])
dataset = tf.data.Dataset.zip((feature, label))
# and I try to minibatch training:
model = tf.keras.Sequential([tf.keras.layers.Dense(1, input_shape=(4,))])
model.compile(loss='mse', optimizer='sgd')
model.fit(dataset.repeat(1).batch(3), epochs=1)

我得到一个错误:

ValueError:检查输入时出错:需要dense_6_input形状(4,(,但得到具有形状(1,(的阵列

因为:CsvDataset()返回形状为(features, batch)的a张量,但我需要它为(batch, features)的形状。

参考代码:

for feature, label in dataset.repeat(1).batch(3).take(1):
print(feature)
# (<tf.Tensor: id=487, shape=(3,), dtype=float32, numpy=array([5.1, 4.9, 4.7], dtype=float32)>, <tf.Tensor: id=488, shape=(3,), dtype=float32, numpy=array([3.5, 3. , 3.2], dtype=float32)>, <tf.Tensor: id=489, shape=(3,), dtype=float32, numpy=array([1.4, 1.4, 1.3], dtype=float32)>, <tf.Tensor: id=490, shape=(3,), dtype=float32, numpy=array([0.2, 0.2, 0.2], dtype=float32)>)

tf.data.experimental.CsvDataset创建一个数据集,其中数据集的每个元素对应CSV文件中的一行,并由多个张量组成,即每列有一个单独的张量。因此,首先你需要使用数据集的map方法将所有这些张量堆叠成一个张量,以便它与模型预期的输入形状兼容:

def map_func(features, label):
return tf.stack(features, axis=1), tf.stack(label, axis=1)
dataset = dataset.map(map_func).batch(BATCH_SIZE)

相关内容

  • 没有找到相关文章

最新更新