tf.data,用不同的数据构建一个批处理?



我想用tf.data构造一批批量大小为 16 的数据,其中[:8]是一种数据 A,[8:16]是一种数据 B。

没有tf.data很容易做到.如果使用tf.data,则代码可以是:

def _decode_record(record, name_to_features):
example = tf.parse_single_example(record, name_to_features)
return example
dataA = tf.data.TFRecordDataset(input_files)
dataA = dataA.apply(
tf.contrib.data.map_and_batch(
lambda record: _decode_record(record, name_to_features),
batch_size=batch_size)
)

接下来该怎么做? 我尝试:

dataB = tf.data.TFRecordDataset(input_files2)
dataB = dataB.apply(
tf.contrib.data.map_and_batch(
lambda record: _decode_record(record, name_to_features),
batch_size=batch_size)
)
dataC = dataA.concatenate(dataB)

concatenate是:将整个数据集dataB附加到dataA末尾。

对于concatenate,请注意name_to_features对于dataAdataB应该是相同的,这意味着我应该填充很多虚拟数据。

我不想用tf.condtf.where来判断tf.estimatormodel_fn内的不同数据,调试起来也非常困难。

您可以将数据集压缩在一起,然后从 (dataA, dataB( 对构造批处理:

import tensorflow as tf
dataset_1 = tf.data.Dataset.from_tensors(1).repeat(100)
dataset_2 = tf.data.Dataset.from_tensors(2).repeat(100)
dataset = tf.data.Dataset.zip((dataset_1, dataset_2))
dataset = dataset.batch(8)
dataset = dataset.map(lambda a, b: tf.concat([a, b], 0))

生产

tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
...

一种解决方案是判断不同的数据:

import tensorflow as tf
data_type = tf.constant([1, 2, 1, 2])
where_index1 = tf.where(tf.equal(data_type, 1))
where_index2 = tf.where(tf.equal(data_type, 2))
data = tf.constant([[10,10],[20,20],[30,30],[40,40]])
data1 = tf.gather_nd(data,where_index1)
data2 = tf.gather_nd(data,where_index2)
sess = tf.Session()
print(sess.run(data1))
print(sess.run(data2))

但这个答案只是以某种方式绕过了这个问题。

相关内容

  • 没有找到相关文章

最新更新