我想用tf.data
构造一批批量大小为 16 的数据,其中[:8]
是一种数据 A,[8:16]
是一种数据 B。
没有tf.data
很容易做到.如果使用tf.data
,则代码可以是:
def _decode_record(record, name_to_features):
example = tf.parse_single_example(record, name_to_features)
return example
dataA = tf.data.TFRecordDataset(input_files)
dataA = dataA.apply(
tf.contrib.data.map_and_batch(
lambda record: _decode_record(record, name_to_features),
batch_size=batch_size)
)
接下来该怎么做? 我尝试:
dataB = tf.data.TFRecordDataset(input_files2)
dataB = dataB.apply(
tf.contrib.data.map_and_batch(
lambda record: _decode_record(record, name_to_features),
batch_size=batch_size)
)
dataC = dataA.concatenate(dataB)
但concatenate
是:将整个数据集dataB
附加到dataA
末尾。
对于concatenate
,请注意name_to_features
对于dataA
和dataB
应该是相同的,这意味着我应该填充很多虚拟数据。
我不想用tf.cond
或tf.where
来判断tf.estimator
model_fn
内的不同数据,调试起来也非常困难。
您可以将数据集压缩在一起,然后从 (dataA, dataB( 对构造批处理:
import tensorflow as tf
dataset_1 = tf.data.Dataset.from_tensors(1).repeat(100)
dataset_2 = tf.data.Dataset.from_tensors(2).repeat(100)
dataset = tf.data.Dataset.zip((dataset_1, dataset_2))
dataset = dataset.batch(8)
dataset = dataset.map(lambda a, b: tf.concat([a, b], 0))
生产
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
tf.Tensor([1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2], shape=(16,), dtype=int32)
...
一种解决方案是判断不同的数据:
import tensorflow as tf
data_type = tf.constant([1, 2, 1, 2])
where_index1 = tf.where(tf.equal(data_type, 1))
where_index2 = tf.where(tf.equal(data_type, 2))
data = tf.constant([[10,10],[20,20],[30,30],[40,40]])
data1 = tf.gather_nd(data,where_index1)
data2 = tf.gather_nd(data,where_index2)
sess = tf.Session()
print(sess.run(data1))
print(sess.run(data2))
但这个答案只是以某种方式绕过了这个问题。