如何查找tensorflow.python.data.ops.dataset_ops.MapDataset对象的大小或形



使用make_csv_dataset,我们可以将CSV文件读取到tensorflow数据集对象

csv_data = tf.data.experimental.make_csv_dataset(
"./train.csv",
batch_size=8190,
num_epochs=1,
ignore_errors=True,)

现在CCD_ 2是CCD_。我怎样才能找到csv_data的大小或形状。

print(csv_data)给出的列信息如下

<MapDataset element_spec={'title': TensorSpec(shape=(None,), dtype=tf.string, name=None), 'user_id': TensorSpec(shape=(None,), dtype=tf.string, name=None)}>

当然,使用train_recom.csv获得can,而pandas.read_csv是可选的,只是想知道tensorflow是否有更容易的东西。

如果您想在没有任何预处理步骤的情况下获得批量数据集的大小,请尝试:

import pandas as pd
import tensorflow as tf
df = pd.DataFrame(data={'A': [50.1, 1.23, 4.5, 4.3, 3.2], 'B':[50.1, 1.23, 4.5, 4.3, 3.2], 'C':[5.2, 3.1, 2.2, 1., 3.]})
df.to_csv('data1.csv', index=False)
df.to_csv('data2.csv', index=False)
dataset = tf.data.experimental.make_csv_dataset(
"/content/*.csv",
batch_size=2,
field_delim=",",
num_epochs=1,
select_columns=['A', 'B', 'C'],
label_name='C')
dataset_len = len(list(dataset.map(lambda x, y: (x, y))))
print(dataset_len)
5

如果你想知道你总共有多少个样本,试试unbatch:

dataset_len = len(list(dataset.unbatch().map(lambda x, y: (x, y))))
print(dataset_len)
# 10

相关内容

  • 没有找到相关文章

最新更新