使用make_csv_dataset
,我们可以将CSV文件读取到tensorflow数据集对象
csv_data = tf.data.experimental.make_csv_dataset(
"./train.csv",
batch_size=8190,
num_epochs=1,
ignore_errors=True,)
现在CCD_ 2是CCD_。我怎样才能找到csv_data
的大小或形状。
print(csv_data)
给出的列信息如下
<MapDataset element_spec={'title': TensorSpec(shape=(None,), dtype=tf.string, name=None), 'user_id': TensorSpec(shape=(None,), dtype=tf.string, name=None)}>
当然,使用train_recom.csv
获得can,而pandas.read_csv
是可选的,只是想知道tensorflow是否有更容易的东西。
如果您想在没有任何预处理步骤的情况下获得批量数据集的大小,请尝试:
import pandas as pd
import tensorflow as tf
df = pd.DataFrame(data={'A': [50.1, 1.23, 4.5, 4.3, 3.2], 'B':[50.1, 1.23, 4.5, 4.3, 3.2], 'C':[5.2, 3.1, 2.2, 1., 3.]})
df.to_csv('data1.csv', index=False)
df.to_csv('data2.csv', index=False)
dataset = tf.data.experimental.make_csv_dataset(
"/content/*.csv",
batch_size=2,
field_delim=",",
num_epochs=1,
select_columns=['A', 'B', 'C'],
label_name='C')
dataset_len = len(list(dataset.map(lambda x, y: (x, y))))
print(dataset_len)
5
如果你想知道你总共有多少个样本,试试unbatch
:
dataset_len = len(list(dataset.unbatch().map(lambda x, y: (x, y))))
print(dataset_len)
# 10