如何使用keras为多个输入层正确使用tensorflow数据集



我有多个输入层(20个输入层(,我想使用tf.dataset来馈送模型。batch_size为16。不幸的是,model.fit(train_dataset, epochs=5)抛出以下错误:

ValueError:检查模型输入时出错:传递给模型的numpy数组列表不是模型所需的大小。对于输入['put_2',…,'input_21'],应看到20个数组,但却得到了以下1个数组的列表:[lt;tf.Tensor'args_0:0'shape=(None,205512512,3(dtype=int32>]

我假设keras想要像(20,None,512512,3(这样的形状。有人知道这个问题吗?或者如何将tf.dataset正确用于具有多个输入层的模型?

def read_tfrecord(bin_data):
for i in feature_map_dict:
label_seq[i] = tf_input_feature_selector(feature_map_dict[i])
img_seq = {'images': tf.io.FixedLenSequenceFeature([], dtype=tf.string)}
cont, seq = tf.io.parse_single_sequence_example(serialized=bin_data, context_features=label_seq, sequence_features=img_seq)
image_raw = seq['images']
images = decode_image_raw(image_raw)    
images = tf.reshape(images, [20,512,512,3])
images = preprocess_input(images)
label = cont["label"]
return images, label
def get_dataset(tfrecord_path):
dataset = tf.data.TFRecordDataset(filenames=tfrecord_path)
dataset = dataset.map(read_tfrecord)
dataset = dataset.prefetch(buffer_size=AUTOTUNE)
dataset = dataset.batch(BATCH_SIZE)
return dataset
def create_model():
nets =[]
inputs=[]
# Set up base model
base_ResNet50 = ResNet50(weights='imagenet', include_top= False, input_shape=(512, 512, 3))    
for images_idx in list(range(0,20)):
x = Input(shape=(512,512,3))
inputs.append(x)
x = base_ResNet50(x)
nets.append(x)
maxpooling = tf.reduce_max(nets, [0])
flatten = Flatten()(maxpooling)
dense_1 = Dense(10,activation='sigmoid')(flatten)
predictions = Dense(1,activation='sigmoid')(dense_1)
model = Model(inputs=inputs, outputs=predictions)
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
return model

提前谢谢。

通过对Niteya的想法进行一点小小的修改,测试玩具模型开始了训练。太棒了

但我仍然对这个解决方案不满意,因为所有20个图像都属于一个对象,到目前为止,我理解这个解决方案,我必须创建21个tfrecords。这样,一个对象的信息将分布在这些文件中。我想有一个更简单的解决方案,其中一个对象的所有信息都只在一个tfrecord中。

这个测试玩具模型有效!!!

import tensorflow as tf
import tensorflow.keras as keras
from tensorflow.keras.layers import Input, Flatten, Dense
from tensorflow.keras.models import Model
x_1 = Input(shape=(100,100,3))
x_2 = Input(shape=(100,100,3))
inputs = [x_1,x_2]
flatten_1 = Flatten()(x_1)
flatten_2 = Flatten()(x_2)
dense_1 = Dense(50,activation='sigmoid')
d1_1 = dense_1(flatten_1)
d1_2 = dense_1(flatten_2)
nets =[d1_1,d1_2]
maxpooling = tf.reduce_max(nets, [0])
d2 = Dense(10,activation='sigmoid')(maxpooling)
predictions = Dense(1,activation='sigmoid')(d2)
model = Model(inputs=inputs, outputs=predictions)
model.compile(loss='binary_crossentropy', optimizer='adam',
metrics=['accuracy'])
for layer in model.layers:
print(layer.name)
input_d = tf.data.Dataset.zip(tuple(tf.data.Dataset.from_tensors(tf.random.normal([16,100,100,3])) for i in range(2))) 
output = tf.data.Dataset.from_tensors(tf.ones(16))
dataset = tf.data.Dataset.zip((input_d, output))
model.fit(dataset,epochs=5)

将Niteya的第二个想法与函数tf.split结合使用是一个很好的解决方案。尼泰娅,非常感谢。

inputs = Input(shape=(20,512,512,3))
for x in tf.split(inputs,num_or_size_splits=20, axis=1):
x = tf.reshape(x,[-1,512,512,3])
x = base_ResNet50(x)
nets.append(x)```  
and 

BATCH_SIZE=1model.fit(train_dataset,steps_per_epoch=10,历元=5(

您是否考虑过使用CCD_4?你的模型需要输入20个不同的输入,所以把它们压缩在一起,然后把数据集和输出压缩,输出也需要压缩。

我使用的是随机输入,但你应该从中获得方法。

for i in tf.split(tf_record_Input, 20):
x = base_ResNet50(i)
nets.append(x)

https://www.tensorflow.org/api_docs/python/tf/data/Dataset#zip

编辑:使用split,可以完成类似的操作。传递整个数据集,然后对其进行拆分(您可能需要使用axis(。

PD_6

最新更新