Tensorflow Keras ValueError输入形状



我正在使用TensorFlow Keras做一个简单的Conv1D来尝试一个时间序列数据集。

数据:

train_df = dff[:177] #get train data
tdf = train_df.shape #get shape = (177,4)
test = tf.convert_to_tensor(train_df)

模型:

model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=tdf),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")
])
lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(5e-4,
decay_steps=1000000,
decay_rate=0.98,
staircase=False)
model.compile(loss=tf.keras.losses.MeanSquaredError(),
optimizer=tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.8),
metrics=['mae'])
model.summary()

简介:

Model: "sequential_13"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
conv1d_16 (Conv1D)           (None, 177, 32)           160       
_________________________________________________________________
max_pooling1d_8 (MaxPooling1 (None, 176, 32)           0         
=================================================================
Total params: 160
Trainable params: 160
Non-trainable params: 0

适合:

trainedModel = model.fit(test,
epochs=100,
steps_per_epoch=1,
verbose=1)

错误引发@ Fit:

ValueError: Input 0 of layer sequential_13 is incompatible with the layer: : expected min_ndim=3, found ndim=2. Full shape received: (2, 1)

从各种SO来看,据说这是由于输入数据的形状。所以我尝试在So中推荐重塑我的数据并重新输入它

重塑:

X_train=np.reshape(test,(test.shape[0], test.shape[1],1))

ValueError: Input 0 of layer sequential_14 is incompatible with the layer: expected axis -1 of input shape to have value 4 but received input with shape (177, 4, 1)
我在这里不知所措。解决这个问题的方法是什么?

当前参数值:

  1. tdf = (177,4)我的假设是:"177个训练样本有4个特征"。

当前错误的原因-模型假设每个样本的形状为(177,4),但当你试图将其传递给模型时,错误出现了

ValueError: Input 0 of layer sequential_13 is incompatible with the layer: :
expected min_ndim=3, found ndim=2. Full shape received: (2, 1)

此错误表示模型期望输入具有3D维度,在这种情况下是模型想要批处理大小。假设有一批16张图像,高=177,宽=4。(虽然您没有图像,但模型期望您如何指定输入形状的原因)。这意味着输入的形状应该是- (batch_size, 177,4)。

这可以通过在model.fit中传递参数batch_size=1来解决。如下所示(不修改数据)

trainedModel = model.fit(data,
epochs=100,
steps_per_epoch=1,
batch_size=16,
verbose=1)

但是这会给出另一个错误,如下所示

ValueError: Input 0 of layer sequential_1 is incompatible with the layer: : 
expected min_ndim=3, found ndim=2. Full shape received: (None, 4)

现在这个错误意味着传递给模型的输入具有由None表示的batch_size和形状为4的特征向量,但模型期望输入具有形状为(batch_size, height, width)的特征向量。这里batch_size是所有模型所期望的,但其余2是我们在定义输入形状时指定的。我们在这里定义了:

tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=tdf), # Here We save input_shape = (177,4)

可以看到,input_shape被定义为height=177, width=4。(为了便于解释,我使用了高度和宽度,否则就没有高度/宽度,只有尺寸号)。但是,我们希望模型能够接受4特征的输入。所以,现在我们要把它改成下面的

model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=(4,)),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")
])

但是现在当你尝试运行这个时,你会得到另一个错误,如下所示:

ValueError: Input 0 of layer conv1d_10 is incompatible with the layer: : 
expected min_ndim=3, found ndim=2. Full shape received: (None, 4)

需要注意的是由Conv1D引起的错误这是因为这一层期望在3D中输入包括batch_size,但我们在创建模型时从未指定batch_size,参数input_shape应该具有像input_shape = (dim1, dim2)这样的值,但如果我们只有4特征,因此只有dim1而不是dim2。在这种情况下,我们将重塑我们的输入,使4成为(4,1)。这样我们就有了dim1 = 4dim2 = 1。我们将更新我们的model如下:

model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=(4,1)),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")
])

现在我们也重塑我们的输入,使形状(177,4, 1)如下:

train_df = dff[:177]
train_df = train_df.values.reshape(177, 4, 1)
test = tf.convert_to_tensor(train_df)

现在我们可以用它来传递给模型。

trainedModel = model.fit(test,
epochs=100,
steps_per_epoch=1,
verbose=1)

不幸的是,这将给出另一个错误,如下所示。

ValueError: No gradients provided for any variable: ['conv1d_14/kernel:0',
'conv1d_14/bias:0'].

这是因为模型没有得到任何与你的输入X对应的Y,因此它不能使用loss function计算gradients,因此无法训练。但是它仍然可以用来得到如下输出:

preds = model(test)
preds.shape # Result -> TensorShape([177, 3, 32])

相关内容

  • 没有找到相关文章

最新更新