我正在使用TensorFlow Keras做一个简单的Conv1D来尝试一个时间序列数据集。
数据:
train_df = dff[:177] #get train data
tdf = train_df.shape #get shape = (177,4)
test = tf.convert_to_tensor(train_df)
模型:
model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=tdf),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")
])
lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(5e-4,
decay_steps=1000000,
decay_rate=0.98,
staircase=False)
model.compile(loss=tf.keras.losses.MeanSquaredError(),
optimizer=tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.8),
metrics=['mae'])
model.summary()
简介:
Model: "sequential_13"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
conv1d_16 (Conv1D) (None, 177, 32) 160
_________________________________________________________________
max_pooling1d_8 (MaxPooling1 (None, 176, 32) 0
=================================================================
Total params: 160
Trainable params: 160
Non-trainable params: 0
适合:
trainedModel = model.fit(test,
epochs=100,
steps_per_epoch=1,
verbose=1)
错误引发@ Fit:
ValueError: Input 0 of layer sequential_13 is incompatible with the layer: : expected min_ndim=3, found ndim=2. Full shape received: (2, 1)
从各种SO来看,据说这是由于输入数据的形状。所以我尝试在So中推荐重塑我的数据并重新输入它
重塑:
X_train=np.reshape(test,(test.shape[0], test.shape[1],1))
ValueError: Input 0 of layer sequential_14 is incompatible with the layer: expected axis -1 of input shape to have value 4 but received input with shape (177, 4, 1)
我在这里不知所措。解决这个问题的方法是什么?当前参数值:
tdf = (177,4)
我的假设是:"177个训练样本有4个特征"。
当前错误的原因-模型假设每个样本的形状为(177,4),但当你试图将其传递给模型时,错误出现了
ValueError: Input 0 of layer sequential_13 is incompatible with the layer: :
expected min_ndim=3, found ndim=2. Full shape received: (2, 1)
此错误表示模型期望输入具有3D维度,在这种情况下是模型想要批处理大小。假设有一批16张图像,高=177,宽=4。(虽然您没有图像,但模型期望您如何指定输入形状的原因)。这意味着输入的形状应该是- (batch_size, 177,4)。
这可以通过在model.fit
中传递参数batch_size=1
来解决。如下所示(不修改数据)
trainedModel = model.fit(data,
epochs=100,
steps_per_epoch=1,
batch_size=16,
verbose=1)
但是这会给出另一个错误,如下所示
ValueError: Input 0 of layer sequential_1 is incompatible with the layer: :
expected min_ndim=3, found ndim=2. Full shape received: (None, 4)
现在这个错误意味着传递给模型的输入具有由None
表示的batch_size
和形状为4
的特征向量,但模型期望输入具有形状为(batch_size, height, width)
的特征向量。这里batch_size
是所有模型所期望的,但其余2是我们在定义输入形状时指定的。我们在这里定义了:
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=tdf), # Here We save input_shape = (177,4)
可以看到,input_shape
被定义为height=177, width=4
。(为了便于解释,我使用了高度和宽度,否则就没有高度/宽度,只有尺寸号)。但是,我们希望模型能够接受4
特征的输入。所以,现在我们要把它改成下面的
model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=(4,)),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")
])
但是现在当你尝试运行这个时,你会得到另一个错误,如下所示:
ValueError: Input 0 of layer conv1d_10 is incompatible with the layer: :
expected min_ndim=3, found ndim=2. Full shape received: (None, 4)
需要注意的是由Conv1D引起的错误这是因为这一层期望在3D中输入包括batch_size
,但我们在创建模型时从未指定batch_size
,参数input_shape
应该具有像input_shape = (dim1, dim2)
这样的值,但如果我们只有4
特征,因此只有dim1
而不是dim2
。在这种情况下,我们将重塑我们的输入,使4
成为(4,1)
。这样我们就有了dim1 = 4
和dim2 = 1
。我们将更新我们的model
如下:
model = tf.keras.models.Sequential([
tf.keras.layers.Conv1D(filters=32,
kernel_size=1,
strides=1,
padding="causal",
activation="relu",
input_shape=(4,1)),
tf.keras.layers.MaxPooling1D(pool_size=2, strides=1, padding="valid")
])
现在我们也重塑我们的输入,使形状(177,4, 1)
如下:
train_df = dff[:177]
train_df = train_df.values.reshape(177, 4, 1)
test = tf.convert_to_tensor(train_df)
现在我们可以用它来传递给模型。
trainedModel = model.fit(test,
epochs=100,
steps_per_epoch=1,
verbose=1)
不幸的是,这将给出另一个错误,如下所示。
ValueError: No gradients provided for any variable: ['conv1d_14/kernel:0',
'conv1d_14/bias:0'].
这是因为模型没有得到任何与你的输入X
对应的Y
,因此它不能使用loss function
计算gradients
,因此无法训练。但是它仍然可以用来得到如下输出:
preds = model(test)
preds.shape # Result -> TensorShape([177, 3, 32])