LSTM中记忆细胞与时间步长的关系



我正在研究LSTM模型。

LSTM中隐藏层的一个存储单元是否对应于一个时间步长?

示例代码(model.add(LSTM(128,input_shape=(4,1((

在Keras中实现LSTM时,可以设置内存单元的数量,如示例代码中所示,而不考虑时间步长。在本例中为128。

但是,典型的LSTM图像显示为与时间步长的数量和存储单元的数量成1:1对应。正确答案是什么?

在此处输入图像描述

据我所知,时间步长是每次处理的序列长度(=Window_Size(。。。(取决于参数"return_sequences=True/False"(将在每个处理的数据步骤返回多输出或单输出。。。就像这里解释的&显示。。。

这里的解释似乎更好

关于存储器单元-这里的";神经网络中跨时间步长保持某种状态的部分称为存储单元">-让我认为记忆细胞可能是一个";容器"-每个用于窗口序列中每个变量的时间权重,直到在进一步的反向传播过程中更新它们(当statefull=True时(--

更好地看到一次图片在这里记忆细胞&的工作逻辑

知道整个形状的用法-这里-反向传播的time_step

在LSTM中,我们以以下方式提供输入[示例、时间步长、功能]samples是一次要提供的训练示例的数量时间步长是要使用的值的数量假设你提到时间步长=3因此,t、t-1和t-2处的值用于预测t+1处的数据要素是一次要提供的尺寸LSTM有存储单元,但我正在解释代码部分,以免混淆您我希望这能帮助

最新更新