Keras将数据批量加载到GPU上(作者在这里注明)。
对于小数据集,这是非常低效的。是否有一种方法可以修改Keras或直接调用Theano函数(在Keras中定义模型后),以允许所有批次被移动到GPU前面,并使用GPU内存中已经完成的批次进行训练?
(几周前有人在Keras列表上问了同样的问题,但到目前为止还没有回复。)
只需将数据硬连接到模型中作为不可训练的嵌入矩阵(使用自定义初始化器嵌入层)。然后你传递给模型的不是训练数据而是一堆索引。适合方法。