AMSGrad.py如下。AMSGrad.py
然而,我必须将它们转换为keras.optimizer.POptimizer,以便在tensorflow model.comfile((中使用它们
如果你查看Keras优化器的源代码,你会发现它有AMSGrad.py优化器的一个子集函数。您可以简单地复制函数在校正部分结束。可能需要进行一些调整。
但是,为什么不简单地将tf.keras.optimizers.Adam
与amsgrad=True一起使用呢?