tf.placeholder vs tf.constant



我有一个基本问题!假设我将使用TensorFlow解决问题。我在该代码中编写了10个不同的函数,每个函数都返回Numpy数组,这意味着,每个函数使用占位符,并用tf.session()作为sess:。现在问题是

1) how many graphs will be generated.
2) is it a good programming practice?

**注意:在我使用tf.constant代替TF.Placeholder之前,由于数据很大,TensorFlow显示出以下错误: " ValueError:GraphDef不能大于2GB"

谢谢!

它将只是一个张量图图形,但会断开连接。更好的编程实践是拥有一个可以计算所有十个功能的连接图,而不必致电sess.run十次。

最新更新