如何在使用 python 时同时学习两个函数(pytorch 或 tensorflow)?



我有三个系列的观察,即YTX。我想研究两个模型的预测值之间的差异。第一种模式是学习g,这样Y=g(T, X)。第二种模式是学习Lf,以便Y=L(T)f(X)。我在学习使用PyTorch包或Tensorflow包的第一个模型时没有问题。但是,我不确定如何学习Lf.在使用 PyTorch 包时,我可以设置两个具有不同隐藏层和输入的前馈 MLP。为简单起见,我定义了一个前馈 MLP 类,如下所示:

class Feedforward(t.nn.Module): # the definition of a feedforward neural network
# Basic definition
def __init__(self, input_size, hidden_size):
super(Feedforward, self).__init__()
self.input_size = input_size
self.hidden_size  = hidden_size
self.fc1 = t.nn.Linear(self.input_size, self.hidden_size)
self.relu = t.nn.ReLU()
self.fc2 = t.nn.Linear(self.hidden_size, 1)
self.sigmoid = t.nn.Sigmoid()
# Advance definition
def forward(self, x):
hidden = self.fc1(x)
relu = self.relu(hidden)
output = self.fc2(relu)
output = self.sigmoid(output)
return output

假设L=Feedforward(2,10)L=Feedforward(3,9).根据我的理解,我只能学习Lf,但不能同时学习两者。是否可以同时使用YTX来学习Lf

我可能错过了一些东西,但我认为你可以:

L = Feedforward(2,10)
f = Feedforward(3,9)
L_opt = Adam(L.parameters(), lr=...)
f_opt = Adam(f.parameters(), lr=...)
for (x,t,y) in dataset:
L.zero_grad()
f.zero_grad()
y_pred = L(t)*f(x)
loss = (y-y_pred)**2
loss.backward()
L_opt.step()
f_opt.step()

您也可以将它们融合在一个模型中:

class ProductModel(t.nn.Module):
def __init__(self, L, f):
self.L = L
self.f = f
def forward(self, x,t):
return self.L(t)*self.f(x)

然后像训练g一样训练此模型

最新更新