私はpytorchを使用しており、単純な線形回帰モデルの仕組みを理解しようとしています。私は、単純なLinearRegressionModelクラス使用していpytorchは単純な線形回帰モデルの勾配をどのように計算しますか?
:
class LinearRegressionModel(nn.Module):
def __init__(self, input_dim, output_dim):
super(LinearRegressionModel, self).__init__()
self.linear = nn.Linear(input_dim, output_dim)
def forward(self, x):
out = self.linear(x)
return out
model = LinearRegressionModel(1, 1)
次は私が損失基準とオプティマイザをインスタンス化
最後にcriterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
私は次のコードを使用モデル訓練する:
をfor epoch in range(epochs):
if torch.cuda.is_available():
inputs = Variable(torch.from_numpy(x_train).cuda())
if torch.cuda.is_available():
labels = Variable(torch.from_numpy(y_train).cuda())
# Clear gradients w.r.t. parameters
optimizer.zero_grad()
# Forward to get output
outputs = model(inputs)
# Calculate Loss
loss = criterion(outputs, labels)
# Getting gradients w.r.t. parameters
loss.backward()
# Updating parameters
optimizer.step()
私の質問は、オプティマイザがloss.backward()
、step()
メソッドを使用してパラメータを更新しますか?モデル、損失基準、オプティマイザはどのように結びついていますか?