Результат обратного распространения и обучения Для шага обрат | Python School
Результат обратного распространения и обучения
Для шага обратного распространения нам нужно сначала запустить optimizer.zero_grad(). Это устанавливает градиент в ноль перед запуском обратного распространения, поскольку мы не хотим накапливать градиент за последующие проходы.
Метод loss.backward() использует потери для вычисления градиента, затем мы используем Optimizer.step() для обновления весов.