Получи случайную криптовалюту за регистрацию!

Как интерпретировать регуляризацию L2 с байесовской точки зрен | Machine learning Interview

Как интерпретировать регуляризацию L2 с байесовской точки зрения?

Где p (β | y, X) - апостериорное распределение, p (β) - априорное распределение, а p (y | X, β) - функция правдоподобия. Когда игнорируется априорное распределение и максимизируется только функция правдоподобия для оценки β, у нас нет никакой регуляризации. Имея предположения о предварительном распределении, мы добавляем регуляризацию, что означает, что мы накладываем некоторые ограничения на то, какое значение β может быть выбрано для этой модели. Для L2-регуляризации мы добавляем предположение, что β следует нормальному распределению со средним значением, равным нулю.

Для получения дополнительной информации о байесовской статистике вы можете прочитать следующую статью

@machinelearning_interview