Получи случайную криптовалюту за регистрацию!

Распределённая настройка гиперапараметров с помощью Ray Tune h | PythonDigest

Распределённая настройка гиперапараметров с помощью Ray Tune
https://habr.com/ru/post/667236/?utm_campaign=667236&utm_source=habrahabr&utm_medium=rss

Перед вами третий материал из серии статей, посвящённой настройке гиперпараметров. Если вы только осваиваете эту тему — взгляните на первую (https://www.anyscale.com/blog/what-is-hyperparameter-tuning) статью, в которой говорится о том, что такое настройка гиперпараметров. Во второй (https://www.anyscale.com/blog/how-to-tune-hyperparameters-on-xgboost) части, посвящённой настройке гиперпараметров в XGBoost, мы исследуем практический пример.В первом материале нашей серии, состоящей из трёх частей, мы говорили о том, как подбор гиперпараметров способен помочь в деле поиска оптимальных настроек, позволяющих получить наилучшие результаты от использования моделей машинного обучения. Затем, во втором материале, мы разобрались с тем, как проводить настройку гиперпараметров в XGBoost, и выяснили, что модель, гиперпараметры которой подверглись настройке, даёт более точные прогнозы, чем модель, гиперпараметры которой не модифицировались.