2021-05-14 21:54:33
#AI #ML По техническим причинам вебинар представлен не в полном объеме теоретической части. Недостающую информацию можно будет найти в прикрепленной презентации. Ближе к концу практикума мы обязательно дозапишем теоретическую часть.
По мотивам вебинара про NLP
Соревнование CommonLit Readability Prize:
1) Ноутбук для обучения.
https://www.kaggle.com/simakov/lama-bert-starter
В этом ноутбуке можно обратить внимание на две истории. Первая, как передать веса transformer модели напрямую в автомл. Вторая - если вы хотите сэкономить оперативную память, то можно сохранять чекпоинты модели на диск при помощи аргумента 'path_to_save' нейронной сети. Кроме того, ноутбук демонстрирует работу методов интерпретации. Интересный вывод, что на сложность восприятия текста сильно влияют артикли и местоимения.
2) Ноутбук для сабмита.
http://www.kaggle.com/simakov/lama-bert-inference
Стоит отметить, что необходимо сохранить структуру директории, как во время обучения, поэтому мы дополнительно копируем веса наших моделей в правильную папку (ячейка 3 ноутбука).
Скор на паблике: 505.
109 viewsOleg Mazurenko, 18:54