2022-04-22 13:32:33
#длясправки
В машинном обучении (и много где ещё) любят аббревиатуры, интересно, когда такие аббревиатуры одновременно обозначают два разных понятия. Есть избитые примеры типа NLP (Natural Language Processing, NonLinear Programming, Neuro-Linguistic Programming), но всё таки это расшифровки из совершенно разных областей (и в ML путаницы нет), а вот несколько "внутриобластных" примеров.
SOTA – Вы, конечно, сразу подумали про State of the Art (тогда правильнее писать SotA), но есть ещё такой алгоритм Self Organizing Tree Algorithm. И самое забавное, что если Вы хотите погуглить, какой сейчас самый лучший алгоритм кластеризации, то на запрос "SOTA clustering" в гугле будет выдаваться именно этот. Неплохой маркетинговый ход;)
SGD – на ум приходит Stochastic gradient descent, но некоторые NLP-шники скажут, что есть такой набор данных Schema-Guided Dialogue dataset (SGD), в статьях и блог-постах гугла на него ссылаются как на SGD.
LDA – это классика: Latent Dirichlet Allocation и Linear Discriminant Analysis, хотя, кто в современном мире вспоминает термин "линейный дискриминантный анализ"?
Какие Вы ещё знаете "накладки" в аббревиатурах?
2.4K viewsedited 10:32