Получи случайную криптовалюту за регистрацию!

Data Science News

Логотип телеграм канала @data_science_news — Data Science News D
Логотип телеграм канала @data_science_news — Data Science News
Адрес канала: @data_science_news
Категории: Технологии
Язык: Русский
Количество подписчиков: 406
Описание канала:

Данные, инструменты для них и немного математики.
Чат: @data_science_chat
Для контактов: @telejamm

Рейтинги и Отзывы

1.00

2 отзыва

Оценить канал data_science_news и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

0

2 звезд

0

1 звезд

2


Последние сообщения 4

2021-05-07 16:30:54 Paperspace сравнивает себя с colab. Среди преимуществ отмечается: 30ГБ оперативной памяти на всех инстансах (даже free), бOльший период содержания сессии при бездействии. На платном тарифе больше места для данных, которые не удаляются с машиной, лучше GPU. В блоге не сказано, но платная подписка colab доступна только для США. Так что, если вы решите купить colab pro, то придётся соврать (указав один из ZIP кодов США). Кто работал в colab, знают, что при малейшем промедлении машина отнимается, особенно если она с GPU. Так что заход Paperspace достаточно интересный. Кроме этого, в gradient доступен обычный привычный jupyter. Сейчас не так много вариантов, где можно позапускать свои ML проекты бесплатно или почти бесплатно. Если знаете, ещё варианты, пишите в комментариях.
210 viewsAndrey, 13:30
Открыть/Комментировать
2021-05-05 15:17:22 Если вы ещё не видели новую технику обучения DINO (статья, код, видео), то это новый лучший алгоритм (Unsupervised learning) для классификации изображений. Авторы из FB AI, Inria и Sorbonne University предложили метод самообучения на основе подхода self-distillation в комплексе с ViT.

В основе DINO лежит достаточно простая идея. На входе изображения по-разному дополняются (multi-crop augmentation) для двух моделей (student/teacher). Далее, модель студента формирует веса модели учителя с помощью техники exponential moving average. В процессе распространения данных в модели учителя дополнительно форсируется более точный прогноз наиболее вероятного класса. На выходе, на основе кросс-энтропии, два полученных распределения сравниваются и веса студента обновляются. То есть, разные части одной и той же картинки, «нарезанные» по-разному, должны попадать в один класс для двух моделей.

Самообучение – это важная проблема анализа данных. Например, с помощью DINO, добавив сверху линейный классификатор, можно очень точно выполнить целый ряд практических задач. Интересно, что лежащий в основе ViT однозначно выделяет важные для классификации области изображения, которые легко интерпретируются человеком (в отличие от CNN). Примечательно, что полученная модель группирует изображения в кластеры, близкие по значению в понимании человека: машины с машинами, птицы с птицами. Обязательно посмотрите иллюстрации в статье!

В блоге FB AI, кроме DINO, анонсирована не менее интересная технология под названием PAWS из разряда semi-supervised learning. Это техника позволяет обучать модели на порядок быстрее своих конкурентов, что очень важно на практике.
268 viewsAndrey, 12:17
Открыть/Комментировать
2021-04-28 13:24:02
Time Series Analysis and Its Applications With R Examples, 4Ed (2016) by R.H. Shumway и D. S. Stoffer - это одна из лучших книг по временным рядам. Очень много примеров из реальных приложений, есть немного кода на R. Книга очень богата по содержанию, охватывает практически все основы анализа временных рядов. PDF здесь.
434 viewsAndrey, edited  10:24
Открыть/Комментировать
2021-04-27 14:51:25 Paperspace отличается хорошим качеством гайдов. Вот несколько из последних:
1. Метод максимального правдоподобия. Основа основ.
2. Вступительные руководства по tensorflow и keras.
3. Распределённые вычисления на keras.
И ещё они сменили дизайн болга. Теперь он мало чем отличается от блогов openai и google. Видимо, чтобы не вносить диссонанс в AI аудиторию.
426 viewsAndrey, 11:51
Открыть/Комментировать
2021-04-23 10:42:01 Статистическая оценка мат. ожидания, дисперсии и корреляции во временых рядах требует стационарности. Для этого, из временного ряда нужно убрать общие тренды, сезонность и вариативность дисперсии. Как это быстро сделать на python читайте в заметке coderzcolumn
571 viewsAndrey, 07:42
Открыть/Комментировать
2021-04-14 07:07:03
Оказывается, у Гилберта Стрэнга есть учебник по линейной алгебре. Это просто огненный материал! PDF с книгой и задачами забираем в чате
681 viewsAndrey, edited  04:07
Открыть/Комментировать
2021-04-12 13:56:04 Термин Networking многим знаком из компьютерных сетей, а, например, предприниматель скажет, что это важно в бизнесе. В общем случае, с точки зрения математики, Networking можно задать графом, и получить богатствo операций из соответствующей теории. Неважно какая у вас предметная область: транспорт, социальные/компьютерные сети, взаимодействие белков клетках – графы позволяют выделить важные узлы и связи, понять структуру сети и характер распространения информации.

Если вы используете python, то вам определённо повезло. Для этого инструмента есть networkx (документация, лаба) и там есть всё что нужно. И вот ещё удачное руководство по оценке центральности. А если для вашего проекта важна скорость, то стоит присмотреться к python API для igraph.

В научном сообществе сейчас развивается целое направление по адаптации нейронных сетей к операциям на графах и многообразии (Geometric Deep Learning). И такой подход доказывают свою эффективность в задачах, где передовые NLP технологии не справляются.
552 viewsAndrey, 10:56
Открыть/Комментировать
2021-04-09 15:28:26 Архитектура трансформеров - это сегодняшний мейнстрим, во многом за счёт высокой обобщающей способности и легкой адаптации модели к различных приложениям. Однако, эта технология глубокого обучения имеет существенный недостаток – это вычислительная сложность O(n^2) в механизме внимания. В прошлом году была представлена архитектура Linformer, способная выполнять операции с вниманием за линейное время. Этот метод обладает некоторыми недостатками, одним из которых является существенное снижение точности.

Свежая работа «Rethinking Attention with Performers» (статья, код-эталон, видео-разбор) это попытка подобрать оценку к исходной матрице внимания, которую можно вычислить за линейное время. Авторы представили метод FAVOR+ который не требует исходных предположений, имеет несмещённую оценку к матрице внимания и низкую дисперсию. Кроме этого, линейная архитектура FAVOR+ полностью совместима с архитектурой трансформеров и имеет фундаментальное теоретические обоснование.

Суть метода сводится к аппроксимации softmax составляющей механизма внимания векторным произведением двух функций (ядерный метод). За счёт такого представления становится возможным эффективно изменить порядок операций, что уменьшает вычислительную сложность до O(n). Если вы увлекаетесь теоретическими основами ML, то эта работа просто обязательна к прочтению: здесь обоснована оценка матрицы внимания, сформулировано и доказано 4 теоремы, результаты обоснованы экспериментально.

Предложенный метод аппроксимации параметризуется набором ортогональных случайных компонент (из многомерного нормального распределения) - чем больше компонент, тем точнее приближение. Ну а практикам стоит обратить внимание на количество реализаций этого метода: PWC уже насчитал 8 репозиториев с реализацией на pytorch и TF.
513 viewsAndrey, 12:28
Открыть/Комментировать
2021-03-31 12:42:01 Практический курс "введение в статистику и машинное обучение" от Стэнфорда. Регрессия, методы классификации, выборки, SVM, кластеризация, деревья решений. Хорошо и на примерах разобраны такие статистические инструменты как LDA/QDA, PCR, PCA. По каждому разделу есть лабы на R.
930 viewsAndrey, 09:42
Открыть/Комментировать
2021-03-21 08:10:10 T-SNE (t-distributed stochastic neighbor embedding) – это техника уменьшения размерности для визуализации данных, которая была опубликована в 2008 году. В отличие от PCA (сохранение максимальной вариативности) и MDS (сохранение расстояний), t-SNE предназначена для анализа кластеризации данных. T-SNE своего рода незаменимый инструмент в разведочном анализе. Основные параметры это perplexity и количество компонент. Если с компонентами всё понятно, то вот с perplexity есть тонкие моменты. Более подробно об этом, с интерактивными примерами, можно посмотреть здесь
1.2K viewsAndrey, 05:10
Открыть/Комментировать