Получи случайную криптовалюту за регистрацию!

Small Data Science for Russian Adventurers

Логотип телеграм канала @smalldatascience — Small Data Science for Russian Adventurers S
Логотип телеграм канала @smalldatascience — Small Data Science for Russian Adventurers
Адрес канала: @smalldatascience
Категории: Образование
Язык: Русский
Страна: Россия
Количество подписчиков: 9.50K
Описание канала:

БЕЗ ЧУЖОЙ РЕКЛАМЫ Авторский канал Александра Дьяконова (dyakonov.org)
машинное (machine learning) и
глубокое обучение (deep learning)
анализ данных (data mining)
наука о данных (data science)
ИИ (artificial intelligence)
математика (math)
и др.
ЕСТЬ ЧАТ;)

Рейтинги и Отзывы

4.00

3 отзыва

Оценить канал smalldatascience и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

1

4 звезд

1

3 звезд

1

2 звезд

0

1 звезд

0


Последние сообщения 5

2022-06-03 18:26:32
Почему random_seed = 42?
Anonymous Quiz
9%
Курт Воннегут
57%
Адамс Дуглас
6%
Кристофер Нолан
3%
Квентин Тарантино
3%
Джеффри Хинтон
10%
Ян ЛеКун
12%
не понимаю, что происходит
1.7K voters2.9K views15:26
Открыть/Комментировать
2022-05-30 17:21:32
#интересно
Нашёл сегодня такой скатер-плот. Интересно, что тут есть противоречия с моим опытом и интуицией, но не с потолка же его взяли...
2.4K views14:21
Открыть/Комментировать
2022-05-30 14:47:09 #канал
Добавил в описание канала "РЕКЛАМУ НЕ ПУБЛИКУЮ". Интересно, поможет ли? Слишком много писем "Опубликуйте ...". Например, письмо с предложением за плату опубликовать ссылку на ШАДовский учебник по ML через несколько часов после того, как я бесплатно уже её опубликовал.

Особо не слежу за статистикой канала, но заметил, как число подписчиков перевалило за 6 000 - хотя я его никак не пиарю - ссылку даю только студентам, да и вообще он всегда был ориентирован "на тех, кто со мною знаком". Из забавного - почти сотня отписалась, когда я скинул ссылку с описанием работы в PornHub.

Спасибо всем, кто ставит смайлики - можно проследить за интересами подписчиков. Странно, что не особо заходят объявления о разных научных школах. Если бы я был студентом, то не вылезал бы из них (столько возможностей узнать нового и пообщаться с интересными людьми, плюс подыскать себе что-то типа аспирантуры).
2.6K viewsedited  11:47
Открыть/Комментировать
2022-05-30 00:23:53 #интервью
Интервью с Райгородским о его школе на Физтехе. Думаю, что у абитуриента, который это послушает, не будет вопросов куда поступать;) Андрей Михайлович и рассказывает зажигательно и делает очень много для образования вообще (не только в МФТИ).


3.2K views21:23
Открыть/Комментировать
2022-05-29 17:54:30
#книга
Посмотрел книжку Эйлин Магнелло «Статистика в комиксах». В целом, мне понравилась - хороший обзор для нематематиков, хотя не могу утверждать, что всё ясно изложено для неспециалистов. Несколько вещей открыл для себя: откуда взялся термин «статистика» и как появилась эта наука, чем были известны некоторые учёные до своих открытий. Не понравились сами картинки… ожидал большего.
3.2K views14:54
Открыть/Комментировать
2022-05-28 01:20:10 #конференция
Ещё одна бесплатная летняя научная школа «Сложные нейронные сети и когнитивно специализированные нейроны»:
https://brain.scientificideas.org/neuroscience-school-2022/ru
2.1K views22:20
Открыть/Комментировать
2022-05-27 22:39:25 #интервью
Ректор «Сколтеха» о текущем положении дел и перспективах:
https://www.kommersant.ru/doc/5357614
2.5K views19:39
Открыть/Комментировать
2022-05-25 20:50:29 #экзамены
На экзаменах по курсу ML в OzonMasters сегодня я всем задавал практически один и тот же набор вопросов (это по частям классического ML - до нейронок):

1. L2-регуляризация, говорят она борется с какой-то вырожденностью: что вырождено, по каким причинам, почему L2-регуляризация с этим справляется?
2. Назовите критерии расщепления при построении решающих деревьях в задаче классификации, можно ли их сравнить (в каких случаях один предпочтительнее остальных).
3. В задаче бинарной классификации 2 объекта имеют метку 1, 3 – метку 0, построили алгоритм с Accuracy < 1, какая максимальная F1-мера может у него быть?
4. Перечислите известные методы отбора признаков (можно начать с групп методов).
5. Есть два алгоритма кластеризации: k-means, mean shift. Приведите пример задачи, с которой первый справляется лучше. И задачи, с которой второй справляется лучше.
6. Отличия CatBoost от XGBoost и LightGBM.
7. Когда Extreme Random Trees предпочтительнее Random Forest?
4.0K views17:50
Открыть/Комментировать
2022-05-25 20:25:39 #конференция
Бесплатные летние образовательные проекты от научно-исследовательского института ИИ: летняя школа и конференция
https://airi.net/ru/summer-school/
3.2K viewsedited  17:25
Открыть/Комментировать
2022-05-21 20:22:58
#книга
В книге Edward Raff «Inside Deep Learning, Math, Algorithms, Models» применяется интересный приём. Я и сам иногда формулы раскрашиваю и делаю цветную легенду с пояснениями. Но тут все центральные формулы полностью раскрашены, а в тексте идёт аналогичная подсветка описания, см. рис. В книге вообще очень хорошие рисунки и она довольно продумана для начального уровня, много примеров кода.
2.8K viewsedited  17:22
Открыть/Комментировать