Получи случайную криптовалюту за регистрацию!

DLStories | Нейронные сети и ИИ

Логотип телеграм канала @dl_stories — DLStories | Нейронные сети и ИИ D
Логотип телеграм канала @dl_stories — DLStories | Нейронные сети и ИИ
Адрес канала: @dl_stories
Категории: Технологии
Язык: Русский
Количество подписчиков: 13.15K
Описание канала:

Новинки искусственного интеллекта и нейронных сетей. Разборы статей.
Ну а вообще, посчу, что захочу :)
Сотрудничество/предложения: @atmyre
Поддержать: https://t.me/dl_stories/521

Рейтинги и Отзывы

2.50

2 отзыва

Оценить канал dl_stories и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

1

2 звезд

1

1 звезд

0


Последние сообщения 8

2022-02-14 20:14:27
Наверное уже все слышали про срач беседу в твиттере по поводу зачатков сознания у больших моделей, которая началась между тем самым Ильей из OpenAI, что соавтор первой популярной сверточной сети AlexNet (он говорит, что «уже таки да»), и Яном из Meta, ну тем самым Лекуном, который сверточные сети вообще придумал (он говорит: «не дождётесь»). А вот и мем подоспел..

Вспоминается афоризм Дейкстры, который помогает уйти от таких вопросов весьма изящным ответом: «Вопрос о том — может ли компьютер думать, не более интересен, чем вопрос о том — может ли субмарина плавать».
840 views17:14
Открыть/Комментировать
2022-02-14 12:00:33
Каждый день мы видим, сколько всего интересного создаётся в мире. Сегодня это уже не только про творчество, но и про то, что это может и должно приносить доход. А вы знали, что есть люди, которые умудрились заработать миллионы долларов, создав уникальный NFT (сертификат уникальности цифрового объекта)?

Подписывайтесь на канал IPQ, чтобы читать про самые интересные кейсы из сферы интеллектуального права, советы профессиональных юристов и быть на шаг ближе к монетизации своего творчества.
#промо
1.5K viewsedited  09:00
Открыть/Комментировать
2022-02-13 18:19:33
Не так давно диффузионные модели приобрели популярность в генерации картинок. Гугловская многозадачная диффузионная модель Palette даже побила SOTA сразу на четырех бенчмарках! О Palette мы писали в посте выше.

А вот только что вышла статья Pseudo Numerical Methods For Diffusion Models on Manifolds, которая ускоряет генерацию изображений диффузионными моделями в 20 раз! Ускорение достигается за счёт нового взгляда на диффузионные модели: авторы предлагают смотреть на них как на дифференциальные уравнения. А решаются диффуры программно довольно быстро с помощью численных методов.

В статье довольно сложная математика. Если вы не знакомы с тем, как работают диффузионные модели, перед чтением статьи рекомендую это изучить. Вот, например, прекрасная статья с описанием принципа работы diffusion models.

К статье Pseudo Numerical Methods For Diffusion Models on Manifolds уже сделали колаб. Картинка к посту — результаты генерации по запросу "flower bouquet in a vase" (100 итераций). Генерит реально быстро!
1.8K views15:19
Открыть/Комментировать
2022-02-12 17:03:34 Deadliner: утилита для упрощения поиска информации о дедлайнах научных конференций и воркшопов

Когда исследователь пишет статью, обычно есть несколько конференций/воркшопов, куда он эту статью может подать. И у всех конференций разные дедлайны подачи. Уходит много времени и нервов, чтобы структурировать всю информацию о том, куда и когда подаваться. В итоге ученый, который должен тратить время на работу и AI-исследования, тратит драгоценное время на копание на сайтах конференций и составление графика.

Deadliner — утилита для решения этой проблемы. Сейчас тулза работает в двух форматах:
— по названию конференции можно получить дату подачи. Например, подав на вход запрос "ICML 2020 registration deadline" вы в ответ получите желаемую дату;
— по названию конференции можно получить список всех ее воркшопов.

Все это работает на основе GPT-3 + поиска гугла. Deadliner парсит html-списки при помощи lxml + gpt-3 и находит все элементы, похожие на список. Затем с помощью нейросети определяет, какой из списков семантически похож на тот, что хочется найти (например, на список воркшопов, если мы ищем воркшопы)

Инструкция по установке и использованию — на GitHub. Все очень просто и юзер-френдли)

Call for contribution
На мой взгляд, идея Deadliner — очень классная и полезная. Но у автора Deadliner — Вадима — не хватает времени для добавления в утилиту всех новых фич, которые хотелось бы в ней видеть. Например:
— научиться по теме находить все дедлайны всех релевантных конференций/воркшопов;
— автоматически добавлять дедлайны в календарь;
— улучшить парсер и оценить его качество с помощью метрик;
— дать пользователю возможность добавлять персонализированный списко интересующих конференций;
— ...

Поэтому Вадим был бы рад любой помощи извне) Если вам интересен проект, вы можете контрибьютить в него pull-request'ами. Сейчас на GitHub в issues описаны пять идей того, что хотелось бы добавить в проект, но можно создавать и новые. Если будут вопросы, пишите Вадиму: @vadim0x60
1.2K viewsedited  14:03
Открыть/Комментировать
2022-02-11 13:44:43 Кучка полезных ссылочек

За последнюю неделю у меня накопились несколько классных ссылок — решила собрать их в один пост и поделиться с вами)

Советы от исследователя из Snap о том, как попасть на research стажировки в индустрии и что для этого нужно делать. За ссылку спасибо каналу эйай ньюз

Статья с размышлениями о том, зачем вообще получать PhD в сфере Computer science. Эта статья давно висит у меня в reading list, но в свете ссылки выше, думаю, полезно включить ее в этот список)

Вебинар "Soft Skills QA" Анны Киреевой — автора курса "Развитие Soft Skills" на Coursera. В вебинаре разбирают:
- что вообще такое soft skills;
- чем они отличаются от hard skills;
- почему (и где) soft skills важны в работе;
- какие soft skills развивать в первую очередь и как их эффективнее прокачивать.

Табличка со ссылками на все доступные курсы Стенфорда по AI/ML/Optimization/STATs/Control/Vision/NLP. Для каждого курса указан формат (видео/слайды) и ссылки. Ссылку нашла в канале Small Data Science for Russian Adventurers

OpenAI выкатил веса моделей RN50x64 и ViT-L/14 (т.е. веса самых больших и классных CLIP-моделей). Можно загружать и играться: например, взять стандартный колаб-ноутбук по CLIP и заменить там модель клипа на ViT-L/14. За ссылку спасибо каналу Мишин Лернинг

Прикольный сайтик, который по двум заданным темам (например, "торт" и "зомби") с помощью GPT-3 генерирует коротенькую историю. Сторьки получаются качественные и реально основанные на темах)

Если у вас тоже есть классные ссылки и вы хотите ими поделиться — кидайте в комментарии
1.7K views10:44
Открыть/Комментировать
2022-02-10 15:35:27
Греческий дизайнер Спирос Панопулос показал свой спорткар Chaos. Это машина из класса ультракаров, мощность двигателя = 3000 л.с. Максимальная скорость бьет все рекорды среди серийно выпускаемых моделей = 500 км/ч.
Такую штуку Панопулосу помог сотворить ИИ → нейронная сеть проанализировала корпус автомобиля, порекомендовала убрать лишние детали и изменить форму.

Без ИИ теперь никуда. Научиться работать с искусственным интеллектом и, главное, извлекать от этого прибыль для компании учат на курсе. Курс идет 4 месяца. За это время вы получите знания и навыки редкой профессии: AI продакт-менеджер и научитесь использовать мировые наработки в этой сфере:
Основы AI/ML.
— Управление командой Data Science-специалистов и ML-инженеров.
— Навык генерации и быстрой проверки гипотез с использованием AI/ML.
— Понимание методов машинного обучения.
— Опыт прототипирования, тестирования и совершенствования AI-продукта.

Оставьте заявку на курс https://clc.to/BpjJkw
Получите скидку 40% до 15 февраля!
#промо
1.8K viewsedited  12:35
Открыть/Комментировать
2022-02-08 16:53:09 Сегодня День российской науки! Поздравляю всех причастных и тех, кто интересуется

И вот вам классная новость: Всенаука раздает бесплатные книги! Книги в основном о науке, но не о скучной и сложной, а научно-популярной и жутко интересной!
Я уже хочу прочитать все, а их там 90 штук

P.S. Книги бесплатные не просто так, проект платит за их бесплатное размещение. Поддержать проект можно тут
P.P.S. Обратите внимание на кнопку "скачать все" вверху сайта)
2.1K views13:53
Открыть/Комментировать
2022-02-07 13:41:58 ShiftViT: Visual Transformer без Attention (ну, почти visual transformer =) )

И снова исследователи стараются нам показать, что Attention — не панацея. Ученые из Microsoft Research взяли классическую архитектуру ViT (ну, почти классическую) и заменили в ней все слои Attention на слои Shift. В итоге получили сеть с меньшим количеством параметров и сравнимыми с ViT результатами на ImageNet.

Вот как работает ShiftViT:
Архитектура ShiftViT состоит из блоков (stages на первой картинке к посту). Как и в классическом ViT, входное изображение сначала разбивается на патчи и подается на вход первому блоку. Каждый из блоков далее состоит из двух частей: embedding generator и shift block. Embedding generator принимает на вход выход предыдущего блока и генерирует трехмерный тензор-ембеддинг размера (height, width, channels) для подачи на вход shift block. Shift block содержит три слоя: shift operation, layer norm и MLP.

Shift operation устроен очень просто: он берет на вход трехмерный тензор и "сдвигает" в нем несколько каналов вдоль разных осей на небольшое количество пикселей. Иллюстрация процедуры — на второй картинке к посту. Слой Shift не имеет обучаемых параметров: то, каким образом будут сдвигаться каналы входного тезнзора, полностью определяется гиперпараметрами. Из-за этого модель ShiftViT того же размера, что и классический ViT, имеет на ~33% меньше параметров, чем оригинальный ViT.

У ShiftViT, однако, есть еще одно небольшое отличие от ViT: во всех блоках, начиная со второго, авторы ShiftViT используют 2х2 convolution в качестве embedding generator. Еще одно доказательство, что свертки не канули в небытие, хехе.

Идея операции Shift понятна: с помощью сдвига каналов во входном тензоре и последующего применения MLP+свертки авторы добиваются обмена информации между разными частями исходного изображения. Такой суперупрощенный Attention получается.

Из-за того, что ShiftViT имеет меньше параметров, чем ViT, он должен работать быстрее. Учитывая, что ShiftViT получает сравнимые с ViT результаты на разных бенчмарках для задач классификации, детекции и сегментации, подход выглядит интересным. Однако грустно, что авторы сравнивали ShiftViT и ViT на ImageNet, но не на JFT-300M: известно, что главная фишка Трансформеров — хорошие результаты при обучении на огромном количестве данных. Интересно было бы посмотреть на результаты ShiftViT на JFT-300M: покажет ли он настолько же хорошую генерализацию.

P.S. Это не первая работа, где ученые пытаются выкинуть Attention из ViT и заменить чем-то попроще. Вот пример статьи, где Attention заменяли на обычный pooling и тоже получали хорошие результаты.

Статья
2.4K viewsedited  10:41
Открыть/Комментировать
2022-02-07 13:41:55
1.9K views10:41
Открыть/Комментировать
2022-02-06 14:00:22 Приглашаем всех принять участие в соревновании Dialogue Evaluation RuArg-2022 на конференции "Диалог".
#промо

Мы сформулировали три утверждения, касающиеся пандемии COVID-19 (и в целом противоэпидемических мер):

«Вакцинация полезна для общества».
«Введение и соблюдение карантина полезно для общества».
«Ношение масок полезно для общества».

Соревнование по анализу аргументации включает в себя 2 задачи:

* Определение позиции автора текста (Stance Detection) по отношению к заданному утверждению.
* Классификация доводов (Premise Classification): требуется распознать, содержит ли текст доводы «за» или «против» относительно заданного утверждения на тему борьбы с COVID.

Из социальных сетей была собрана коллекция предложений – комментариев к постам из социальных медиа. В этих предложениях могут содержаться как высказывания, определяющие авторскую позицию относительно заданных утверждений, так и высказывания с доводами «за»/«против» этих утверждений.

Каждое предложение было размечено по позиции и по доводам для всех трех утверждений. Таким образом, каждое предложение имеет шесть меток.
Использовались следующие классы (метки):
* «за»;
* «против»;
* «прочее» (для позиции эта метка объединяет метки «нейтрально», «непонятно» или «и за, и против») / «нет аргумента» (для довода);
* «нерелевантно» (для данного утверждения)

Задача участников - произвести анализ аргументации путем классификации каждого высказывания.

Подробности можно прочитать в репозитории
Официальная страничка на "Диалоге"
Телеграм-чат соревнования
Codalab
2.1K views11:00
Открыть/Комментировать