Получи случайную криптовалюту за регистрацию!

DLStories | Нейронные сети и ИИ

Логотип телеграм канала @dl_stories — DLStories | Нейронные сети и ИИ D
Логотип телеграм канала @dl_stories — DLStories | Нейронные сети и ИИ
Адрес канала: @dl_stories
Категории: Технологии
Язык: Русский
Количество подписчиков: 13.15K
Описание канала:

Новинки искусственного интеллекта и нейронных сетей. Разборы статей.
Ну а вообще, посчу, что захочу :)
Сотрудничество/предложения: @atmyre
Поддержать: https://t.me/dl_stories/521

Рейтинги и Отзывы

2.50

2 отзыва

Оценить канал dl_stories и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

1

2 звезд

1

1 звезд

0


Последние сообщения 12

2021-12-22 15:24:40
WebGPT: теперь GPT-3 умеет гуглить лучше тебя

В OpenAI зафайнтюнили GPT-3 отвечать на вопросы, пользуясь поиском Bing, а получившиеся при этом ответы оказались качественнее, чем у людей.

Сначала они разработали простенький текстовый браузер, которым могла бы пользоваться GPT — там есть основные команды типа: кликнуть на ссылку, поскроллить, найти слово на странице, скопировать фрагмент и тд. Далее они при помощи людей собрали датасет из 6000 примеров использования этого браузера и дообучили на нём GPT-3 (language modeling). Затем они нагенерили этой же моделью датасет из 25к вопросов и вручную разметили их качество. На этой разметке они обучили ранжировщик ответов и использовали его для дальнейшей фильтрации.

В итоге, судя по human evaluations на датасете ELI5, людям чаще нравятся ответы нейронки, чем своих собратьев

P.S. На гифке пример того, как гуглит эта модель, отвечая на вопрос «How do neural networks work?»

Статья, блог
1.1K views12:24
Открыть/Комментировать
2021-12-22 10:07:01
Смотрите, какая штука — AI-based анализатор hdd/sdd-дисков!

Ребята из Ulink Technology и QNAP собрали большую базу данных системных отчетов о работе дисков и построили ИИ-модель для предсказания отказа работы диска. Тулза называется DA Drive Analyzer. Штука очень полезна: при внезапной поломке диска можно потерять кучу данных и получить простой в работе.

До 5 марта 2022 года DA Drive Analyzer доступен бесплатно. Затем стоимость будет $5 в месяц за один диск.
Инфа и скачать: тык
1.5K views07:07
Открыть/Комментировать
2021-12-21 14:29:45
Генерация изображений выходит на новый уровень: GLIDE

GLIDE - это закономерное развитие модели DALL-E от OpenAI. Только теперь вместо GAN-ов, архитектура GLIDE основана на diffussion denoising моделях, о которых у меня уже было несколько постов (тык1, тык2, тык3).

GLIDE умеет генерировать изображения как по текстовому описанию с нуля, так и дополнять существующие. Поразительно, как моделька подстраивается под стиль и освещение во входной картинке, когда нужно дорисовать новый объект.

Архитектура состоит из двух моделей, первая (3.5 млрд параметров) генерит 64×64 картинку по текстовой строке, а вторая (1.5 млрд параметров) берет входной текст и картинку 64×64 и апскейлит её до 256×256. Видимо, так было проще тренировать.

GLIDE, в отличие от DALL-E, не использует CLIP классификатор и не требует ре-ранкинга результатов для увеличения их схожести со входным текстом. И, конечно, GLIDE бьёт DALL-E на всех бенчмарках.

На GPU генерация 256x256 картинки занимает меньше минуты.

Arxiv >> Код на GitHub >> Колаб
1.3K views11:29
Открыть/Комментировать
2021-12-21 10:08:01
В Яндекс обучили Балабобу генерировать новогодние открытки с поздравлениями

Заходите на сайт, вводите пару ключевых слов и на их основе ИИ генерирует текст поздравления. А также генерируется гифка-открытка: да, тоже с помощью нейросетей.

Я ввела запрос "DLStories, подписчики", и получилось то, что вы видите на гифке к посту Нейронка определенно знает, чего желать)

P.S. Гифка просто капееец красивая, скажите?
P.P.S. С наступающим!!
1.8K views07:08
Открыть/Комментировать
2021-12-20 18:01:12
Как создать идеальную команду разработки AI-продукта? Какие специалисты для этого нужны?
#промо

Ответы на эти вопросы ищите в новом ролике "Академии Искусственного Интеллекта". Гость видео — исполнительный директор по исследованию данных в Sber AI Михаил Степнов. На базе своего проекта Digital Manager он рассказал, с чего начинается любая задумка, кто нужен в команду для создания продукта с ИИ и как попасть на стажировку к ним в команду!

На канале "Академия ИИ" еженедельно выходят мини-ролики с крутыми специалистами на разные темы ИИ: нюансы профессии, как попасть в дата саенс, разборы ИИ-технологий. Ролики небольшие: ~10 минут, так что заскучать не успеете =)

Возможно ли обыграть ИИ в видеоиграх? Как работает Dall-E? Наливай чашечку чая, приходи на канал, расскажем

Академия ИИ
1.7K viewsedited  15:01
Открыть/Комментировать
2021-12-20 10:02:01 На Huggingface теперь доступен Perceiver IO — мультимодальная модель, способная работать с кучей модальностей

А #яжеговорила в постах на канале, что мультимодальность — один из главных трендов, и за ней — будущее!! =) Но до сих пор модели могли работать с <= 4 модальностями одновременно: Perceiver же может работать практически со всеми возможными.

Вот как это работает:
Perceiver IO — это обобщение ранее предложенной модели Perceiver на большее количество модальностей. На фото к посту вы видите архитектуру модели. Она состоит из трех основных частей: Preprocessor, Perceiver encoder и Decoder. (Есть еще опциональная часть Postprocessor, но она нужна в малом количестве случаев; о ней подробнее читайте в посте Huggingface, ссылка ниже)

Preprocessor — это то, что кодирует информацию, представленную разными модальностями (картинка, текст, аудио, ...) в эмбеддинг, чтобы потом скормить это энкодеру. Для каждого вида модальности preprocessor свой. При этом можно подать Perceiver'у на вход данные, представленные сразу несколькими модальностями, просто используя несколько разных preprocessor'ов вместе.

Perceiver encoder — основная часть, "тело" модели. Это нейросеть, которая берет эмбеддинги из preprocessor'а и выдает на выход один эмбеддинг — энкодинг входных данных. Этот энкодинг потом подается на вход Decoder'у (см. далее). Encoder — Transformer-like архитектура, которая полностью основана на блоках self-attention.

Decoder — часть, которая берет выход Perceiver encoder'а и переводит его в логиты, подходящие для конкретной задачи: классификации, генерации текста и т.п.

Вот такая вот нехитрая архитектура. Пользоваться ей предельно просто: нужно загрузить из Huggingface preprocessor, encoder и decoder, которые подходят для вашей задачи, и запустить нейронку)

Более подробно о том, как устроен Perceiver и как разработчики боролись с проблемой медлительности self-attention (да, такая проблема есть), читайте в блогпосте Huggingface. Также там есть туториалы с кодом, как завести Perceiver под свои задачи.

Еще ссылки:
Статья на arxiv о Perceiver IO
Код Perceiver
Демо ноутбуки, чтобы играться
1.8K views07:02
Открыть/Комментировать
2021-12-20 10:02:01
1.6K views07:02
Открыть/Комментировать
2021-12-19 10:05:12
2.2K views07:05
Открыть/Комментировать
2021-12-18 17:36:30
Meta недавно открыла доступ жителям США и Канады к платформе Horizon Worlds — это VR-соцсеть, где можно сделать себе аватар и зависать в компании друзей — играть в игры, чатиться, перемещаться по виртуальной вселенной и т.д.
#tech

При этом у виртуальных аватаров есть только верхняя часть тела, но нет ног) Катя вот считает, что причина в том, что Oculus могут работать только с головой и руками. Но есть другая версия — что таким образом Цукерберг хочет избежать применений VR в сексуальных целях, чтобы не було новых скандалов.

Но первые инциденты с херрасментом в Horizon Words уже происходят: недавно вышла статья в MIT Tech review с историей девушки, к которой в VR-реальности приставал другой игрок. На такие случаи в Horizon Words придусмотрен "Safe Zone" — это такой защитный пузырь для аватара, находясь в котором с игроком нельзя никак взаимодействовать. Однако несмотря на наличие Safe Zone, инциденты все равно есть, и это не очень хорошо.

За новость спасибо Кате. А мы ждем, пока доберется до России
1.9K views14:36
Открыть/Комментировать
2021-12-18 12:07:01 Помните, несколько постов назад (вот тут) я писала о новом подходе к few-shot learning от Фейсбука? (Entailment FSL). В этом посте я упомянула zero-shot learning: это когда сеть, обученная на одну задачу, может вообще без обучения хорошо решать другую задачу. А еще упомянула, что большие модели вроде GPT-3 хорошо умеют в zero-shot: GPT-3 можно заставить решать задачу классификации текста, ответа на вопросы и даже сложения чисел(!!), совсем не дообучая его под эти задачи.

Если вам интересно, как такое возможно, советую посмотреть лекцию Zero-Shot — Zero Problem Михаила Константинова — автора канала Мишин Лернинг.
В лекции Михаил подробно разбирает:
- что такое zero-shot;
- какие сферы жизни затронет этот подход;
- современные архитектуры нейросетей, которые могут в zero-shot: Bert, GPT-3, CLIP, DALL-E, WuDao2.0, Codex | Copilot;
- приводит огромное количество примеров запуска GPT-3 в zero-shot режиме.

Вообще у Михаила есть целое AI-коммьюнити: transformer.community. В рамках него проводятся и другие лекции классных специалистов DL. Например, недавно была крутая лекция c разбором и кучей примеров работы Dall-E. Следите за анонсами новых лекций на сайте и в канале Мишин Лернинг!

P.S. Пасхалочка: в чате на ютубе к лекции Zero-Shot — Zero Problem можно увидеть мои комментарии: я смотрела ее онлайн =)))
#learning
1.8K views09:07
Открыть/Комментировать