Получи случайную криптовалюту за регистрацию!

градиент обреченный

Логотип телеграм канала @doomgrad — градиент обреченный Г
Логотип телеграм канала @doomgrad — градиент обреченный
Адрес канала: @doomgrad
Категории: Технологии
Язык: Русский
Количество подписчиков: 4.39K
Описание канала:

• Машинное обучение c уклоном в NLP
• Иностранные языки
• Интересные мне вещи

Рейтинги и Отзывы

2.33

3 отзыва

Оценить канал doomgrad и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

2

2 звезд

0

1 звезд

1


Последние сообщения

2022-08-16 17:59:05 #asr #repo

Потоковое распознавание речи

Если вы занимаетесь распознаванием речи, то знаете, что есть проект NeMo от NVIDIA, в котором реализованы плюс-минус все SOTA архитектуры (Conformer-CTC, Conformer-Transducer, etc.). Какое-то время назад я занимался ASR и смотрел это решение, — есть скрипты для обучения, качество распознавания получается хорошее. Особенно, если обучить и добавить LM (обычно это kenlm) для рескоринга гипотез акустической модели.

Так вот, можно было без проблем обучить отличную оффлайн модель. Но если попробовать сделать на ней стриминг (распознавание в realtime), то ничего хорошего не выйдет, — сильно упадет качество (мы хотим быстрый отклик, режем контекст, модели становится плохо).

Есть ряд статей о том как делать такие модели, например вот эта от Microsoft. В ней предлагается изменить не архитектуру, а процесс тренировки, — при помощи масок подавать на обучение ограниченный заданным параметром контекст. Мы такой подход не реализовали, но если долго сидеть у реки, то можно увидеть как плывет pull request.

Недавно PR с этим подходом въехал в основную ветку NeMo. Что там по качеству надо смотреть, но появились скрипты и примеры для обучения online ASR. Кто будет пробовать, напишите как оно.

GitHub | код / примеры
209 views14:59
Открыть/Комментировать
2022-08-12 10:54:01
#cv #art

Stable Diffusion открывает двери

Дали доступ к Stable Diffusion, — это text-to-image аналог Midjourney, DALL-E и Imagen'а, так как я какое-то время назад вставал в очередь. Попробовал, по ощущениям рисует более точные картинки чем mj плюс раза в два-три быстрее.

Но более интересно то, что на днях был анонс по открытию весов этой модели для всех желающих!

» We are working together towards a public release soon.

Уже выложили код и завели карточку на huggingface, пока что выдают веса по запросу. Это будет самое качественное решение по генерации изображений по тексту в открытом доступе. Готовьте ваши промпты.

P.S. Сгенерировал пару иллюстраций. Пока модель не в публичном доступе, можете накидать идей, порисуем.

Github | Huggingface
390 views07:54
Открыть/Комментировать
2022-08-10 10:49:12
#colab #cv #useful

Детекция произвольных объектов

Выложена очередная полезная сетка. На этот раз при помощи CLIP (модель, совместно натренированная на текстах и картинках) реализована детекция объектов по тексту. Реализовано это по статье "Simple Open-Vocabulary Object Detection with Vision Transformers" и названо OWL-ViT.

Если раньше нужно было знать, что мы хотим детектировать (машины, лица и т.д.) еще перед началом обучения, то теперь сделан шаг в сторону Open-vocabulary детекции.

На картинке я попробовал найти "ботинок", "лицо", "пиджак", "чемодан" и "ножку от скамейки". При поиске можно задавать порог уверенности.

Чем проще запрос тем качественнее детекция, — попробовал на фотке Роналду и Месси найти Роналду и Месси, сеть распознала обоих как Роналду, так что определенный bias есть .

Зачем?

Задача детекции (фото- и видеоаналитика) очень распространена. По кадрам с камер определяют номера машин и лица людей. Приложения находят товары в магазинах по фото. На медицинских снимках ищутся патологии и т.д. Также детекция используется при составлении датасетов, когда нужно среди миллионов изображений найти и вырезать какой-то объект.

Сеть выложена на huggingface, можно пробовать.

Colab | Huggingface | Статья
460 views07:49
Открыть/Комментировать
2022-08-09 13:31:00
Пару недель назад мы поделились подборкой материалов для изучения Scala. И нам написал читатель с просьбой выкладывать побольше подобных постов.

Ловите новую подборку! На этот разот экспертов в Machine Learning компании «Криптонит»:

1. Книги:
- Николенко С. «Глубокое обучение. Погружение в мир нейронных сетей»;
- Рашид Тарик «Создаем нейронную сеть».

2. Подкасты:
- Machine Learning Podcast;
- Неопознанный Искусственный Интеллект.

3. Курсы:
- школа глубокого обучения МФТИ;
- подборка открытых курсов Стэнфорда, связанных с машинным обучением.

4. Telegram-каналы:
- градиент обреченный;
- gonzo-обзоры ML статей;
- NN for Science.

5. Комьюнити: ODS (Open Data Science).
- - - - - - - - - - - - - - - - - - - - - - -
P.S. Вы всегда можете поделиться с нами идеями и предложениями Мы всё читаем!
#подборки
307 views10:31
Открыть/Комментировать
2022-08-07 13:48:04
#fun

Пушкин про ML

Стишок от тиньковского нейро-Пушкина.
370 viewsedited  10:48
Открыть/Комментировать
2022-08-04 11:34:21
#notes #nlp #books

NLP против Тарантино

Попалась на глаза книжка "The Secret Life of Pronouns". В ней при помощи инструментов обработки текста автор изучает аспекты использования функциональных слов.

Это такие слова, которые обозначают отношения между словами, но сами по себе не несут почти никакой смысловой нагрузки (к таким можно отнести предлоги, частицы, артикли и союзы).

Так вот, изучив сценарии Тарантино, Пеннебейкер приходит к выводу, что героини в фильмах этого режиссера разговаривают как мужчины. Затем он идет дальше и видит, что и сам "The Bard", а другими словами Шекспир, хоть и мастерски описывал сложные жизненные ситуации женщин, тоже использует функциональные слова в мужской стилистике.

Думаю, из этого можно вынести не только то, что Тарантино и Шекспир "fails at getting inside the minds of women", но и то, что в тексте заложена информация об авторе — пол, возраст, настроение, стиль, актуальность.

Это значит, что можно не только определять эти показатели, но и извлекать их и переносить на другие тексты. Например, сделать так, чтобы конкретный текст выглядел, как будто его написала женщина-ученый среднего возраста или школьник 19-го века.

Идея не нова и такие исследования есть, но, кажется, что в данной задаче можно более продуктивно использовать ресурс переводов — переводчики работающие над одним текстом могут быть разного возраста и пола. Тем самым мы получаем корпус парафраз, в котором одни и те же предложения написаны в разной стилистике. По-моему, это был бы полезный ресурс в задаче переноса стиля.
541 viewsedited  08:34
Открыть/Комментировать
2022-08-02 10:10:43
#linguistics #images

Нарисовал пару диаграммок для любителей графики и лингвистики.

Затронуты различные письменности славянских языков, а также арабо-персидская.

Если есть идеи, чего бы еще такого порисовать, то пишите. Еще лучше, если сразу составите диаграмму
472 views07:10
Открыть/Комментировать
2022-07-28 18:57:57
#ideas #dataset #nlp #lingtrain

Делаем корпус парафраз

Если выровнять два текста на разных языках, то получится параллельный корпус. Если выравнивать тексты на одном языке, — то корпус парафраз (предложений, имеющих один смысл, но написанных по разному).

Пришла в голову идея по использованию lingtrain'а для выравнивания переводов книг на одном языке.

Зачем?

Обычно такие корпуса используют для обучения генеративных моделей переписывать тексты с сохранением смысла, переноса стиля или аугментирования.

Кроме того, так как это не просто тексты, а профессиональные художественные переводы, то и сам корпус будет представлять из себя интерес (можно будет, например, проанализировать разницу между переводами Норы Галь и современными переводчиками).

Если к нему добавить еще и оригинальный текст, то получится референсный словарь для переводчиков с несколькими вариантами.

Из плюсов видится то, что книг для выравнивания много — классика и популярные произведения часто переводятся по нескольку раз разными переводчиками. Предложения получаются очень разнообразными (иногда даже слишком), так как каждый переводчик имеет свой неповторимый стиль.

Последний пункт может являться и минусом, так как некоторые переводчики склонны чересчур обогащать текст. На это надо обратить внимание перед выравниванием.

P.S. Попробовал на русских переводах Агаты Кристи, получается довольно неплохо.

GitHub c выравнивателем | agata.tmx
500 viewsedited  15:57
Открыть/Комментировать
2022-07-26 21:21:01
#images #useful #news

Midjourney открылся

На случай, если вы пропустили, — midjourney вышел в открытую бету. А это значит, что любой желающий может немедленно начать генерировать контент по тексту.

Генерация идет через discord, вот ссылка на приглашение.

Запросы ограничены только вашим воображением, вот вам пара идей:

• Том Круз Танос
• Илон Маск сиба-ину
• Вселенная в бутылке
• Рисунок красного воробья
492 views18:21
Открыть/Комментировать
2022-07-25 22:34:43 #чтивонаночь

Недавно от заказчика пришел запрос сделать классификатор текстов. При этом ни обучающих данных, ни домена, ни количества классов он предоставлять не стал.

Штош. Сделал TF-IDF + логрег, засунул в два докера — train и predict, написал как пользоваться и отдал.

Через какое-то время ко мне вернулись со словами, что балалайка не работает. Подумал. Так как это бейзлайн и хоть как-то он работать должен, то дело может быть в их разметке.

Попросил взять немного данных, дать нескольким сотрудникам на разметку и посмотреть совпадут ли они с между собой и с обучающей выборкой.

Тут заказчик сознался, что классов несколько сотен, тексты размечаются автоматически на уровне рандома и что человеки само собой тоже путаются. А на самом деле им нужно поделить на два класса спам/не спам.

Общайтесь с заказчиком и сначала делайте бейзлайн. Аминь.
410 views19:34
Открыть/Комментировать