Получи случайную криптовалюту за регистрацию!

я обучала одну модель

Логотип телеграм канала @def_model_train — я обучала одну модель Я
Логотип телеграм канала @def_model_train — я обучала одну модель
Адрес канала: @def_model_train
Категории: Технологии
Язык: Русский
Количество подписчиков: 2.61K
Описание канала:

Shitposting on various subjects
Ответственная за шитпост: @exitcodezero

Рейтинги и Отзывы

5.00

3 отзыва

Оценить канал def_model_train и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

3

4 звезд

0

3 звезд

0

2 звезд

0

1 звезд

0


Последние сообщения

2022-08-27 18:07:45
В дополнение к списку тулов для Stable Diffusion вышел хороший поисковик по промтам, где собраны удачные запросы и результаты генерации. Очень удобно скопировать и потом менять параметры под себя, если хотелось сгенерировать нечто похожее. Особенно актуально с портретами/фотографиями, так как Stable Diffusion часто с ними портачит, и нужно колдовать с запросом (эмпирическое правило такое, что всегда лучше докинуть имена художников и фотографов к запросу, так картинка будет качественнее)

На скрине мой любимый пока что промт оттуда
https://lexica.art/
770 views15:07
Открыть/Комментировать
2022-08-26 20:57:35
1.1K views17:57
Открыть/Комментировать
2022-08-22 13:01:59
Для Stable Diffusion нужно очень тщательно подбирать промты и параметры запроса, так что вот список ресурсов, которые могут сделать жизнь немного легче:

beginner’s guide, где описываются основные аргументы модели. В конце есть ссылки на более advanced stuff, типа выбора семплера или prompt weighting

большой гайд на гитхаб – в частности там есть раздел про изучение modifiers, то есть как разные слова и параметры запроса влияют на генерацию. Есть список исследований и экспериментов по работе модели, список стилей художников, на которых она обучалась, список полезных ключевых слов (например, чтобы ввести camera distance), и много чего еще

если вы хотите генерить именно в уже существующем жанре или подражая какому-то определенному художнику, то вот огромный список 3800+ художников и стилей, которые удалось обнаружить в латентном пространстве модели

https://promptomania.com/stable-diffusion-prompt-builder/ – билдер промтов, позволяет набрать детализированное описание, настроить параметры вроде той же camera distance, текстур, пост-процессинга, цветовой гаммы, освещения и так далее, выбрать стиль художника, размер картинки и много чего еще
2.6K views10:01
Открыть/Комментировать
2022-08-20 19:24:39
Какие-то новости (или уже не новости?) про Stable Diffusion – открыта бета версия веб-интерфейса модели, и вроде есть слух, что в понедельник веса уже релизнут

Бета вот, вроде бы каждому сейчас дают по 200 промтов бесплатно, но нигде увы эта информация не отражается

https://beta.dreamstudio.ai/dream
1.5K views16:24
Открыть/Комментировать
2022-08-19 16:34:16 https://www.karanpratapsingh.com/courses/system-design
1.4K views13:34
Открыть/Комментировать
2022-08-19 16:34:16 Не кабанчиком единым
1.2K views13:34
Открыть/Комментировать
2022-08-17 20:30:24
Для stable diffusion уже оказывается выпустили рандомайзер промтов
2.3K views17:30
Открыть/Комментировать
2022-08-16 11:23:55
Жду, когда после Stable Diffusion отменят и OPT-175B….
1.7K views08:23
Открыть/Комментировать
2022-07-25 18:53:32
Demystifying Noise Contrastive Estimation

Хороший пост про то, как вычисляются разные вариации contrastive loss’ов. Изначально проблема состоит в том, что если мы хотим выдавать скор того, насколько объект x (например, какое-то слово) подходит под контекст c, то эту оценку нужно нормализовать, посчитав скоры еще для всех остальных возможных x (например, для всех слов в словаре). Есть несколько подходов, как избавиться от этого шага:
– Local NCE: свести все к бинарной классификации – предсказываем, является ли x положительным примером, или он насемплирован из случайного шума. здесь функция аппроксимирует напрямую условную верятность p(x|c)
– Global NCE: монте-карло-семплим k примеров, и предсказываем, какой из k+1 является реальным. здесь функция аппроксимирует p(x|c) / q(x), где q – какое-то заданное случайное распределение, что тоже отбрасывает необходимость нормализовать на все остальные возможные x
– InfoNCE: по сути сводится к KL-дивергенции – чем больше непохожие (=независимы) наши примеры, тем больше KL дивергенция будет стремиться к 0

В посте собственно разбирается, как получаются лоссы / training objectives, в чем их допущения, и как вообще получается с математической точки зрения, что contrastive estimation отражает mutual information данных

https://jxmo.io/posts/nce
2.1K viewsedited  15:53
Открыть/Комментировать
2022-07-21 17:17:24
Смотрите, что выкатили ребята из Самсунга, Яндекса и Сколково.

MegaPortraits: One-shot Megapixel Neural Head Avatars

Скажу сразу, что сейчас поступаю как AI-инфоцыганка, потому что не прочитала ещё пейпер, не выделила для себя плюсы и минусы разработанного подхода, а уже пишу про него. Если даже авторы и выложили черрипики, то нельзя преуменьшить значимость проделанного ими труда.

Предложенное решение позволяет пременить анимацию лица из видео среднего качества на изображение высокого качества.

Модель учится в два этапа:
1) базовая модель с двумя энкодерами для захвата volumetric фичей и для захвата информации об анимации, а также с двумя warping-генераторами, одной 3D CNN и 2D CNN в конце;
2) image-to-image translation для получения high resolution (1024x1024) изображения.

И нельзя забывать, что это One-Shot подход, т.е. вам достаточно одной фотографии или фрейма из видео для получения анимированного аватара. Также авторы пишут, что полученную модель можно дистиллировать в легковесную модель, которая способна работать в риалтайме (130 fps на одной GPU).
1.7K views14:17
Открыть/Комментировать