Получи случайную криптовалюту за регистрацию!

Сиолошная

Логотип телеграм канала @seeallochnaya — Сиолошная
Актуальные темы из канала:
Selection
Адрес канала: @seeallochnaya
Категории: Технологии
Язык: Русский
Количество подписчиков: 43.17K
Описание канала:

Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.
Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/ i_XzLucdtRJlYWUy

Рейтинги и Отзывы

1.50

2 отзыва

Оценить канал seeallochnaya и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

0

2 звезд

1

1 звезд

1


Последние сообщения 15

2023-04-20 16:39:29
В смысле это не в игре взорвалось?
9.8K views13:39
Открыть/Комментировать
2023-04-20 16:34:44
Наследник Н1...
9.1K views13:34
Открыть/Комментировать
2023-04-20 16:34:08
8.7K views13:34
Открыть/Комментировать
2023-04-20 16:17:37
^ Видео поможет скоротать время до запуска трансляции SpaceX, ведь сегодня будет снова попытка запуска. Заправка уже началась, жители давно эвакуированы. Надеюсь, ничего не примерзнет и не сломается, и мы насладимся полётом. Трансляция запустится через…
8.6K viewsedited  13:17
Открыть/Комментировать
2023-04-20 15:17:27 ^ Видео поможет скоротать время до запуска трансляции SpaceX, ведь сегодня будет снова попытка запуска. Заправка уже началась, жители давно эвакуированы. Надеюсь, ничего не примерзнет и не сломается, и мы насладимся полётом.

Трансляция запустится через 28 минут, за ~45 минут до старта (пока запланирован на 16:28 по мск)
8.2K viewsedited  12:17
Открыть/Комментировать
2023-04-20 15:10:29 На канале Ильи Варламова вышло 30-минутное видео про нейросети. Мне посчастливилось быть одним из приглашенных экспертов, дающих комментарии. Ещё там засветился мой приятель Лёша Хахунов, СТО Dbrain (компании, откуда я знаю оооочень много крутых инженеров). Кстати, у него есть свой канал @aihappens, на который я офк подписан (ну вдруг вам интересно). UPD: кто-то пишет, что по такой ссылке не переходит, попробуйте вот эту.

Само видео:



P.S.: ахаха блин кто придумал делать такие крупные наезды на лицо?) ну шо такэ...
7.8K viewsedited  12:10
Открыть/Комментировать
2023-04-19 17:49:43
Смотрите шо у меня есть - двухчасовая лекция по трансформерам, которую я читал (на одном дыхании!) полторы недели назад. Это детальное погружение во все нюансы, в каких-то аспектах даже глубже, чем спрашивают на собеседованиях! Однако первая часть, до разбора…
8.5K viewsedited  14:49
Открыть/Комментировать
2023-04-19 17:31:54 Смотрите шо у меня есть - двухчасовая лекция по трансформерам, которую я читал (на одном дыхании!) полторы недели назад.

Это детальное погружение во все нюансы, в каких-то аспектах даже глубже, чем спрашивают на собеседованиях!

Однако первая часть, до разбора самого механизма внимания (Self-Attention), будет интересна и нетехнарям - потому что там рассказывается про токенизацию. Это способ предобработки текста, чтобы подать его в трансформер - и в нём куда больше нюансов, чем может показаться на первый взгляд!

Не забывайте ставить лайки - это очень поможет в продвижении видео и знаний в массы - чтобы больше людей посмотрело лекцию!

P.S.: звук постарались улучшить как могли, если у вас есть идеи или нейронки, которые можно применить, чтобы сделать звук качественнее - пишите в личку или в комментарии, будем посмотреть.
9.8K viewsedited  14:31
Открыть/Комментировать
2023-04-17 23:38:04
Shall We Pretrain Autoregressive Language Models with Retrieval? A Comprehensive Study

Думаю, многие знают, что с точки зрения предоставления фактической информации GPT-модели могут чудить. GPT-4 достаточно редко врёт (субъективно), особенно если давать ей контекст, из которого можно "прочитать" и выдать ответ. Всё это приводит к достаточно логичному выводу: надо использовать внешнюю систему (типа Google или Bing), чтобы находить потенциально информацию и добавлять её в промпт - а там уже модель сама разберется. Процесс поиска нужных кусков текста называется Retrieve.

Но выходит какая-то странная вещь: с одной стороны мы никак не тренируем модели на это, только учим предсказывать следующее слово, а с другой - хотим их так применять. В мире машинного обучения такая путаница обычно ведёт к деградации качества, порой, существенного (но с LLM это почти незаметно).
Однако уже есть модели, которые прямо из коробки "подключаются" к большой базе знаний, чтобы из неё находить качественные данные прямо во время генерации текста. Я про них даже делал две лекции в 2022м году - вот, это есть в закреплённом сообщении в канале:
— Лекция про языковые модели, основанные на принципе поиска ближайших соседей: часть 1, часть 2 (понятно будет даже если вы не занимаетесь NLP)

Наконец, перехожу к сегодняшней статье: авторы проводят исследования, как такая тренировка модели (та, что во второй части лекции выше) влияет на качество. Оказывается, что рост метрик наблюдается не везде - но для задач вопросов-ответов буст существенный, что ожидаемо.

Мне кажется странным название статьи, так как это не очень похоже на Comprehensive Study, но тем не менее. Очень жду, когда к LLM-кам припахают графы знаний!

(да, этот пост написан исключительно для того, чтобы вы проверили закреп и посмотрели лекции, чтобы понять, про что речь)
4.8K viewsedited  20:38
Открыть/Комментировать
2023-04-17 16:15:02
Меньше 7 минут, однако наблюдаются некоторые проблемы с давлением, предположительно, из-за замерзшего клапана давления. Если проблема не решится за 10 секунд до запуска - таймер остановят, и может быть перенос.

Ссылка на трансляцию: тут

UPD: перенос, следующая попытка минимум через 48 часов
2.9K viewsedited  13:15
Открыть/Комментировать