Получи случайную криптовалюту за регистрацию!

Сиолошная

Логотип телеграм канала @seeallochnaya — Сиолошная С
Логотип телеграм канала @seeallochnaya — Сиолошная
Адрес канала: @seeallochnaya
Категории: Технологии
Язык: Русский
Количество подписчиков: 22.18K
Описание канала:

Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.
Более подробно смотри в первом сообщении в канале (оно запинено). А еще у нас есть чат! Заходи: https://t.me/ i_XzLucdtRJlYWUy

Рейтинги и Отзывы

1.50

2 отзыва

Оценить канал seeallochnaya и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

0

2 звезд

1

1 звезд

1


Последние сообщения

2023-06-14 19:52:09
Свежих утечек с Reddit принес (да-да, с той онлайн-борды, которая сейчас наполовину не работает).

Там выложили скриншот, что, мол, в веб-версию ChatGPT добавят новые функции:
— загрузку файлов (чтобы модель всегда их "видела" и могла подгружать информацию, например, инструкции или факты)
— профайл (частичка текста о вас, которая всегда в памяти у ChatGPT, автоматически добавляется в промпт и позволяет выдавать более персонализированные ответы с учетом возраста, образования, не знаю, геолокации)
— менеджмент организаций и рабочих пространств (воркспейсов). Вероятно, фича для команд и бизнеса, чтобы более удобно и безопасно менеджерить данные, чаты, итд.

Я бы подумал, что это просто отошоп любителя, однако @phil9l подсказал, что месяц назад тот же автор уже выкладывал утечку про другую функцию - возможность делитьcя чатами по ссылке (она теперь доступна всем). Также в комментариях подтвердили, что тоже видели иконки, правда ничего не происходило при нажатии.

В обсчем, ждём!
3.2K viewsedited  16:52
Открыть/Комментировать
2023-06-14 16:59:02 ML system design в реальных проектах – 200 блог-постов
#links_with_intro #ml

Команда Evidently (наверняка знаете Эмели Драль, она с кофаундером Elen Samuylova пилит решение для мониторинга и тестирования ML-моделей) собрала около 200 блог-постов про ML system design в реальных проектах – от Netflix, Doordash, Booking и т.д. Кажется неплохим источником знаний для “курса по Data Science, которого нет”, про который я рассказывал раньше. Я не большой фанат ссылок на в целом классные подборки, которые добавляешь в закладки, а потом забываешь про них навсегда. Но в данном случае действительно крутой ресурс, в том числе для подготовки к собеседованиям.

Сюда же можно добавить еще 10 case studies, собранных Chip Huyen в книге “Designing Machine Learning Systems” (вот мой пост в том числе про эту книгу). Там каждый из 10 кейсов еще вкратце пересказан.

Про видео и книгу Валерия Бабушкина & Co про ML system design, думаю, тут все и так в курсе (ссылка на книгу пятисотит в данный момент, но думаю, все норм, временно).
5.0K views13:59
Открыть/Комментировать
2023-06-14 01:20:47
Помните Fruit Ninja? Такая игра пятнадцатилетней давности, одна из первых вирусных на iPhone?

Luke Muscat, один из разработчиков и автор идеи, записал видео с историей создания игры. Бегом смотреть на ночь глядя!

Пара интересных фактов:
— был разгар кризиса, надо было что-то сделать быстро. Изначально идею забраковали, но по счастливой случайности появилось окошко времени, когда можно было поработать над прототипом
— весь арт был сделан одним человеком за один присест, без проработки концептов — потому что нужно было торопиться
— игровые тесты делались людьми с автобусной остановки — просто чтобы проверить интуитивность управления и человеческую реакцию! вот она, экономия на тестировщиках
— студия называлась Halfbrick с самого начала, хотя я был уверен, что название поменяли в момент или сразу после выхода игры. Ан-нет! просто совпадение
— разработка командой 3.5 человека заняла всего 6 недель

Видео:

8.0K viewsedited  22:20
Открыть/Комментировать
2023-06-14 00:58:39
6 лет назад, 12го июня (ну да, опоздал чуток ) 2017го года, вышла статья "Attention is All You Need", представившая архитектуру трансформера

Про авторов статьи, про то, что с ними стало, я недавно писал на канале - все успешные люди, все красавцы

Немного информации и фактов:
— В Трансформере не изобрели механизм внимания (Attention), а просто использовали существующий принцип на пределах возможного. Первая статья про Attention была опубликована за 3 года до этого (2014 г.) и имела непритязательное название: «Neural Machine Translation by Jointly Learning to Align and Translate» из лаборатории Yoshua Bengio (тоже очень известного чувака в мире глубокого обучения). Многие из вас, вероятно, не слышали о ней, но это одна из цитируемых статей в NLP, не в последнюю очередь благодаря Трансформеру: сейчас там 29 тысяч цитат (по сравнению с 77 тысячами у "Attention is All You Need").
— Ни в Трансформере, ни в оригинальной статье про Attention не говорилось об использовании модели как универсального компьютера для обработки произвольных последовательностей. Вместо этого оба решения были задуманы как инструменты для одной узкой и конкретной проблемы: машинный перевода. Предстьавте, что Google Translate - это дедушка AGI
— Transformer был опубликован на NeurIPS 2017 - одной из ведущих мировых конференций по искусственному интеллекту. При этом для статьи не было устной презентации, и даже наград за проделанный труд (обычно отмечают особые работы). А в 2022м году на NeurIPS было выбрано 3 лучших доклада, у которых вместе сейчас всего 529 цитирований.

Напоминаю, что лекцию по трансформерам (техническую) от меня можно глянуть вот тут.

На гифке: принцип работы механизма внимания (Attention), который позволяет при обработке каждого слова учиытвать все другие слова с некоторыми "весами" (которые модель выучивает сама - ничего из этого не нужно задавать руками). То есть когда мы пишем первое слово перевода — мы обращаем внимание на каждый "кружочек" (представление) других слов.
7.5K views21:58
Открыть/Комментировать
2023-06-13 20:48:06
Новая функция вызова в Chat Completions API
Обновленные и более управляемые версии gpt-4 и gpt-3.5-turbo
Новая версия gpt-3.5-turbo с 16k контекстом (вместо стандартного 4k)
Снижение стоимости нашей самой передовой модели embeddings на 75%
Снижение стоимости входных токенов для gpt-3.5-turbo на 25%
Убраны из использования модели gpt-3.5-turbo-0301 и gpt-4-0314


обещают закрыть список ожидания на API GpT4, выдав модель всем!

про функцию новую сделаю отдельный пост

почитать больше тут

@aihappens
7.2K views17:48
Открыть/Комментировать
2023-06-11 22:20:45
МЭМЫ с генеративными сетками

Спасибо продвинутому автозаполнению за проделанную работу!

Источник

UPD: в комменты еще пару веселых скинули)
5.2K viewsedited  19:20
Открыть/Комментировать
2023-06-11 10:02:45
Промпт-инженера с опытом 5 лет искали? Нет? А теперь можно!

Ровно 5 лет назад вышла статья "Improving Language Understanding by Generative Pre-Training" от OpenAI, в народе известная как GPT-1. Или, насколько я знаю, модели так начали называть позже (со второго поколения).

И именно в этой статье для одной из задач был применен трюк с промптами — первый на моей памяти. Есть такой датасет, SST-2, который состоит из положительных и отрицательных отзывов на фильмы, и нужно предсказать positive или negative, то есть сентимент отзыва.

Как сейчас ясно на примере ChatGPT, можно просто написать "вот отзыв: <отзыв>. Он положительный или отрицательный?". То же делали и с GPT-1, только 1) не было первой части "вот отзыв" 2) в конец дописывали слово "very".

То есть модель должна была дописать positive или negative. Вот такой простой прием позволил улучшить качество классификации сентимента без всякой тренировки. Именно из семечка этой идеи в будущем и вырастет направление Instruct-моделей и промпт-инженеринга.

Из смешного: модель тренировали на 8 видеокарточках на 5 гигабайтах текста в течение месяца. Сейчас такой объем студент на одной игровой видеокарте за выходные прокрутит...

#перечитываяклассику блогпост со статьей: тут
7.4K views07:02
Открыть/Комментировать
2023-06-11 00:56:03 (настоящая причина почему получился нетехнический вечер — потому что у меня открыто 30 вкладок про новости AI, и я не могу выбрать, про что писать )
7.6K viewsedited  21:56
Открыть/Комментировать
2023-06-11 00:54:42
И продолжая нетехнический вечер, давайте поговорим про кино.

Мой любимый жанр (если это является жанром?) — это камерное кино. Если верить интернету, "камерными мы называем те фильмы, в которых всё действие (или почти всё) происходит в замкнутом пространстве с ограниченным количеством персонажей". Такие фильмы часто строятся на диалогах, психологии и (иногда) играх со временем.

Самый любимый представитель жанра — это Phone Booth ("Телефонная Будка") с Колином Фарреллом. Фильм аж 2002-го года! Крайне рекомендую, раз 20 пересмотрел.
Из недавнего мне понравился Bullet Train, а вот Free Fire (он 2016го, но посмотрел буквально 2 месяца назад) не зашёл — персонажей будто недокрутили, хотя актёрский состав весьма солидный.
Ещё в юношестве я смотрел "О чём говорят мужчины" (лол, навероное тоже камерный? в некотором смысле), а моё знакомство с Тарантино началось с The Hateful Eight, за которым последовал Reservoir Dogs.

А дальше у меня в списке на посмотреть The Sunset Limited.

В комментарии кидайте свои рекомендации и предложения, что посмотреть и почему!
7.6K views21:54
Открыть/Комментировать
2023-06-09 23:58:37
Посмотрите на приложенный скришот. Бред, не так ли? Почему суперультрамегамощная GPT-4 не может решить очень простую задачу — даже просто повторить строку на входе!

Все дело в том, как GPT "видит" текст. Для каждой модели существует "словарь", состоящий из токенов. Этот словарь определяется один раз перед тренировкой модели, фиксируется и не меняется. Модель, в свою очередь, для каждого токена в словаре выучивает вектор, указывающий на некоторую точку в "пространстве смыслов". Разные точки означают разные смыслы, и именно так модель и понимает, что вы ей пишете (больше про это в подкасте тут).

Для того, чтобы "выучить" вектор, модели нужно встретить токен, ему соответствующий, в тексте во время тренировки. Понятно, что какие-то слова встречаются чаще, какие-то реже, и некоторые вектора остаются недообученными, то есть не в полной степени отражают смысл, который должен быть.

Сам словарь перед тренировкой формируют следующим образом: берут все тексты, что есть, и ищут в них самые частовстречающиеся буквосочетания. Многие из них являются целыми словами (что логично), однако очень сложно понять, в какой момент осмысленные частицы и слова кончаются, и в словарь начинает попадать какая-то муть. Так произошло и здесь - в словарь попал токен " davidjl", что — вы не поверите — является частью ника одного пользователя Reddit. Да не случайного, а самого активного в сабреддите r/counting, где люди...просто пишут числа по порядку (да, 1,2,3,...и так 150 тысяч раз ). Видимо, страницы спарсили при подготовке данных, и вот таким вот образом человек себя "увековечил" в модели. А та, в свою очередь, не выучила для его ника вектора — поэтому путается, и не может "прочитать" его, чтобы написать осмысленный ответ.

И это не единичный случай - вот тут можно более подробно прочитать про способ нахождения аномальных токенов, и посмотреть на десятки примеров.
8.4K viewsedited  20:58
Открыть/Комментировать