Получи случайную криптовалюту за регистрацию!

New Yorko Times

Логотип телеграм канала @new_yorko_times — New Yorko Times N
Логотип телеграм канала @new_yorko_times — New Yorko Times
Адрес канала: @new_yorko_times
Категории: Технологии
Язык: Русский
Количество подписчиков: 4.83K
Описание канала:

Юрий Кашницкий (Yorko, тут @yurycorn) – про машинное обучение, науку, галеры, матан, фэйлы и прочие интересности.
https://www.linkedin.com/in/kashnitskiy

Рейтинги и Отзывы

5.00

2 отзыва

Оценить канал new_yorko_times и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

2

4 звезд

0

3 звезд

0

2 звезд

0

1 звезд

0


Последние сообщения 2

2022-12-09 15:35:57
От темы спорта №1 вы не уйдете, сегодня стартуют четвертьфиналы, а мой брат https://twitter.com/ikashnitsky тем временем обнаружил удивительную вещь. Если ставить всегда на аутсайдеров, окажешься в плюсе за счет сенсаций. Вертикальные отрезки – заработок. Диагонали – потери от матчей, в которых реализовался наиболее вероятный исход. Верно только для группового этапа, с 1/8 финала уже можно обратно в ноль откатиться. Пост на реддите https://tinyurl.com/u22cfwrf. This is not a financial advice.
1.6K viewsYury Kashnitsky, edited  12:35
Открыть/Комментировать
2022-12-09 11:45:46 chatGPT и тестовое на Machine Learning Engineer
#ml

Чтоб уж закрыть эту тему https://t.me/new_yorko_times/25: да, chatGPT почти с ходу сделала мое предложенное тестовое задание. Сразу так все засчитать нельзя, конечно, но модель адекватно реагирует на указание ошибок и даже исправляет код. Если б это было live coding интервью, то chatGPT прошла бы его на 90%. Действительно иногда закрадывается мысль, что по то сторону – кол-центр в Филиппинах (после того как я указывал на чуть более сложные баги, модель думала дольше обычного).

Что я сделал: скормил описание тестового задания – там предыстория, потом довольно стандартно для MLE: обучить модель, провалидировать, обернуть в API и в докер, далее порассуждать про метрики, дашборды и долгосрочную поддержку модели в проде. Первым делом chatGPT описал все шаги словами, далее я попросил написать Python-код для всего описанного. Так появились отдельные сниппеты кода для обучения модели, обкачки сайта с тестовыми данными, прогнозов модели и flask API с эндпойнтом для прогнозов модели. Все – с нормальным описанием. Что особенно порадовало: в описании задания (на английском) я дал две строчки кода для чтения данных (Python), модель поняла и использовала именно их.

“Cool. And what would be the code for the Docker image?” – есть, бери копируй

“Can you create a whole structured repository with all the snippets of code written above organized in files model.py, app.py, and Dockerfile?” Пожалуйста!

/
|- all-data.csv
|- model.py
|- app.py
|- Dockerfile
|- README.md

“What would be the content of the Readme file?” – и вот он ридми, лучше чем у половины кандидатов, делавших это тестовое.

Конечно, я взял и решил все воспроизвести. Дальше еще несколько уточнений типа “the model training code is missing the text featurization step after line 11 and before model training (line 15). Can you fix that?” и готово!

Нет, конечно, оно само не запустилось, но с парой-тройкой фиксов – реально заработало. Средний кожаный мешок за час не сделал бы лучше.

Можно, конечно, отмахнуться и сказать, что chatCPT вообще тупица, квадратное уравнение не может решить, а в случае тестового просто воспроизвела что-то увиденное на гитхабе (как будто уже это не чудо!) Но так ли уж это отличается от того, как задание сделал бы человек?

Приехали. Найму таки MLE и откажусь от этого тестового. Хороший вопрос еще, чем заменить.
2.6K viewsYury Kashnitsky, edited  08:45
Открыть/Комментировать
2022-12-08 19:57:29 Вот вам еще веселая история на сегодня: последнюю неделю вокруг меня прям все усиленно тестируют ChatGPT. Включая и одного из моих профессоров (у меня их два). Так вот, профессор этот — математик, ведет несколько курсов по матану в универе. Говорит, попробовал скормить ChatGPT примеры из домашек и экзаменов базового курса матана для студентов, и нейронка на половину из них(!) выдала правильный ответ и подробно расписала решение. Походу, придется пересматривать то, как проходят экзамены в универах, иначе студенты начнут просто через ChatGPT их решать
1.0K viewsYury Kashnitsky, 16:57
Открыть/Комментировать
2022-12-08 19:57:29 Споров про chatGPT еще много будет, а вот домашки надо менять уже сейчас. Писал про похожий эффект https://t.me/new_yorko_times/20 Напоминает, как я на 4 курсе физтеха узнал про Wolfram Alpha и хлопнул себя по лбу: это ж сколько времени можно было сэкономить. Так же как уже давно нет смысла давать задания в стиле "продифференцируй-ка мне x log(x) sin(x)", так и сейчас преподам надо призадуматься (пошел проверять с chatGPT свой take-home assignment, который выдаю кандидатам).
upd. кстати, продифференцировать x log(x) sin(x) chatGPT не выдюжила
1.1K viewsYury Kashnitsky, edited  16:57
Открыть/Комментировать
2022-12-08 19:02:23 Random coffee с коллегами и демки
#career #tips

В продолжение истории https://t.me/new_yorko_times/19 про придворного датасаентиста вот еще пара советов, как повысить свою visibility, а заодно кругозор и (вероятно) даже эффективность работы.

Общайтесь с коллегами. Нет, не так. Общайтесь с кучей коллег из тех, с кем потенциально имеет смысл общаться. То что вас посадили с Гарри, Линдой и Ольгой, не значит, что надо общаться только с ними. Я как пришел в компанию, прогулялся взглядом по дереву организации и отметил 6-7 имен, в основном аналитиков, ML-рисерчеров и т.д. Забил с каждым по встрече, буквально по 40 мин раз в неделю. Примелькался. Довольно быстро каждому собеседнику стал задавать 3 вопроса: “Расскажи про самый прибыльный проект”, “Расскажи, какие источники данных/либы/репозитории оказались наиболее полезны в твоей работе”, “Где почитать про проекты вашей команды?”. Потом я уже начал общаться и со случайными продактами, экспертами, и т.д., не только с нёрдами из своего круга. Не буду лукавить, в какой-то момент митингов стало многовато и я отказался от дополнительного общения, но примерно с 15-ю сотрудниками пообщался. Помимо visibility есть слабо осязаемый плюс: ты начинаешь лучше знать людей в компании, связываешь одних с другими (повышаешь свою betweenness, выражаясь в терминах графов), иногда случайным советом по датасету или утилитке кому-то поможешь. И вообще я верю в distributed knowledge representation: знания – не в гитхабе и не на Confluence. Знания – в головах людей. Так что именно прямое общение с людьми позволяет тебе лучше что-то узнать.

Второй совет про демо-сессии. Если у вас в команде/компании их еще нет – вперед, делайте! В моем случае такие knowledge sharing sessions были в компании, но не в команде. Я устроил серию внутри команды – строго для нас, можно про все вещать без цензуры. Возможно, это не будет верным для любой команды, но у нас проектов больше, чем людей, и на таких демо-сессиях мы вещаем, кто что делает, в какие проекты вовлечен. Так узнаешь и кто чем занят (см. совет первый, опять получается лучше себе и другим помогать за счет случайных инсайтов по данным/методам/либам). И я взял за привычку делать как минимум одну презу по каждому проекту. Обкатываю их на внутренних демо, затем – на больших на всю компании, многие проекты еще описываю во внутреннем портале. Наконец, нового человека в команде можно отправить смотреть демки, видео, конечно, никто не смотрит, но пролистать слайды про интересующий проект – почему бы и нет.

Понимаю, что советы скорее для таких же патологических экстравертов, как я, но просто делюсь тем, что оказалось полезно. Можно брать и повторять/улучшать.
1.1K viewsYury Kashnitsky, 16:02
Открыть/Комментировать
2022-12-07 22:18:46 О главном

Кажется диким завести блог после 24.02.22 и ни слова не сказать про главное, что происходит в мире. Такой пост скорее всего будет только один, но он будет.

Пока мы в конце года суетимся с проектами/OKR/НГ, многие украинцы продолжают погибать и замерзать. Каждый день. Нельзя об этом забывать и привыкать к войне. Также как нельзя иметь ничего общего с дрябло-пассивными, молчаливо поддерживающими Бучу и прочие изуверства.

Ничего информативного не могу написать. Точнее, написал было много, но все не то, вряд ли кому поможет, но точно кого-нибудь выбесит. Да и это примерно как сочувствовать коллеге, жена которого заболела раком - что ни скажешь, все как пукнуть в муку, звучит жалко.

Поэтому просто констатация мнения большинства цивилизованных людей в моем окружении: Украина победит, хоть и с колоссальными потерями. Правда и психология - на стороне украинцев. Помогайте чем можете.
1.1K viewsYury Kashnitsky, 19:18
Открыть/Комментировать
2022-12-07 20:03:51 Вообще я собственными глазами наблюдал, как появился HF (без иронии). Дело было на EMNLP 2018 в Брюсселе. В чатике конференции то ли Вулф, то ли ещё кто-то, не помню уже, написали что-то вроде "ребята, мы хотим по пиву, а потом есть идеи покодить вечерком, кто с нами?". "Покодить вечерком" – это под впечатлением от доклада гугла с презентацией BERT на этой же конференции попробовать переписать его на PT. Ребята пыхтели пол-ночи и потом ещё пол-дня и появился pytorch-pretrained-bert. Ну а дальше всем известно)
1.0K viewsYury Kashnitsky, 17:03
Открыть/Комментировать
2022-12-07 20:03:51 Я еще порассуждаю про стартапы и почему я, трус такой, их не делаю. Но независимо от этого, всегда приятно вдохновиться историей, как ребята покодили вечером под пивас и родили большой продукт.
952 viewsYury Kashnitsky, 17:03
Открыть/Комментировать
2022-12-04 16:50:19 chatGPT3 сносно разрешает кореференции и ботает млкурс
#ml

Итоги года подводить вроде еще рано, но можно смело сказать, что chatGPT3 – важнейшее, что произошло в 2022 в области машинного обучения.

Конечно, я не мог пройти мимо этого чатбота и не попытаться его в чем-то подловить. Это уже многие сделали, например, Сергей Иванов даже замерил IQ chatGPT3 https://tinyurl.com/3vfje8sx (результат: 83, ниже среднего). Я потестил чатбота в задаче coreference resolution. К слову, это было первым Kaggle-соревнованием, где люди начали использовать BERT-подобные модели. Я прямо помню, как мы возились со всякими олд-скул моделями, пока парень не разорвал лидерборд, выложив решение на основе берта (тогда еще не было HuggingFace, все на базе исходного гугловского кода).

Простой пример coreference resolution: по двум предложениям “Lucy went to the gym. Her dog stayed at home” понять, что местоимение “her” относится к Lucy. Похожий пример, но посложнее: “Lucy went to the Maria. Her dog stayed at home” - надо понять, что “her” относится к Lucy, а не к Maria. В соревновании примеры были посложнее, там уже и человеку надо сжечь немало глюкозы, чтоб разрешить такие кореференции.

"Zoe Telford -- played the police officer girlfriend of Simon, Maggie. Dumped by Simon in the final episode of series 1, after he slept with Jenny, and is not seen again. Phoebe Thomas played Cheryl Cassidy, Pauline's friend and also a year 11 pupil in Simon's class. Dumped her boyfriend following Simon's advice after he wouldn't have sex with her but later realised this was due to him catching crabs off her friend Pauline."

Попробуйте прочитать этот отрывок и понять, к кому относится “her”, выделенное жирным шрифтом. Задача упрощается тем, что даются два варианта: “Cheryl Cassidy” или “Pauline” (местоимение может и не относиться ни к одному из них). В данном случае ответ: Cheryl Cassidy.

Вот в такой постановке задачи ванильный BERT без дообучения выбивает 76% accuracy. Потом мы уже увидели, что с дообучением BERT уже и под 98% умеет.

Я набрался терпения и подал chatGPT3 на вход 100 примеров из этой Kaggle-задачи в формате "{Text}. Does '{Pronoun}' at an offset of {offset} chars refer to {A} or {B}?". И что ж, до файнтюненного берта, конечно, далеко, но получилось как раз 76% accuracy (и 69% micro-F1, что совсем чутка меньше, чем у недообученного берта). Порадовало, что chatGPT3 пыталась объяснить, почему считает, что местоимение относится именно к одному человеку, а не к другому.

Для такой zero-shot постановки задачи да в no-code стиле это очень даже годное решение на выходе, сравнимое с недообученным BERT-ом, который сейчас считается чем-то данным, а тогда в 2018 всему сообществу Kaggle пришлось изрядно повозиться, чтоб успешно запустить берта.

Интересно будет проверить chatGPT3 в Winograd-схемах, простых примерах, в которых, согласно их создателю, алгоритму нужно проявить здравый смысл (commonsense reasoning). Пример: “The city councilmen refused the demonstrators a permit because they [feared/advocated] violence” В зависимости от подстановки “feared” или “advocated” местоимение “they” относится к “councilmen” или ”demonstrators”.

Еще chatGPT3 довольно сносно ботает задания млкурса. Сэкономлю место, про это рассказал на LI – https://tinyurl.com/yc3mbjtd.

Что сказать… раньше, когда я слышал AI, я обязательно поправлял, говорил, что мы, специалисты работаем с машинным обучением, а не с искусственным интеллектом. AI for advanced If-Else, перемножатели матриц, вот это все. Сейчас уже надо быть аккуратней, уже видно, как машинное обучение ведет к реальному искусственному интеллекту. Здравый смысл смоделируют, свяжут вместе языковые, голосовые, фото- и видео-модели, добавят графы знаний, базы данных и доступ к Интернету + какие-то из технологий, о которых мы пока и не подозреваем – и ух, сложно представить, что будет.

upd. версия с картинками – в блог-посте https://yorko.github.io/2022/chatgpt3-coref-resolution
1.6K viewsYury Kashnitsky, edited  13:50
Открыть/Комментировать
2022-12-02 19:08:23 Придворный Data Scientist: про свечение лицом в контексте карьеры
#career #tips #coolstroty

Чтоб расти по карьерной лестнице, добиваться признания, власти и денег – недостаточно просто пахать. Лучше всего (из того, что я видел) про это говорится в книге “Rise" https://www.goodreads.com/book/show/12838919-rise, но суть в том, что еще нужна visibility. Если ты сидишь, пилишь потрясные штуки и никому про это не рассказываешь, вряд ли ты чего-то добьешься. В связи с этим история на стыке кулстори и реального совета. Если покажется, что я слегка понтуюсь, значит, так оно и есть. Но все равно может быть полезно.

Работал я, работал уже почти два года на одном месте, что для меня много. А потом взял да написал боссу своего босса (skip-manager), одновременно COO: “Здравствуй, дорогая! Я тут уже давно, давай пообщаемся, расскажу тебе что-нибудь крутое про датасайнс”. Она с удовольствием откликнулась, еле-еле с помощью секретаря нашли слот на полчаса – и вот я рассказываю про свой любимый tf-idf с логрегом, почему слово “аллель” может быть важнее, чем “привет”, про основы эмэля, как я уже три чужих берта заменил на этот бейзлайн без сильной просадки по качеству и прочее-прочее. Для нее это был как глоток свежего воздуха, после давнего рисеча в физике и последующих 15 лет executive-работы с 35 часами митингов в неделю. Забила мне регулярные “reverse mentoring sessions”, где я неформально рассказываю про наши проекты, достижения и фэйлы, чему мы научились после этих фэйлов. Где-то советую, какие из идей реалистичны, какие – нет ( в духе поста про детекцию булщита https://t.me/new_yorko_times/11). В-общем, придворный Data Scientist. Борзанул уже и настолько, чтоб советовать, куда можно было б компании двигаться и как удерживать ключевых сотрудников (завуалированно намекая, что я такой ветреный, меня можно и потерять).

Все это добавило visibility, в январе ждет уже второе повышение (хотя многие тут наверное ботали causal inference, знаем, что нельзя тут точно говорить о причинности). Берите хак, пользуйтесь, про visibility будут еще советы.
1.2K viewsYury Kashnitsky, edited  16:08
Открыть/Комментировать