Получи случайную криптовалюту за регистрацию!

Сиолошная

Логотип телеграм канала @seeallochnaya — Сиолошная
Адрес канала: @seeallochnaya
Категории: Технологии
Язык: Русский
Количество подписчиков: 43.36K
Описание канала:

Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.
Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/ i_XzLucdtRJlYWUy

Рейтинги и Отзывы

1.50

2 отзыва

Оценить канал seeallochnaya и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

0

2 звезд

1

1 звезд

1


Последние сообщения 10

2023-05-30 20:55:36
Сегодня вышел долгожданный ремейк легендарной игры 1994го года "System Shock". Деньги на него собирали всем миром на Kickstarter, а релиз переносился несколько раз.

Оригинальная игра была одной из первых в моём любимом жанре - Immersive Sim. В нем упор делается на выбор и креативность игрока. Определяющей чертой является использование хорошо проработанных систем, которые реагируют на различные действия, что в сочетании со сравнительно широким набором возможностей позволяет игре поддерживать разнообразные и творческие решения проблем, а также формирующийся игровой процесс, выходящий за рамки предзаготовленного разработчиками.

Игра стала в некотором смысле прорывной, а развитые версии игровых механик можно наблюдать и в наши дни. Например, записки и аудиодневники, обрывки информации, которые все вместе создают у игрока ощущение конкретного места и его реальности.

Сам же жанр тесно связывают со студией Looking Glass, именно её символ вы видите на скриншоте первого достижения в System Shock 2023го года. Это достижение дают за введение правильного пароля "0451" для первой встреченной закрытой двери — таким же он был и в 90-ых. "Простая отсылка к Рэю Брэдбери, и все тут" — скажете вы. Код появился и в последующих играх студии, став в каком-то смысле их узнаваемой подписью. Однако на рубеже нулевых дебет не сошелся с кредитом, и они закрылись.

Разработчики разошлись по разным студиям. Код 0451 начал появляться и в других играх, в каком-то смысле отражая идеи геймдизайнеров и став визитной карточкой Immersive Sim-игр.

Очень рекомендую посмотреть видео: 0451 в immersive sim. Краткая история игрового мема

А если понравится, то приглашаю узнать чуть больше про жанр, его философию и современные проблемы:
— интро в жанр за 7 и 25 минут
— видео-эссе на 50 минут: Как погибли иммёрсив симы и почему это хорошо
— анализ падения утопии в Bioshok (текст). Сценарий игры включает в себя критическое переосмысление творчества и философии Айн Рэнд, и в видео как раз представлен разбор истории.
10.6K viewsedited  17:55
Открыть/Комментировать
2023-05-29 22:50:25 Возможно, наиболее часто упоминаемой возможностью GPT-4 на момент релиза было прохождение Uniform Bar Exam (UBE, экзамен на юриста в США) лучше 90% людей (говорят "90й перцентиль"). В недавно опубликованной статье (ссылка) делается проверка сего заявления.…
Мне аж интересно стало, как вы воспринимаете эту новость
Anonymous Quiz
62%
OpenAI хотели хайпу нагнать, шуму навести, и специально взяли странные данные для оценки
38%
Простая человеческая ошибка, никто не идеале, чего уж
2.6K voters10.9K views19:50
Открыть/Комментировать
2023-05-12 18:47:40
Продолжая тему образования и ChatGPT. Посмотрел 15-минутный TED Talk от Sal Khan, создателя Khan Academy, некоммерческой образовательной организация, предлагающей онлайн-курсы и площадку для обучения. В своем рассказе Sal поделился первым опытом интеграции…
7.7K viewsedited  15:47
Открыть/Комментировать
2023-05-12 15:21:51 Mark Brown, автор канала Game Maker's Toolkit, анонсировал Game Jam 2023 - ежегодный 48-часовой марафон по созданию игр на заданную тематику.

В анонсе марафона делается акцент на Generative AI и его применимости для разработки игры в столь короткие сроки.
можно использовать модели для генерации и улучшения кода
можно использовать модели для брейншторма идей, сценария игры
нельзя генерировать арты, музыку, написанный текст (диалоги?) итд — это должно быть сделано человеком

Еще интереснее объяснение от Mark'а:
— программисты (как сообщество профессионалов) в целом не против использования AI-ассистентов, и в некоторых компаниях инструменты вроде Codex активно используются большинством. Это очень помогает в работе и сохраняет кучу времени;
— в то же время многие артисты (художники/дизайнеры) "see AI as a real, existential threat to their livelihoods". А ещё неразрешенными остаются этические вопросы, касающиеся тренировки моделей на работах реальных людей (почти всегда - без одобрения авторов).

Поэтому предлагается ценить время и людские ресурсы, затрачиваемые на работу — вместо замены их на роботов.

¯\_(ツ)_/¯ вот она, разница отношений

P.S.: Вообще когда-то давно я хотел разрабатывать игры, а не шатать эти ваши нейросети, да и сейчас я активно играю, поэтому очень интересуюсь игровым дизайном, мелкими деталями, у которых есть функции, но которые легко пропустить (или просто не задуматься). Канал Mark'а — один из лучших и интереснейших в этом плане. Вот мои фавориты (без упорядочивания), даже если вы не играете в игры — дайте этим видео шанс, принципы и идеи из них во многом применимы и к кинематографу, и к книгам:
1. How Nintendo Solved Zelda's Open World Problem (как раз актуально - сегодня выходит новая Zelda, потенциально игра года)
2. How To Analyse A Video Game’s Design
3. How Game Designers Solved These 11 Problems
4. How The Forgotten City Creates The Perfect Mystery
5. Can we Improve Tutorials for Complex Games?

Я уверен, что из каждого видео можно подчерпнуть что-то полезное (даже неиграющим, да). Те, кто по моему совету посмотрят видео — обязательно пишите впечатления в комментарии
8.0K viewsedited  12:21
Открыть/Комментировать
2023-05-12 13:05:17 Презентация скорее обзорная, и если вы чего-то не знали, то, вероятно, и не поймете, однако на основе этого можно уже выписать вопросы, составить план и начать закрывать дыры в знаниях (если это актуально).

Не забывайте про промпт для GPT-4, чтобы попросить модель объяснить вам что-либо в роли учителя и предоставить примеры с решением :)
7.9K viewsedited  10:05
Открыть/Комментировать
2023-05-12 13:05:17 #ml

Начался удаленный блок летней школы OxfordML 23. Утащил для вас презентацию Fundamentals of Mathematics for Machine Learning.

Хорошее саммари минимального необходимого материала: линейная алгебра, матанализ, оптимизация, теория вероятностей. Приятно, что все с примерами.

Лично я буду использовать ее как шпаргалку для подготовки к собеседованиям.
7.6K views10:05
Открыть/Комментировать
2023-05-11 19:16:09
Мэм от автора канала @lovedeathtransformers

Я справа или слева??? Пишите в комментарии!
9.1K views16:16
Открыть/Комментировать
2023-05-11 10:21:19 ВОЗМОЖНОСТЬ ЗАЦЕНИТЬ МОЙ МИКРОФОН И КАЧЕСТВЕННЫЙ ЗВУК!

Вышла новая серия подкаста "Трещим" Александра Ильина @digital_ninjaa со мной в качестве гостя.

Было очень интересно пообщаться, мы обсудили:
— базовый принцип работы ChatGPT
— влияние подобных моделей на наш мир
— преимущество OpenAI в гонке ИИ-ассистентов
— закрытость OpenAI, или почему мы не увидели статью про GPT-4
— AGI и глупость/неопределенность самого определения (лол)
— проблему AI Alignment
— влияние ChatGPT/Copilot на жизнь программистов
— а последние 20 минут трещали про меня, мою карьеру и дальнейшие планы. Если вы подписались недавно, то можно начать знакомство со мной, автором канала, отсюда. Или же посмотреть прошлое интервью двухгодичной давности, где акцент на моем опыте и мировоззрении еще больше.

Ну и на всякий случай напоминаю, что моя история есть в закрепленном (первом) сообщении на канале, а все полезные материалы, включая бесплатные курсы, лекции, статьи и собеседования — во втором.

UPD: еще будет аудиоверсия подкаста примерно на десятке разных платформ, но это уже на выходных, примерно через 3-4 дня.
9.9K viewsedited  07:21
Открыть/Комментировать
2023-05-10 23:27:26 В официальном ролике на канале Google ведущая сказала, что PaLM 2 меньше, чем "предыдущие языковые модели". Самая большая из известных мне как раз и была PaLM, на 530 миллиардов параметров (GPT-3, напомню, имела 175B). Это не делает модель глупее - ведь её можно натренировать лучше буквально десятком разных способов, начиная от языкового разнообразия и заканчивая банально более длительной тренировкой. Оптимальности масштабирования нейросетей, кстати, посвящена отдельная глава в отчете выше.

То же написано в блогпосте: «...новый метод делает PaLM 2 меньше, чем PaLM, но более эффективной с лучшей производительностью, в том числе более быстрым процессом генерации, меньшим количеством параметров для хранения в памяти и более низкой стоимостью обслуживания.»

Видимо, как предрекал Sam Altman, гонка размеров кончилась, и дальше модели гигантскими шагами расти уже не будут: «Я думаю, что мы находимся в конце эпохи, когда будут эти гигантские модели, и мы будем делать их лучше уже другими способами».
10.1K viewsedited  20:27
Открыть/Комментировать
2023-05-10 21:02:04
Для PaLM 2 статьи нет, есть tech report, как и от OpenAI для GPT-4)

Блогпост: https://ai.google/discover/palm2/
Ссылка на pdf-отчет: тут

Снова 100 страниц метрик и бенчмарков, без деталей архитектуры. Сходу часть про Alignment и AI Safety не нашел

UPD: больше интересного мне ничего не показали, каких-то ВАУ-штук нет, поэтому всё(
10.0K viewsedited  18:02
Открыть/Комментировать