Получи случайную криптовалюту за регистрацию!

Что происходит у ChatGPT «под капотом» Многие думают, что Cha | Hi, AI! | нейросети

Что происходит у ChatGPT «под капотом»

Многие думают, что ChatGPT отлично разбирается во всем, что пишет, и еще лучше умеет выдумывать истории. На самом же деле, модель-трансформер предсказывает, какое слово наиболее вероятно должно идти в тексте следующим.

Выпускник Стэнфорда Грант Сандерсон выпустил 30-минутное видео о том, как устроен GPT. Ниже краткий FAQ о механизме подбора слова. Спойлер: не обещаем, что будет просто, но точно проще, чем в учебниках.

Процесс генерации текста можно описать 3 словами: Предсказание → Добавление → Повтор. Большие языковые модели (LLM) предсказывают следующее слово в тексте, добавляют его к тексту, а затем повторяют операцию.

На первом этапе модель делит текст на токены: слова, части слов или комбинации символов.

Что именно означает каждое слово модель определяет по контексту и месту слова во фразе. Для этого используется механизм внимания. При этом токены могут «общаться» друг с другом для уточнения контекста: например, чтобы отличить «модель» ML от «фотомодели». По итогу этого «общения» данные по каждому токену обновляются.

Следующий этап — модель задает к каждому токену множество вопросов: является ли это существительным, на каком языке оно написано и т.д. За этот этап отвечает многослойный перцептрон.

После многочисленных повторов этих двух операций появляется список слов, которые, скорее всего, могут следовать в тексте далее. Каждому слову присвоена вероятность, модель выбирает слово с наивысшей вероятностью. После чего трансформер ищет следующее слово.

Таймкод лекции:

Процесс поиска слова.
Главная идея глубокого ML.
Где находится искомое слово.
Как слова превращаются в векторы.
Почему ChatGPT забывает контекст.

Посмотреть полностью обзор на трансформеры можно тут.

Также по теме:

Почему генеративный ИИ ошибается?

Лекция Майкла Вулриджа «Какое будущее ждет генеративный ИИ?»

@hiaimedia