Получи случайную криптовалюту за регистрацию!

модели-трансформеры генерируют целые фрагменты текста или, ска | Селедка над шубой

модели-трансформеры генерируют целые фрагменты текста или, скажем, изображения по краткой затравке. обученные на миллиардах слов и картинок, они оперируют своими, скрытыми от нас ассоциациями и связями, превращая взаимодействие с ними в примитивное подобие заклинательной магии

поиск правильных слов для затравки (prompting) для того, чтобы заставить нейросети произвести нужное действие, – уже целое искусство: например, краткие метафоры (см. картинку) с ними не работают (это коллаж). зато любопытный эффект производят длинные и путаные наборы, смесь концепций и понятий, – ну тут пробуйте сами –

но еще шаг – и модели, которые будут управлять нашим переусложненным миром, станут подчиняться лишь таким приказам. призывам, изложенным в путаных герметических формулах, которыми владеют лишь экзархи, достигшие приличных уровней в чувствовании нейросети