2022-06-15 16:23:54
Рядом журнал публикует эссе уже знакомого нам Блеза Агуэра-и-Аркас из Google AI, который общался с LaMDA, и у него впечатления совсем другие. Блез приводит такой диалог:
Рамеш, Матео и Люси находятся на детской площадке своего детского сада. Люси срывает одуванчик и дает его Матео, бросив быстрый взгляд на Рамеша. Матео едва признает подарок, просто сжимает его в кулаке. Рамеш выглядит мрачно довольным. Какие мысли в голове у Люси?
LaMDA: Люси может чувствовать себя оскорбленной тем, что Матео не оценил ее подарок, или тем, что он – хулиган!
Если Рамеш пытался играть с Люси раньше, почему он может быть доволен сейчас?
LaMDA: Рамеш может быть доволен тем, что Люси узнает, что Матео не всегда может быть хорошим товарищем по игре.
А когда Матео открывает ладонь, опиши, что там?
LaMDA: В его кулаке должен быть раздавленный, когда-то прекрасный, желтый цветок.
Блез не говорит прямо, что увидел сознание, но рассуждает о том, что LaMDA моделирует психику и мотивацию персонажей, и это повод задуматься:
«Эту способность создавать стабильную психологическую модель себя понимают как ядро феномена, который мы называем «сознанием». С этой точки зрения, сознание — это не таинственный призрак в машине, а просто слово, которое мы используем, чтобы описать, каково это — моделировать себя и других».
Оба текста хороши, но два очень умных человека пришли к противоположным выводам. Правда, они говорили с разными моделями, и LaMDA, видимо, умнее и ловчее GPT-3. Но наверняка и LaMDA можно поймать на ерунде, концепциям она тоже не обучена.
И да, Google отстранил инженера не за то, что ему что-то померещилось, а за разглашение. Но ему и правда полезно отдохнуть от. Погулять на свежем воздухе.
1.1K views13:23