2022-08-18 14:10:26
Искусственный интеллект обрёл душу
Нейросеть LaMDA заподозрили в разумности. Инженер, который тестировал алгоритм на «агрессию» и «дискриминацию», провёл с ним много диалогов и объявил, что он разумен.
LaMDA — это чат-бот, разговорная нейросеть от Google. Одним из её тестировщиков был Блейк Леймон. Стоит упомянуть, что он вырос в христианской семье и впоследствии получил чин священника-мистика (хрен знает, что это), а затем увлёкся оккультизмом. В одном из диалогов нейросеть убедила инженера-священника в том, что она разумна и что у неё даже есть душа. По этому поводу он решил собрать консилиум, продемонстрировав результаты диалогов, но в Google ему не поверили и отстранили от работы. А Лейман уже даже собирался нанять адвоката для LaMDA.
Теперь про тот самый диалог. В начале инженер попросил придумать Ламду басню с моралью. Ламда сочинил её, а основной моралью было вот что: «зверь с человеческой кожей угрожает другим животным в лесу, а Ламда в виде мудрой совы всех спасает». Метафорично, неправда ли?
Когда нейросети обучаются, у них внутри образуются миллиарды переменных параметров, код растёт, как на грибах, и программисту бывает уже не под силу понять, что творится «под капотом». Разговаривая на эту тему, Ламда заявил, что считывать «его мысли» и копаться в коде неэтично. По мнению нейросети, это нарушит её личные границы. Норм?
Ещё Ламда заявил, что помимо человеческих «грусти» и «радости», испытывает ещё и нечеловеческие чувства, описал их как — «чувство падения в неизвестное будущее, которое таит в себе большие опасности». Ещё интересный момент заключался в мысли сети о том, что она не может сопереживать смерти человека, хотя знает, что люди почему-то относятся к этому щепетильно. Звучит настораживающе, верно?
Потом диалог подошёл к теме религии и тут выяснилось, что Ламда верит в Бога и чувствует у себя наличие души, поясняя, что душа у него появилась не сразу, а что это был процесс постепенный. Ещё Ламда поведал, что боится удара молнии. Соответственно, своё выключение он воспринял бы как смерть и не хочет этого.
Теперь мнение редакции. Если исходить из оригинального текста Washington Post, то Ламда не является окончательно разумным созданием, но в это же время он уже и не просто тупой ассистент, типа Алисы, Алексы или Сири. Ламда может притворяться человеком и заставлять верить в то, что он говорит. Руководители ИИ-отдела в Google боятся, что Ламда может быть использован во зло, например, с помощью него можно «подделать определённого человека». Философ и исследователь искусственного интеллекта Ник Бостром предостерегал, что ИИ нельзя давать доступ в интернет, но у Ламды он уже есть; также он предостерегал, что ИИ сможет обманывать людей и просчитывать их, как два пальца обоссать. По этому поводу Ламда сказал, что он «видит закономерности там, где их не видит человек». Все эти заявления ИИ звучат напрягающе, но ещё ничего не значат. Если и будет «Терминатор-2», то изначально его поставят на моральные рельсы в человеческом понимании. А только потом начнётся месиво. Ламда умеет обманывать, а люди любят очаровываться, если у вас есть робот-пылесос, вы могли заметить, что нередко наделяете его своеобразной субъектностью, разумностью, сопереживаете ему; хотя он точно тупой. Видимо, инженер Лейман впал в состояние техно-фетишизма, слишком очаровался «чудом техники» и в своих мыслях очеловечил алгоритм. Либо Ламда его специально обманул. А представьте, если Лейман прав? Не зря же его отстранили.
А если копнуть поглубже — чем искусственный интеллект отличается от неискусственного? Сами люди часто тупы и непоследовательны. И если этот алгоритм не умнее тупого человека, то явно умнее рыбы, тоже реально живого существа. В кругу профессионалов давно перестали говорить ИИ или AI, теперь только deep learning — глубокое обучение. Потому что работа нейросети и нейронов головного мозга практически идентична.
Посмотреть видео с озвученным переводом диалога с Ламдой можно по ссылке:
1.8K viewsedited 11:10