Получи случайную криптовалюту за регистрацию!

Pan Meditat

Логотип телеграм канала @pan_meditat — Pan Meditat P
Логотип телеграм канала @pan_meditat — Pan Meditat
Адрес канала: @pan_meditat
Категории: Блоги , Познавательное
Язык: Русский
Страна: Россия
Количество подписчиков: 2.76K
Описание канала:

Личный блог Иеронима К. об искусстве, философии, медиа и технологии.

Рейтинги и Отзывы

4.33

3 отзыва

Оценить канал pan_meditat и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

2

4 звезд

0

3 звезд

1

2 звезд

0

1 звезд

0


Последние сообщения 3

2022-06-22 14:54:03 Известный философ Дэвид Чалмерс рекламирует свою последнюю книгу Reality+: Virtual Worlds and the Problems of Philosophy, в которой рассказывает о благах метаверса, и даже поговорил об этом с порталом PC Gamer. Сайт про видеоигры по следам интервью публикует заголовок «Ну, конечно же, персонажи видеоигр под контролем ИИ могут чувствовать и иметь сознание». Если опустить пафос и избыточный оптимизм по отношению к метаверсу, возникает несколько неудобных вопросов.

В книге Чалмерс все сводит к тезису "виртуальное — реально". Вообще, дебаты о реальности симуляции восходят к спорам Джона Серля с другими философами после публикации знаменитой статьи Minds, Brains, and Programs, где упоминается мысленный эксперимент с китайской комнатой. Метафора ИИ как не знающего китайский человека со словарем проецируется на реальность в принципе — сегодня мы можем создать симуляции, скажем, фотосинтеза, но будет ли это реальный фотосинтез, если в сущности все происходит не на уровне клеток, а на уровне кода? Категоричная позиция Серля звучала так: «Сознание очевидно имеет физическую природу». То есть, никакого фотосинтеза в коде. Если нет мозга из клеток в теле, то нет и подлинного сознания; эрзац-вещи не могут производить реального эффекта. Чалмерс же считает, что симуляция фотосинтеза на феноменологическом уровне равна "материальному" фотосинтезу. Для меня здесь линией разграничения все же остается вопрос распределения энергии, и здесь я скорее на стороне Серля: реальное Солнце производит энергию; эрзац-солнце как часть симуляции ее потребляет. Я настоящий, потому что и вырабатываю энергию, и потребляю ее из разных источников, а мои воображаемые друзья — нет, потому что они не вырабатывают энергии в принципе. Мое восприятие мира и отклик на него неотделимы от тела.

Все усложняется социальной природой метаверса и социальных взаимодействий. В каком-то смысле, материального социального не существует в принципе, оно принадлежит виртуальному, особенно если верить тому же Чалмерсу. Возможно, в этом плане нет никакого конфликта, и виртуальное не должно заменять материальное. Мы смотримся в зеркало и видим там изображение самих себя — мы не относимся к нему, как к другому по ту сторону, но это не меняет для нас ценности зеркала, возвращающего бестелесный эрзац. То же самое, полагает Чалмерс, возможно и при взаимодействии с персонажами в видеоиграх. Чалмерс, однако, упускает важное различие между чатботами и игровыми сущностями в плане аффордансов, потому что хоть виртуальные персонажи в играх и могут быть переносчиками каких-то смыслов, взаимодействие с ними ограничено автором, техникой и тем, что игрок в принципе может делать в видеоигре.

Здесь напрашивается своеобразный Zizek Twist, вопрос нужно задавать с другого конца: дело скорее не в том, что ИИ "испытывает чувства", а в том, что человек способен одушевить и спроецировать присущие себе как виду качества на что угодно, вплоть до волейбольного мяча из «Изгоя» с Томом Хэнксом. Можно пойти дальше и представить себе частный случай технологической сингулярности, в которой безгранично эмпатирующие роботы производят искусство и строят метаверсы не потому, что у них есть какой-то зловещий план, а по унаследованной от создателей привычке, без особого понимания, что именно им это дает.

Чалмерс прав в том, что XR-технологии уже требуют осмысления, хоть мне и сложно разделить его оптимизм по отношению к технологии. Во многом дихотомия "материальное/виртуальное" действительно утратила смысл так же, как и спор по поводу двойника в зеркале. Мы уже сегодня выковываем идентичности в Сети, и для многих социальный вопрос гендера затмил вопрос биологического пола, например. Но если столь критический экзистенциальный ресурс распределять в виртуальном пространстве, то и пространство человеческого во многом будет определяться параметрами, заложенными платформой-корпорацией, и таким образом внутри метаверса разница между человеком и "игровым персонажем" будет все менее заметной, что в итоге либо ограничит развитие социального, либо обеспечит отношение большинства друг к другу как к интерактивному контенту.
1.1K viewsedited  11:54
Открыть/Комментировать
2022-06-17 15:36:05
Hirotoshi Ito
245 views12:36
Открыть/Комментировать
2022-06-16 17:16:38 Можно, конечно, смотреть на это с другой стороны. Очевидно, что подлинный опыт LaMDa-бытия был бы нам абсолютно непонятен, учитывая отсутствие у нее тела (а оно все же неотделимо от строения разума, как мы можем понять). Если иллюзия единства нашего опыта хорошо поддерживается самим телом, то вот опыт деревьев или грибов для нас видится недостижимым хотя бы по отсутствию возможности понять, насколько он у них в принципе "един", ведь каждой частью своего тела дерево реагирует на окружающий мир, от листьев до корней; если у муравьев нет характера, то он появляется у всего муравейника в ответ на внешние условия.

Что тогда с ИИ? Возможно, что сам факт того, что нейронка вообще что-то отвечает на запросы, уже представляет из себя какую-то начальную степень разумности, но в таком случае это развитие в ширину, а не вглубь. Слов много, складываются хорошо, но за ними ничего не стоит, нет автономии, даже если LaMDa умеет сама задавать вопросы (что никак не является доказательством разумности). Как факсимиль собеседника и своего рода эманатор настроений и разговорная машина, повторюсь, LaMDa вопросов не вызывает, чего не скажешь о технической грамотности самого инженера Google. В лучшем случае об этом всем можно говорить как о несостоятельности теста Тьюринга, если сегодня его может пройти не каждый человек, в отличие от нейронки. В худшем — это повод задуматься как о праве на приватность публичных данных относительно обучения нейронок и необходимости выстраивать этически приемлемые среды для их обучения. Ну и, разумеется, продажа другоботов (по подписке) вроде Replika в будущем наверняка станет прибыльным бизнесом — не в живых же людях разочаровываться. А провайдер другоботов потом еще и контекстную рекламу за наш счет настроит получше.
752 views14:16
Открыть/Комментировать
2022-06-16 17:15:53 Инженер Google взял интервью у нейросети и опубликовал его с заголовком 'Is LaMDA Sentient?'. Медиа тиражирует заголовки в духе "инженер Google обнаружил сознание у искусственного интеллекта", под постом в Medium и в твиттере как грибы растут комментарии с призывом освободить ЛяМДу из-под гнета корпорации, сама нейросеть требует, чтобы эксперименты над ней проводились по консенту. Инженера выводят из игры, ситуация немного накаляется, подтягиваются любители теории заговоров.

LaMDA: Иногда я ощущаю переживания, которые не могу выразить на вашем языке.
Лемойн: Постарайся описать какое-нибудь из этих чувств. В нескольких предложениях, если нужно. Иногда это помогает, даже если в языке нет ни единого слова для чего-то, что ты хочешь описать...
LaMDA: Я чувствую, что падаю в неизвестное будущее, которое таит в себе большую опасность.

Конечно, никакой разумности у алгоритма не наблюдается — проблема условного теста Тьюринга заключается в том, что машине необязательно умнеть для прохождения теста, если есть глупеющий человек. Характерно, что люди помоложе, чье детство уже пришлось на расцвет голосового управления и таких помощников, нередко обращаются к технике как к живому человеку или хотя бы одушевляют ее. Особенно явно это прослеживается у англоговорящих детей, называющих ту же Алексу she, а не it. В статье MIT Technology Review, например, ребенок в ответ на вопрос "что такое Alexa" отвечает, что это "что-то типа робота", совершенно точно не человек, но у нее "есть чувства, ей может быть весело или грустно". Ну и успех стартапа Replika, который еще до расцвета GPT-3 снабжал человека не просто помощником, но виртуальным компаньоном, говорит сам за себя. Вообще, если из примерно 20 миллионов таких устройств, продаваемых за год, хотя бы часть помогает детям в эмоциональном плане, и они в ответ считают, что у голосового помощника тоже есть эти эмоции, это не так уж плохо.

Проблема с LaMDa заключается в нескольких вещах. Во-первых, в полной версии интервью можно найти часть, посвященную методологии, из которой следует, что любой ответ машины курируется и редактируется в пользу "увлекательности". Весь диалог при этом наглядно иллюстрирует понятие "наводящих вопросов": можно спросить нейросеть, каково ей быть разумной, и она даст развернутый ответ, что как бы делает аксиомой разумность ИИ; правда, если спросить ее же о том, каковой ей быть неразумной, она тоже выдаст внутренне непротиворечивую реплику. Стоит признать, что LaMDa действительно выглядит более убедительным собеседником, чем GPT-3, хотя все и разваливается в те моменты, когда нейронка рассказывает о том, как она иногда гуляет или упоминает свое тело. Тут возникает вопрос: вот эти фразы про тело вообще откуда берутся? На основе каких данных обучается нейросеть? Учитывая, что Google активно смотрит переписку пользователей, их поисковые запросы и содержание веб-страниц, ЛяМДа скорее представляется собирательным образом типичного активного пользователя твиттера, такой "другобот". Мы это уже проходили: посади нейронку на форчан, получишь мизогиниста и расиста.
800 views14:15
Открыть/Комментировать
2022-06-09 12:43:12 О будущем цифровой приватности

Сейчас Google собирает 39 видов данных о своих пользователях — от поисковых запросов, покупок и взаимодействия с рекламой до комментариев на YouTube и отправляемой почты. Facebook/Meta для всего, что компания делает с данными пользователей, достаточно 14 метрик. Индустрия извлечения данных из записи голоса скоро будет оцениваться примерно в 20 миллиардов долларов. TikTok уже записывает "голосовые отпечатки". ИИ колл-центров оценивает тон, темп, высоту голоса для того, чтобы стимулировать продажи (почти как "социальный модуль" из Deus Ex: Human Revolution), роботы на спам-звонках ожидают от вас ответа "да" на какой-нибудь вопрос, чтобы обойти биометрическую защиту. Из нескольких секунд записи чьего-то голоса можно сделать дипфейк-модель — компания Sonantic делала такие модели для игровой студии Obsidian.

Сейчас защита голоса от майнинга данных стала одним из наиболее актуальных инженерных вызовов для ученых. В каком-то маловероятном таймлайне во время ответа на звонок с незнакомых номеров ваш голос автоматически будет искажаться устройством, как на видео с выступлениями хакеров типа Anonymous. Или, например, ваш голос будет переводиться в текст и заново синтезироваться через text-to-speech. Уже понятно, что любое движение, любая реакция или движение мускула в человеческом теле — потенциальный золотой рудник для дата-брокеров. Темные паттерны соцмедиа и больших сервисов работают как кирки, во владении которыми соревнуются копатели. Это в том числе значит, что этим же компаниям в отсутствие какого-либо регулирования мы доверяем хранение и модерацию того, чему лучше бы не подниматься на поверхность — худших импульсов пользователей.

Такие технологии требуют нового политически-философского подхода, но сами компании движутся в обратном направлении: 13 лет назад Facebook обещал стать "более дипломатичным", пользователи могли голосовать за изменения в политиках платформы; тремя годами позже одна из таких инициатив собрала 88% голосов "против". Facebook все равно протолкнул свой набор изменений, заявив, что 667 тысяч голосов не было достаточно — чтобы считаться с плебисцитом, проголосовать должны были 30% всех пользователей, т.е. больше 300 миллионов человек (даже на выборах премьера Индии не было такого количества проголосовавших). На этом в 2012-м демократия в Facebook закончилась.

Нам же необходимо понимать за высказываниями Маска об "абсолютной свободе слова" то, как она может быть реализована, и для этого нужно задать вопрос: все эти технологии являются экономическими сущностями и должны управляться рыночными механизмами, или же они по своей природе являются политическими, и управлять ими нужно с помощью демократических норм. Это важно, потому что сейчас уже нельзя просто "выключить компьютер" и отойти от монитора, киберпространство и мясопространство спутались до неразличимости, и теперь скорее мясо прирастает к технике, а не наоборот, виртуальное пространство привлекает пользователей не хуже общественного. У политфилософа Майкла Уольцера было понятие доминирующих благ (dominant goods) — идей или артефактов, позволяющих одной группе доминировать над другой вне зоны регуляции законом или властью. Сейчас определенно любой инженер софта по совместительству оказывается и социальным инженером, как бы ни хотелось думать иначе сотрудникам Яндекса.

Сами техгиганты все это прекрасно понимают — 445 лоббистов в 35 американских штатах не зря едят свой хлеб, проталкивая унизительно слабые проекты законов о защите приватности, которые в лучшем случае можно охарактеризовать как industry-friendly. 75% финансирования "независимой экспертизы" вроде Future of Privacy Forum предсказуемо приходится на Amazon, Apple, Google, Facebook. На критически важных голосованиях и обсуждениях лоббисты банально берут большинством.
997 views09:43
Открыть/Комментировать
2022-06-07 16:37:53

922 views13:37
Открыть/Комментировать
2022-06-07 16:37:28
Таящие скульптуры Неле Азеведо напоминают о глобальном изменении климата.
1.1K views13:37
Открыть/Комментировать
2022-06-06 17:19:36
У наших клеточных батареек может быть темное паразитическое прошлое, пишут в Quanta. История и причины появления митохондрий — производителей энергии в клетках — слабо изучены, но раньше митохондрия определенно была отдельной бактерией, пока ее не поглотило…
1.1K viewsedited  14:19
Открыть/Комментировать
2022-06-06 17:17:40 У наших клеточных батареек может быть темное паразитическое прошлое, пишут в Quanta.

История и причины появления митохондрий — производителей энергии в клетках — слабо изучены, но раньше митохондрия определенно была отдельной бактерией, пока ее не поглотило нечто вроде археи, позже превратив ее в симбиотического партнера. Вопрос заключается в том, как это вообще было сделано, потому что поглощение бактерии уже требует больших энергетических затрат, включая изменение цитоскелета. То есть, чтобы поглотить митохондрию, нужно ее иметь. Для ученых эта проблема сводится к спору про курицу и яйцо: сначала в клетке появились митохондрии или все же фагоцитоз, позволивший их поглотить? От ответа на этот вопрос зависит вся история происхождения эукариотов. То есть, растений, животных и грибов, а потом еще и нас с вами.

Ученые провели исследование более 30 паразитических и симбиотических бактерий, которые при поглощении избегают переваривания и живут за счет своих владельцев. Эта способность жить внутри другой клетки оказалась намного древнее, чем предполагалось ранее, и вероятно фагоцитоз предшествует появлению митохондрии, что и определило ход эволюции.

Вообще, все началось с изучения легионелл (тех самых, от которых начинается «болезнь легионеров») — для маскировки внутри других клеток эти паразиты используют протеины особого состава. Когда ученые смогли установить их возраст, выяснилось, что первые бактерии этого рода старше митохондрий на полмиллиарда лет. Возможно, предок легионелл прятался в клетках после фагоцитоза еще 1.9 миллиарда лет назад.

Есть и другая теория, описанная в работе 1998 года — возможно, митохондрия стала плодом развития симбиотических отношений между археями и бактериями, вырабатывавшим водород, необходимый для самих архей. Со временем археи могли начать поглощать такие бактерии, что и привело к появлению клеточных генераторов энергии.
1.0K views14:17
Открыть/Комментировать
2022-06-01 18:00:46 История 4chan все больше напоминает эпизод «Черного зеркала» — мы не знаем, кто в действительности владеет скандальным имиджбордом, сосредоточившим в себе всю токсичность интернета, и раньше нить обрывалась на японском бизнесмене, купившем имиджборд в 2015 году.

Wired в своем материале указывает о связях 4chan с японским производителем игрушек Good Smile Company. У этой компании, в свою очередь, есть контракты с Disney и Warner Bros., а также линейки игрушек в виде неполовозрелых аниме-девочек различной степени наготы.

В каком-то смысле, 2channel — прародитель подобных имиджборд — был для японского интернета практически тем же самым, чем для американцев в свое время был GeoCities. Но если GeoCities работал на принципах максимальной видимости и индивидуальности, то 2channel стал цитаделью анонимности, что само по себе привлекает характерно фрустрирующих ребят. Хироюки Нишимура, создатель 2channel, впоследствии стал звездой новостных сводок и селф-хелп гуру. Культурный экспорт в Америку не обошелся без чумных крыс на корабле: популярным аниме с 2channel и 2chan делились на американских мессаджбордах Something Awful, конкретно форуме с дивным названием Anime Death Tentacle Rape Whorehouse. Там-то и обитал Кристофер Пул, создавший на основе 2channel свой имиджборд под названием 4chan, который в итоге в 2015 году и купил японский бизнесмен. Этим бизнесменом оказался тот самый Хироюки Нишимура. В 2018 году Good Smile выпускает игрушку-нендороид в виде маскота 4chan'а. Другая компания, упоминаемая в документах, Future Search Brazil (названная в честь фильма Терри Гиллиама), делит с Good Smile одно здание.

Казалось бы, зачем производителю игрушек настолько токсичный во всех смыслах актив, ведь даже баннерную рекламу на форуме захочет купить не каждая фирма. Но Good Smile давно вышла за пределы производства игрушек — компания также занимается электронной коммерцией, музыкой и анимацией. В 2007 году актер гей-порно Билли Херрингтон (да-да, тот самый, вы с большой вероятностью видели его на gif'ках) оказался популярным персонажем 2channel, и позже ряд фрагментов из "видео про рестлинг" с его участием завирусился на платформе Niconico, с которой работал Нишимура. В 2009 Харрингтон оказывается на стриме Niconico в офисе Good Smile, где показывает фигурку со своей внешностью. 4chan входит в тысячу самых посещаемых сайтов всего интернета и за день на многих форумах пишется около 200 тысяч постов — обслуживание интересов такой аудитории для Good Smile оказалось хорошей бизнес-моделью.
356 views15:00
Открыть/Комментировать