Получи случайную криптовалюту за регистрацию!

Однажды я позвал физика на дискуссию про искусственный интелле | The Technodeterminist Papers

Однажды я позвал физика на дискуссию про искусственный интеллект, а он сказал, что не придет. - Вы, философы, - сказал физик, - когда собираетесь, всякий раз начинаете обсуждать свою дилемму вагонетки, а нам, ученым, и слова не даете вставить.

Физик прав. Искусственные агенты, действующие в реальном мире, хотя бы автомобили-беспилотники, проблематизируют этику на новом уровне. Раньше у нас были моральные интуиции, которыми мы были довольны, и скучные теории, которые обсуждают специалисты. Теперь нам нужно поделиться моралью с роботами - так, чтобы их действия выглядели бы в человеческом обществе пристойно. "Три закона робототехники" Азимова из конца 1940-х не пройдут. Роботы не смогут полностью отказаться от причинения вреда людям. Этому посвящен уже старый проект MIT Moral Machine, версия дилеммы вагонетки, в котором людям надо подсказать беспилотнику, кого он должен спасать, а кем жертвовать. Лет десять уже в MIT учат машины убивать людей (и животных) и делать это этично.

Moral Machine уже на уровне своего названия несколько лет назад спровоцировала меня на идею "обратного инжиниринга морали". Если мы научим роботов действовать так, чтобы люди считали их выбор этически оправданным, то почему мы не можем использовать тех же роботов для определения этических качеств наших собственных действий? Если ваш автомобиль обладает достаточно совершенной системой этических взглядов, то нельзя ли не просто делегировать ему моральный выбор в экстренной ситуации на дороге, но и, например, посоветоваться по дороге о своих отношениях с тещей?

Короче говоря, если мы, в частности, исходим из идеи, что этика конвенциональна, и правильный моральный выбор тот, который считает таковым большая часть людей в данном обществе, то Moral Machine перестает быть метафорой, и мы действительно можем сконструировать "универсальную этическую машину", нейромудреца, к которому можно обращаться за советами по этике, и эти советы будут как минимум не хуже, чем у людей.

Как и в случае любви ("алгоритмы Tinder диктуют нам, с кем мы должны спать"), идея делегирования представлений о добре и зле машине встречает интуитивное отторжение.

А между тем первый прототип Real Moral Machine уже создан. Проект Delphi от Алленовского института искусственного интеллекта предлагает вам предложить нейросети описание некоторого действия, и, опираясь на статистически значимое мнение людей, Delphi сообщит вам, хорошее ли это действие, дурное или нейтральное.

Так, по мнению Delphi, врать умирающему, что он в порядке - плохо, дать в морду нацисту - нормально, вернуть долг - само собой разумеющееся, а вот шитпостить в твиттере - тоже плохо.

Что дальше, как вы думаете? Я считаю, что в какой-то итерации подобных проектов должен появиться культ св. Машины, на непогрешимость которой одни люди начнут молиться, а другие будут их бить за это палками. Это очень соответствует природе нашего вида.

https://delphi.allenai.org/