Получи случайную криптовалюту за регистрацию!

#ЧТИВО: ЧТО ПОЧИТАТЬ НА ВЫХОДНЫХ ЭТИЧЕСКАЯ СТОРОНА ИСКУССТВ | Future Law School

#ЧТИВО: ЧТО ПОЧИТАТЬ НА ВЫХОДНЫХ

ЭТИЧЕСКАЯ СТОРОНА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

 Спойлер: Сезар Идальго "Как люди осуждают машины"

Практически любой круглый стол, панельная дискуссия или презентация юридического ИИ сервиса наталкивается на вопрос из зала - "А что там у вас с эмпатической стороной вашего ИИ?".

Книга "How Humans Judge Machines" на основе различных бытовых экспериментов (почти 6 000 экспериментов с двумя группами подопытных людей) показывает в каких случаях и почему люди по-разному оценивают людей и машинные алгоритмы.

Книгу рецензировали научные институты инжиниринга и лучшие университеты мира, включая Гарвард и МИТ, которые считают, что это обязательное чтение для всех, кто хочет понять будущее ИИ в нашем обществе.

Автор работы, Сезар Идальго - участник Манчестерской бизнес-школы, профессор университета Тулузы и Гарварда, PhD - работает в области коллективного интеллекта, и уже ранее выдавал книги о визуализации данных, прикладном ИИ и цифровой демократии.

Вместе с группой социальных психологов и робототехников Идальго рассматривает взаимосвязь между ИИ и обществом.

О чем книга?

Люди по-разному оценивают людей и машины.

Разницу можно увидеть при действиях обеих сторон в ситуациях стихийных бедствий, вытеснения рабочей силы, охране правопорядка, в вопросах конфиденциальности или предубеждениях.

Книга начинается с вопросов:

Как бы вы чувствовали себя, потеряв работу из-за изобретения программы, выполняющей ваши функции?

Какими были бы ваши ощущения, когда бы вас уволили из-за большей эффективности другого живого работника?

Как бы вы восприняли поломку и неточности прогнозов от радара и ошибку от человека?

Как бы вы реагировали на дискриминационные высказывания от человека и от машинного алгоритма?

Сезар пишет, что разницу в восприятии можно объяснить результатом двух принципов:

Люди судят о людях по их намерениями, а машинные алгоритмы - по их результатам.

Используя статистические модели для анализа десятков экспериментов, (о них подробнее говорится в главе 6), видно, что люди судят действия машины прежде всего по восприятию ими вреда.

Когда люди оценивают людей, то судят их по взаимодействию между воспринятым вредом и намерениями.

Такой принцип объясняет много различий, наблюдаемых в книге, а также некоторые предварительные выводы, например, привязанность людей к прагматической морали в машинах.

Люди возлагают гораздо больше надежды на людей и меньше на машины.

С технической стороны это означает, что люди судят о намерениях людей с помощью бимодального распределения (много или мало намерений).

Это свидетельствует о том, что люди готовы прощать людям чаще, чем машинам в случайных сценариях.

С другой стороны, люди способны простить неумышленные ошибки алгоритма, но отнюдь не намеренную ошибку человека.

Выводы

Раскладывая сценарии в пяти измерениях моральной психологии (вред, справедливость, авторитет, лояльность и правильность), мы видим, что люди склонны воспринимать действия машин как более вредные и аморальные в сценариях, которые будут касаться физического вреда.

С другой стороны, люди, как правило, судят людей строже в ситуациях, связанных с несправедливостью.

Последний эффект объясняется в основном разницей намерений, которые приписывается людям и машинам.

Что касается увольнения, люди, как правило, реагируют менее негативно на технологии, чем на использование офшоринга, аутсорсинга или временно привлеченных иностранных рабочих.

  Скачать полный текст книги бесплатно можно здесь.

Приятно чтения и хороших выходных!


В прошлый раз мы говорили о книге С. Питер де Сауза, М. Спор "Технологии, Инновации и Доступ к Правосудию: Диалоги о Будущем Права".

___
 Источник:
 How Humans Judge Machines