2022-03-30 19:48:17
Искусственный интеллект будет плодить глобальные ошибки К этому выводу пришли эксперты специализированного госагенства одной из главных технологических стран – США. Ученые Национального института стандартов и технологий США (NIST) изучили зависимость алгоритмов от человеческого мышления. И вот что они выяснили:
В основе алгоритмических оценок лежат представления людей, полученные из анализа невероятного количества данных, сознанных человеком (данные = новая нефть).
Человеческое мышление подвержено когнитивных искажениям – ошибкам, иррациональным взглядам и т.д. Следовательно, алгоритмы – тоже. Они переносят когнитивные ошибки в автоматизированные процессы и ИИ-системы.
Для начала нужно обязательно классифицировать и описать такие «баги мышления». Но, только подступив к этой задачи, ученые были шокированы. Оказалось, что
когнитивные ошибки людей – это «айсберг». Видимая сторона айсберга – это персональные ошибки, которые алгоритмы черпают из данных. Но
есть также и огромная «подводная» часть – системообразующие ошибки внутри общественных институтов! Для частичной победы на уровне работы алгоритмов есть разработчики, которые минимизируют ошибки. На уровне изучения человеческого мышления работают ученые, психологи и т.д. Но
нет никого, кто занимался бы универсальными основами общества и классификацией ошибок на глобальном уровне. Отсюда и печальный вывод: ИИ-системы будут продолжать перенимать искаженный тип мышления людей и их сообществ. И, следовательно, заблуждаться и совершать ошибки – все более и более серьёзный и масштабные.
Читать отчёт
956 views16:48