2021-03-15 22:06:46
- Где гарантия, что искусственный интеллект не является расистским? – с подачи двух уволенных темнокожих сотрудников Google в IT-сообществе и среди политиков в США разгорелась дискуссия, связанная с несовершенством алгоритмов распознавания лиц, применяемых в настоящее время.
Одна из них, бывший программист Google Тимнит Гебру, приводит доказательства предвзятого отношения поисковиков, включая Google, к неграм.
Так, в июне 2015 года 22-летний инженер-программист Джеки Элсин обнаружил, что сервис Google Фото автоматически поместил все 80 присланных фотографий его чернокожего друга в самостоятельно созданную сервисом папку «Гориллы».
В 2017 году программист Дебора Раджи, 21-летняя негритянка из Оттавы, работающая в нью-йоркской фирме Clarifai, установила, что разрабатываемая на основе алгоритов Google технология распознавания объектов, которую фирма планировала продавать предприятиям, полицейским управлениям и правительственным учреждениям, в результатах отсечки нежелательного контента выдает более 80% порнографии с участием негров и всего около 20% - с белыми. Она обвинила в этом разработчиков алгоритма, основывающих автообучение ИИ преимущественно на образах белых.
Еще одна жертва расизма ИИ, аспирантка Массачусетского технологического института Джой Буоламвини в октябре 2016 года явилась на вечеринку в офис компании в Бостоне в жуткой белой маске на лице, и система охраны с ИИ, узнав ее даже в маске, беспрепятственно пропустила ее, однако затем, когда аспирантка сняла маску, отказалась узнавать сотрудницу до тех пор, пока та снова ее не надела. Вскоре после этого Джой Буоламвини установила, что системы распознавания лиц на основе ИИ от Google при распознавании пола человека ошибаются тем чаще, чем темнее кожа. Для белых процент ошибок в определении пола соcтавлял около 10%, для чернокожих – 21%. Особенно высок процент ошибок с изображениями темнокожих женщин.
В дальнейшем ею и ее коллегой было замечено, что сервис Amazon Face Service также не может определить пол женщин и лиц с более темной кожей. Согласно исследованию, сервис ошибочно принимал женщин за мужчин в 19% случаев, а темнокожих женщин - за мужчин в 31% случаев. Для светлокожих мужчин частота ошибок была равна нулю. Amazon отказалась комментировать ситуацию и менять алгоритмы ИИ.
Собственно, из-за этих исследований расизма ИИ сотрудники и были уволены из Google, по их утверждениям, погрязшем в расовой и гендерной сегрегации. Похоже, что искусственный интеллект в самообучающихся системах ожидают темные перспективы коренной перестройки алгоритмов.
7.2K viewsedited 19:06