Получи случайную криптовалюту за регистрацию!

Где границы? Менеджер по найму говорит AI: — Мы используем т | В порядке Саши

Где границы?

Менеджер по найму говорит AI:
— Мы используем тебя в качестве помощника при найме новых сотрудников, чтобы убедиться, что мы делаем справедливые и объективные выборы".
AI отвечает:
— "Но как я могу быть объективным, если я обучен на данных, собранных и отобранных вашей компанией?"
// Шутка, сгенерированная ChatGPT про AI в HR

На фоне моего возникшего интереса к HRTech, задался вопросами — а насколько корректно собирать и использовать информацию про коммуникацию сотрудника? Можно ли доверять нейросети в задаче подбора сотрудника, отдавая ответственность отбирать резюме? Насколько мы вообще защищены? Все не так однозначно на мой взгляд.

А что, уже есть прецеденты?
Да.
Амазону в какой-то момент пришлось отказаться от AI в анализе резюме. В обучающей выборке было больше резюме от мужчин, и инструмент научился отклонять женщин.
В медицине AI переобучился в приоритет более богатых пациентов, заодно затронув расовую дикриминацию
А знаете, как ваши данные могут повлиять на события уровня Brexit или выборов президента США? Посмотрите The Great Hack

Что делать-то?
Есть несколько важных инициатив, которые вселяют надежду:
1. Кодекс этики в сфере ИИ в России. 113 компаний в России подписали документ и следуют его принципам. Ссылка на текст самого кодекса, почитайте.
2. Есть шанс, что в Нью-Йорке в 23 году примут закон про аудит AI-решений в сфере HR. Нельзя будет выпустить продукт без одобрения комитета
Есть еще какое-то количество принципов и кодексов. Но важно, чтобы они соблюдались.

Развитие технологий — это круто.
Не забывать о людях — бесценно.