2020-09-08 20:44:39
Не только Добро#ai_problems
Мы, авторы канала, безусловно являемся AI-оптимистами - верим, что в конечном счете Искусственный Интеллект сделает жизнь людей лучше, а не хуже. Но, конечно, технология такого масштаба не может быть лишена проблем. Поневоле вспоминается пресловутая ядерная физика - фактически одна и та же технология может использоваться, чтобы вырабатывать электричество, а может ... но не будем о грустном!
Мы уже писали об одной потенциально серьезной проблеме - влиянии AI на рынок труда. Теперь поговорим о другой важной непростой теме. Итак, Этика Искусственного Интеллекта.
Тему можно разбить на 2 больших блока - этичность использования AI людьми; этичность (или даже мораль) работы самого Искусственного Интеллекта. Сегодня про людей.
Существует много способов, как можно использовать AI во зло. Начнем с (относительно!) безобидной вещи. Качество AI в первую очередь зависит от качества данных. Поэтому его развитие привело ко все более агрессивному проникновению в жизнь людей для получения информации.
В популярной мысли, что человек, который пользуется сервисом в интернете бесплатно является не клиентом, а поставщиком данных, есть немало правды. Понятно, что это должно как-то ограничиваться. Попыток немало - самая известная европейский GDPR - но пока есть большие сомнения, что им удалось радикально изменить ситуацию.
Следующая проблема логично связана с предыдущей. Раз про потребителя столько всего известно, это открывает двери для различных маркетинговых возможностей. В том числе для агрессивных. Индивидуальные рекомендации, сгенерированные AI - это прекрасно; но навязывание ненужных, в том числе вредных продуктов, использование различных слабостей, уже не так хорошо. Технология позволяет и то, и другое.
Кто особенно легко может злоупотреблять данными, это государства. Опять же, технологии могут радикально улучшить качество услуг, которые госорганы предоставляют гражданам. А могут использоваться для тотальной слежки. Особенно помогут им в этом системы распознавания лиц. Диктатором прошлого такие возможности могли только сниться в эротических снах! И уже немало свидетельств, что некоторые государства злоупотребляют ими.
Кратко укажем еще о двух известных проблемах применения AI. Первая это фейки. Возможности Искусственного интеллекта используются для намеренной дезинформации, распространения ложных новостей или видео ("deep fakes"). Крупные платформы типа Фейсбука отмечают, что бороться с таким контентом намного сложней, чем с классическими нарушениями вроде обнаженного тела или явных оскорблений.
И, наконец, совсем мрачная тема, это AI как оружие. Уже сейчас тема потенциального использования Искусственного интеллекта против других стран проскакивает в различных национальных AI-стратегиях. Искренне не хотелось бы жить в мире, где Искусственной интеллект стал бы оружием в новой холодной, а тем более горячей, войне.
Список приведенных проблем не является исчерпывающим. И понятно, что по мере развития технологии будут возникать новые. Какой-то контроль над использованием Искусственного интеллекта необходим. Но как его реализовать - очень большой вопрос!
В случае корпораций можно полагаться на государственный контроль (можно даже верить в саморегулирование со стороны технологических компаний, хотя пока разговоров больше, чем результатов). В случае государств единственная возможность - контроль общества. Общество должно поставить конкретный запрос на прозрачное и ответственное использование Искусственного интеллекта государством.
502 views17:44