Получи случайную криптовалюту за регистрацию!

Пару недель назад я решил вспомнить студенческие годы и съезди | За четыре моря

Пару недель назад я решил вспомнить студенческие годы и съездил в Питер на турнир по дебатам. Ударился после этого в ностальгию и думал о том, как в январе 2019 года, в душной комнате южноафриканского университета, отстаивал позицию, которая казалось возмутительно очевидной: нужно максимально активно использовать искусственный интеллект для принятия решений в политике (например, доверить алгоритмам определять наказания за небольшие преступления вместо судей).

Тогда я был уверен, что ИИ обыгрывает людей всухую. Судьи настолько слабы духом, что на голодный желудок оказываются безжалостны, зато после плотного обеда выносят оправдательные приговоры в четыре раза чаще обычного. Члены приемных комиссий университетов любят говорить о равенстве, но последовательно выставляют азиатам более низкие оценки за «лидерские качества».

И хотя позже я узнал, что исследование про судей – чепуха, а алгоритмы тоже бывают расистскими, я все еще уверен, что во многих случаях ИИ принимает решения гораздо лучше, чем человек. Но проблема его применения – совсем не в эффективности.

Люди готовы делегировать принятие решений кому-то, кроме себя, если понимают (точнее, думают, что понимают), по каким принципам это решение будет приниматься. Нам всем кажется, что мы неплохо читаем других людей – достаточно десяти минут разговора с человеком, чтобы уверенно делать (ложные) выводы о его уме, честности и качестве воспитания ваших будущих совместных детей. Поэтому в демократических странах политики отчитываются перед избирателями и даже авторитарные лидеры, бывает, записывают высокопарные обращения, где рассказывают о том, почему вводят войска к соседям.

Машины так делать не умеют. Скажем, внятная интерпретация для нейронной сети почти невозможна, и ИИ выглядит как пугающий «черный ящик» – пожирает данные, выдает решение. Что происходит внутри – решительно непонятно, особенно обычному человеку. Доверить алгоритму принятие важных решений – почти то же самое, что поверить магическому шару.

Многие государства хотели бы делегировать ИИ часть решений, но не готовы столкнуться с массовой критикой. И вроде можно заставить всех разработчиков ИИ детально объяснять, как работают их алгоритмы, но как сделать это правильно – никто не знает (хорошее введение в проблему – здесь).

Но пока Европа и США медитативно обсуждают законодательство в сфере ИИ, Китай активно вводит в действие все новые и новые документы, которые пытаются решить эту проблему. Часто эти новые нормы– совсем непримечательные, но иногда - совершенно прорывные. Министерство науки и технологий публикует довольно стандартные своды этических норм – вполне в духе мировых дискуссий об AI Ethics. Китайская академия информационных технологий пытается набросать первые контуры правил и тестов, определяющих «благонадежный» (trustworthy) ИИ. А вот Управление по вопросам киберпространства – ведомство с забавным названием как будто из фантастического фильма 80-х, набравшее много политического веса – опубликовало в прошлом году список правил, одно из которых гласит, что компании, чьи алгоритмы оказывают «значительное влияние на права и интересы» людей, обязаны предоставлять объяснение своим решения по запросу граждан. Пока это лишь короткая фраза в довольно расплывчатом документе, но она явно появилась там не просто так – в ближайшие годы нас ждут куда более детальные правила.

Почему это важно?

Во-первых, если «поведение» алгоритмов научатся объяснять, применять ИИ в политике будет гораздо проще. ИИ – больше не черный ящик, и доверие к нему будет медленно, но расти. Китай будет чаще использовать алгоритмы для принятия решений – это дешевле и эффективнее, чем армия бюрократов – а значит получит еще больше данных, которые критически важны для развития ИИ.

Во-вторых, Китай вполне может стать законодателем мод в области регулирования ИИ. Часто оказывается, что страна, впервые решившая зарегулировать ту или иную область, становится отправной точкой для всех остальных. Так, например, произошло с антимонопольным законодательством в США, а сейчас происходит со многими нормами ЕС.