В Роскомнадзоре прошло заседание Экспертного совета по искусственному интеллекту Главного радиочастотного центра. Собрали для вас главные высказывания
Андрей Липов, руководитель Роскомнадзора:
Сегодня важно возрождать советскую школу искусственного интеллекта, которая появилась еще в 1960-х годах. Современные ИИ-модели стремительно развиваются, и необходимо понимать, как они устроены. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком. Параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. У нас только один путь — создавать собственные технологии и сервисы в сфере ИИ.
Евгения Рыжова, советник генерального директора ГРЧЦ по научно-техническому развитию:
С помощью технологий управления эмоциями злоумышленники могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам. Чтобы этого избежать, необходимо ввести регулирование сценариев применения ИИ на уровне федерального закона: установить стандарты безопасности искусственного интеллекта и ввести ответственность за нарушение требований и причинение вреда с использованием технологий ИИ.
Виктор Наумов, главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН:
В числе рисков развития ИИ — отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей и радикальная концентрация власти в руках производителей ИИ. Еще одна угроза — деградация творческих и коммуникационных способностей человека в условиях построения отношений с безальтернативным использованием ИИ.
Инна Ямбулатова, помощник руководителя московского отделения «Союза православных женщин»:
Соблюдение духовно-нравственных и моральных ограничений и правил перед внедрением искусственного интеллекта поможет не попасть в зависимость от технологий, которые способны поработить человеческую личность. Внедрение этических принципов при разработке систем ИИ и запрет на наделение их человеческими качествами защитит, прежде всего, несовершеннолетних граждан страны.