2021-03-02 16:30:04
#Тренды
Во время пандемии платформы с элементами искусственного интеллекта помогали российским врачам находить симптомы коронавируса на рентгеновских снимках и флюорографии. Беспилотные такси уже сейчас могут прокатить вас по Сколково или Иннополису. На промышленных предприятиях ИИ прогнозирует выход оборудования из строя.
Но с развитием технологий ИИ перед человечеством возникает вопрос — нужно ли уже сейчас выработать ограничения для этой технологии?
Какие этические вопросы поднимает использование искусственного интеллекта?Айзик Азимов в 1942 году сформулировал «Три закона робототехники». В теории такие правила способны помочь обезопасить человека от ИИ и роботов:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но эти законы — фантазия писателя. Поэтому они не соблюдаются самими разработчиками. Например, когда речь идёт о боевых беспилотниках — в этом случае первый закон просто игнорируется. Другой пример — промышленная робототехника. Манипулятор на заводе может задеть человека и поранить или даже убить его, и такие случаи, к сожалению, были. Хотя такие манипуляторы не обладают ИИ.
Также законы не помогут в случае, когда перед роботом встаёт вопрос, кем пожертвовать, а кого спасти на дороге: запущенное MIT исследование Moral Machine должно помочь решить,
как должен действовать беспилотный автомобиль в той или иной ситуации.
Компании, использующие ИИ, могут сами для себя принимать правила, которые обезопасят пользователей.
Недавно «Сбер» утвердил
принципы этики разработки и применения технологий ИИ:
1. «Контролируемость и управляемость систем ИИ».
2. «Прозрачность и предсказуемость функционирования технологий ИИ».
3. «Стабильность и надёжность систем ИИ».
4. «Ответственное применение ИИ».
5. «Непредвзятый ИИ».
Принципы обязательны для всех участников группы «Сбер» и разработаны с учётом требований Национальной стратегии развития искусственного интеллекта на период до 2030 года.
Если взять и разобрать каждый из принципов, то можно найти в мировой практике
примеры, когда их нарушение приводило к проблемам.Amazon’у будут долго припоминать, как ИИ для поиска сотрудников был предвзят и давал преимущество мужчинам. В 2016 году беспилотник Uber на базе Volvo выехал на красный свет, что нарушает сразу второй и третий принципы. А принцип ответственного применения ИИ сразу отсылает нас к вопросам использования роботов в военных целях.
В итоге нам предстоит ответить ещё на множество вопросов об этике искусственного интеллекта, часть из которых появится только во время его использования.
201 views13:30