Получи случайную криптовалюту за регистрацию!

На днях попался содержательный семинар русскоязычного сообщест | Деньги Джоули Драконы

На днях попался содержательный семинар русскоязычного сообщества разработчиков Сильного Искусственного Интеллекта. Основная тема — этика разработки и применения систем на основе искусственного интеллекта (ИИ).

Несколько интересных моментов из разговора:

Два пути развития этики ИИ. Прямо сейчас ИИ развивается в двух расходящихся направлениях. Речь о китайской и западной моделях. Разница здесь как раз в той этике, которой руководствуются их создатели.

В случае с западными разработками (по крайней мере, так это декларируется) в приоритете —неприкосновенность частной жизни и права личности. Протестантская этика и все такое прочее. В китайском варианте, судя по всему, эти вопросы даже не поднимаются: если определенные решения несут пользу обществу в целом, то права отдельного человека второстепенны. Отсюда — широкое развитие и внедрение систем слежки и наблюдения, распознавания лиц на основе огромных баз пользовательских данных и т.д.

Таким образом, появляются два отдельных типа этики ИИ, коллективистская и индивидуалистическая. Причем участники дискуссии дают понять, что ответить, какая из них лучше и правильнее, не так просто, как кажется. Возможен ли третий путь и не придется ли мировым государствам в будущем подписать некий общий кодекс этики ИИ как своеобразную конституцию, регулирующую его создание и использование — скоро узнаем.

Контекстная реклама и поляризация общества. Внедрение ИИ в поисковые системы позволило управляющим ими компаниям много зарабатывать. Есть мнение, что это лишило традиционные сми рекламных бюджетов, поставило их на грань выживания и в конечном итоге толкнуло в объятия государств, сделав рупором пропаганды того или иного рода.

В результате отличить правду от лжи стало почти невозможно. Общества поляризуются, что ведет к взаимному недопониманию, конфликтам и насилию. Это касается абсолютно всех — даже критически мыслящие люди предпочитают изолироваться внутри собственных информационных пузырей вместе с единомышленниками.

Разумеется, все это не аксиома, а только часть общей картины. Но размышляли ли разработчики над этичностью внедрения ИИ в поисковые механизмы? Можно ли было предсказать, к чему приведет разработка и развитие инструментов поиска информации? Ответы на оба вопроса остаются открытыми.

Является ли ИИ угрозой человеку, экзистенциально опасной технологией, вроде ядерного оружия или генной инженерии? Но не рано ли об этом говорить — ведь настоящего ИИ мы еще не создали и пока эта идея остается лишь на уровне отдельных инструментов, облегчающих жизнь человека. В чем опасность создания настоящего искусственного интеллекта, подобного нашему или превосходящего человеческий?

Человек стал разумным в жестокой конкурентной борьбе с другими приматами, дикими зверями и могущественными силами природы. То есть мы просто всех победили. Разрабатывая настоящий ИИ, мы стремимся, по сути, поиграть в бога и создаем человеку конкурента, который не только обладает нашим разумом, но и лишен всех человеческих недостатков — ничего не забывает, обрабатывает гораздо больший объем информации и соображает быстрее нас, делает множество вещей лучше человека. Стоит такому ИИ сделать вывод о том, что люди вредны, и нам нечего будет ему противопоставить.


Участники семинара — отечественные математики, физики, инженеры и философы из МГУ, МФТИ и НГУ, работающие на переднем крае исследований в области искусственного интеллекта и нейронных сетей.

Рекомендуем!