Получи случайную криптовалюту за регистрацию!

​​ Ученый призывает уничтожать лаборатории, создающие сверхум | Type Future

​​ Ученый призывает уничтожать лаборатории, создающие сверхумный ИИ.

В связи с опасениями о развитии сверхумного искусственного интеллекта (AGI), Элиезер Юдковский, один из ключевых специалистов в области ИИ, призывает к радикальным мерам, включая уничтожение мощных дата-центров, занимающихся разработкой такого ИИ. В колонке для издания Time, Юдковский объяснил, что сверхумный ИИ может привести к гибели всех людей на Земле, так как человечество пока не готово иметь дело со сверхразумом. Он предложил бессрочный запрет на разработки в этой сфере для всех стран мира, включая вооруженные силы, и международное соглашение о контроле за использованием графических процессоров.

29 марта Илон Маск и другие специалисты подписали открытое письмо с призывом приостановить обучение мощных систем ИИ на 6 месяцев. Однако Юдковский отказался подписать письмо, считая такой шаг недостаточным, и предложил наказывать организации, обучающие ИИ вопреки мораторию, точечными бомбардировками. Ученый выразил опасение, что исследовательская лаборатория может переступить критическую границу, даже не заметив этого, и создать слишком мощный ИИ, что может привести к гибели всей биологической жизни на Земле.

По поводу того, чем отличается AGI (искусственный интеллект общего назначения) от обычного ИИ и про всю его возможную опасность для человечества, могу разобрать в следующем посте. Поставьте , чтобы я понял, интересно ли вам это.

@typefuture