2023-06-11 14:57:50
Есть весьма интересный документальный мини-фильм об экзистенциальных рисках, которые несет с собой взрывной прогресс ИИ.
Там большая нарезка озвученных мыслей от инженеров-исследователей до мировых ученых в области искусственного интеллекта.
Раскроем главные тезисы этого фильма:
- Илон Маск и другие технологические лидеры считают, что системы искусственного интеллекта с человеческим конкурентным интеллектом создают серьезные риски для общества и человечества, и что искусственный интеллект гораздо опаснее ядерного оружия.
- Разработка моделей ИИ похожа на игру в русскую рулетку с риском того, что следующая модель будет написана предыдущей моделью ИИ, что может привести к концу человечества.
- Развитие ИИ опережает развитие государственной политики, и ответственность за снижение рисков, связанных с ИИ, возлагается на частные компании. Все гонятся за трендом и прибылью, 99% людей не беспокоят экзистенциальные риски.
- Обучение ИИ написанию кода — это первый шаг к рекурсивному самосовершенствованию, которое может вывести его из AGI на гораздо более высокий уровень, что создает экстремальный уровень риска.
- По мнению эксперта НИИ машинного интеллекта, если не будет паузы в развитии ИИ на неопределенный срок, «умрут буквально все на Земле».
- Цитата "Крестного отца" ИИ Джеффри Хинтона: "Человечество может быть просто переходной фазой в эволюции интеллекта, и мы не сможем контролировать сверхразум."
- Взрывной и неконтролируемый прогресс технологий машинного обучения можно сравнить с метеоритом из фильма "Не смотрите наверх". Только в нашей реальности человечество свои руками создает метеорит, который может уничтожить привычную нам цивилизацию.
Тотальное нежелание понимать то, что происходит, может вызвать только тот факт, что вы смотрите на цитаты и мысли мировых умов об экзистенциальных рисках прямо сегодня, но не хотите (потому что страшно) экстраполировать. Особенно страшно экстраполировать экспоненциальные процессы, а человеческий интеллект именно такой.
#теориясверхразума
3.3K views11:57