2023-02-25 11:51:20
2023 станет годом, когда человечество поймёт, что наши "разум" и "самосознание" — это всего лишь побочные продукты переобучения языковой модели.
Запомните этот твит.
Вчера на сайте OpenAI выложили программную статью, которая называется Planning for AGI and beyond. Она про сильный искусственный интеллект (СИИ), он же AGI. Если вы не знали, то сильный ИИ - это полноценный разум, способный осознавать себя и ставить себе задачи. Некоторые считают, что из-за электронной природы СИИ его развитие будет экспоненциальным, что приведет к технологической сингулярности.
К какому лагерю принадлежите вы? К тем, кто верит, что после этого мы будем жить в утопии, или к тем, кто прогнозирует уничтожение человечества?
Почему эта статья важна?
А) Она написана не каким-то СММщиком, а главой компании, которая является флагманом направления ИИ в мире. Есть вероятность, что он больше других знает о том, что происходит в этой сфере.
Б) В ней есть очень смелые утверждения, например о том, что компания готова пожертвовать прибылью инвесторов ради безопасности человечества. Никто в здравом уме не будет кидаться такими словами, если только не назревает что-то действительно глобальное.
Не буду пересказывать эту статью, прочитайте сами, это того стоит. Но остановлюсь на некоторых любопытных пунктах.
1. Необходим постепенный переход, медленная адаптация человечества к мысли о том, что нам придется сосуществовать с ИИ. Ну например, не знаю, можно создать чат-бота, который взорвёт тренды Твиттера и начнет генерировать мемы.
2. Ведущие мировые организации должны быть готовы к принятию сложных решений, связанных с ИИ. Сложные решения - это неэтичные или убыточные? Или и то, и другое?
3. ИИ нужно ЗАМЕДЛЯТЬ, чтобы упростить адаптацию человечества. Потому что без контроля речь пойдет даже не о годах.
4. Необходимо общемировое обсуждение проблемы ИИ: как управлять этими системами, как честно распределить их блага и дать к ним доступ каждому. Да, именно так и написано.
5. Мы точно не знаем, к чему приведёт появление СИИ, но будем действовать так, будто эти риски экзистенциальны.
6. Мы обезопасили себя с юридической и финансовой точки зрения от давления извне. Мы будем помогать (в том числе финансово) другим организациям в развитии систем безопасности ИИ.
7. Будущее человечества должно определяться человечеством (ха-ха).
8. Автократический режим, управляемый СИИ может нанести огромный вред миру. Если злой ИИ решит управлять человечеством, ему будет гораздо проще начать с автократического государства. Предлагаю подумать над этим.
9. Успешный переход к миру со сверхразумом - это самый важный и пугающий проект в истории человечества.
Если что, я за сингулярность и готов приветствовать наших новых правителей. Что-то я задолбался жить под властью людей.
Что думаете?
https://openai.com/blog/planning-for-agi-and-beyond/
#ии #openai
1.7K viewsedited 08:51