Сооснователь OpenAI предложил построить бункер Судного дня перед выпуском AGI
Илья Суцкевер, соучредитель OpenAI, предложил создать бункер Судного дня, способный защитить ведущих исследователей компании в случае глобальной катастрофы, вызванной выпуском искусственного общего интеллекта (AGI). Об этом пишет Карен Хао в своей книге “Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI”. Во время встречи с ключевыми учеными компании в 2023 году г-н Суцкевер заявил: «Как только мы все попадем в бункер…». Его перебил коллега, спросив: «Простите, в бункер?» На что Суцкевер ответил: «Мы обязательно построим бункер, прежде чем выпустим AGI».
- Илья Суцкевер считается одним из ключевых разработчиков ChatGPT.
- Идея бункера упоминалась не впервые во внутренних обсуждениях OpenAI.
- Ранее другие источники также сообщали о регулярных ссылках Суцкевера на бункер.
Отрывки из книги опубликованы в
The Atlantic. Идея бункера Судного дня подчеркивает обеспокоенность исследователей потенциальными рисками, связанными с разработкой AGI.
Последствия разработки AGI
Вопрос о безопасности и возможных последствиях разработки AGI остается открытым. Заявление Ильи Суцкевера демонстрирует серьезность, с которой в OpenAI относятся к потенциальным рискам.