Сооснователь OpenAI Илья Суцкевер предложил построить бункер Судного дня перед выпуском искусственного общего интеллекта

Сооснователь OpenAI предложил построить бункер Судного дня перед выпуском AGI

Илья Суцкевер, соучредитель OpenAI, предложил создать бункер Судного дня, способный защитить ведущих исследователей компании в случае глобальной катастрофы, вызванной выпуском искусственного общего интеллекта (AGI). Об этом пишет Карен Хао в своей книге “Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI”. Во время встречи с ключевыми учеными компании в 2023 году г-н Суцкевер заявил: «Как только мы все попадем в бункер…». Его перебил коллега, спросив: «Простите, в бункер?» На что Суцкевер ответил: «Мы обязательно построим бункер, прежде чем выпустим AGI».
  • Илья Суцкевер считается одним из ключевых разработчиков ChatGPT.
  • Идея бункера упоминалась не впервые во внутренних обсуждениях OpenAI.
  • Ранее другие источники также сообщали о регулярных ссылках Суцкевера на бункер.
Отрывки из книги опубликованы в The Atlantic. Идея бункера Судного дня подчеркивает обеспокоенность исследователей потенциальными рисками, связанными с разработкой AGI.

Последствия разработки AGI

Вопрос о безопасности и возможных последствиях разработки AGI остается открытым. Заявление Ильи Суцкевера демонстрирует серьезность, с которой в OpenAI относятся к потенциальным рискам.

No-code specialist, always eager to learn and tackle challenges, exploring neural networks

Каталог НЕЙРОСЕТЕЙ и ИИ инструментов — FutureTools.ru