Миф о «бюджетном» ИИ: что скрывал DeepSeek?
DeepSeek шокировал индустрию, объявив, что обучение его модели обошлось в $6 млн. Однако, согласно отчёту SemiAnalysis, эта сумма покрыла только аренду GPU для предварительного обучения. Основные расходы остались «за кадром»:
- $500 млн — исследования, доработка модели и обработка данных;
- $1.6 млрд — серверная инфраструктура (50 000 GPU Nvidia, включая 10 000 H800, 10 000 H100 и новейшие H20);
- $945 млн — операционные расходы (энергия, охлаждение, зарплаты).
Для сравнения: OpenAI при создании GPT-4 использовала около 25 000 GPU, а Llama 3 — 35 000. DeepSeek же развернул кластер, сопоставимый с энергопотреблением небольшого города.
Почему это проблема для всей индустрии?
Скандал вскрыл три ключевые проблемы:
- Непрозрачность стартапов: Заявления о «низкой стоимости» часто служат для привлечения инвесторов, но реальные бюджеты скрываются.
- Экологический след: 50 000 GPU потребляют колоссальные объемы энергии — это ставит под вопрос «зелёные» инициативы ИИ-компаний.
- Доверие к инновациям: Как отмечает SemiAnalysis,
«Гонка за дешёвым ИИ — это маркетинг. Без миллиардных инвестиций конкурировать с гигантами невозможно».
Что дальше?
Отчёт уже привлёк внимание регуляторов ЕС и США, которые рассматривают введение обязательной аудиторской отчётности для ИИ-стартапов. Инвесторы, вложившие в DeepSeek, требуют объяснений, а на форумах идут споры:
- «Если $6 млн — это только верхушка айсберга, то где настоящие цифры у других?» (ИИ-разработчик на Reddit).
- «Этот случай изменит правила игры: теперь все будут проверять дважды» (TechCrunch).




