MiniMax-M1: Открытая Reasoning-модель с рекордным контекстом 1 миллион токенов
Компания MiniMax представила MiniMax-M1 — первую в мире open-weight гибридную reasoning-LLM, способную обрабатывать контекст до 1 миллиона токенов. Это в 8 раз превосходит возможности DeepSeek R1 и открывает новые горизонты для анализа сложных документов, научных исследований и интеграции с мультимодальными системами. Модель сочетает инновационную архитектуру MoE (Mixture of Experts) с оптимизацией lightning attention.
Архитектура и эффективность
При общем объёме 456 млрд параметров MiniMax-M1 активирует лишь 45,9 млрд на токен. Такой подход резко снижает вычислительные затраты: модель требует всего 25% FLOPs по сравнению с DeepSeek R1 при обработке 100K токенов. Гибридность достигается совмещением классического Transformer с механизмом “экспертов”, где разные части модели динамически задействуются под конкретную задачу.
Обучение и производительность
Обучение стоило $534K и использовало новый алгоритм CISPO (Combined Improvement via Synergistic Policy Optimization), который через reinforcement learning (RL) совершенствует решение реальных задач — от математики до программирования. Выпущены две версии модели с “бюджетом размышлений” в 40K и 80K шагов. Тесты подтвердили её превосходство:
- SWE-bench Verified (задачи разработки ПО): 56.0 против 34.4 у Qwen3.
- OpenAI-MRCR (математическое рассуждение): 73.4 против 27.7.
- AIME 2024: 86.0 для M1-80K против 85.7 у конкурентов.
- LongBench-v2 (длинные контексты): 61.5 против 50.1.
Где тестировать и изучать
Демо-версия доступна в онлайн-чате MiniMax. Для разработчиков open-weight модель выложена на:
Технический детали — в отчёте.MiniMax-M1 задаёт новый стандарт для reasoning-моделей, объединяя экстремально длинный контекст, экономичную генерацию и лидерство в STEM-бенчмарках.