MiniMax-M1

MiniMax-M1: Открытая Reasoning-модель с рекордным контекстом 1 миллион токенов

Компания MiniMax представила MiniMax-M1 — первую в мире open-weight гибридную reasoning-LLM, способную обрабатывать контекст до 1 миллиона токенов. Это в 8 раз превосходит возможности DeepSeek R1 и открывает новые горизонты для анализа сложных документов, научных исследований и интеграции с мультимодальными системами. Модель сочетает инновационную архитектуру MoE (Mixture of Experts) с оптимизацией lightning attention.

Архитектура и эффективность

При общем объёме 456 млрд параметров MiniMax-M1 активирует лишь 45,9 млрд на токен. Такой подход резко снижает вычислительные затраты: модель требует всего 25% FLOPs по сравнению с DeepSeek R1 при обработке 100K токенов. Гибридность достигается совмещением классического Transformer с механизмом “экспертов”, где разные части модели динамически задействуются под конкретную задачу.

Обучение и производительность

Обучение стоило $534K и использовало новый алгоритм CISPO (Combined Improvement via Synergistic Policy Optimization), который через reinforcement learning (RL) совершенствует решение реальных задач — от математики до программирования. Выпущены две версии модели с “бюджетом размышлений” в 40K и 80K шагов. Тесты подтвердили её превосходство:

  • SWE-bench Verified (задачи разработки ПО): 56.0 против 34.4 у Qwen3.
  • OpenAI-MRCR (математическое рассуждение): 73.4 против 27.7.
  • AIME 2024: 86.0 для M1-80K против 85.7 у конкурентов.
  • LongBench-v2 (длинные контексты): 61.5 против 50.1.

Где тестировать и изучать

Демо-версия доступна в онлайн-чате MiniMax. Для разработчиков open-weight модель выложена на:

Технический детали — в отчёте.

MiniMax-M1 задаёт новый стандарт для reasoning-моделей, объединяя экстремально длинный контекст, экономичную генерацию и лидерство в STEM-бенчмарках.

No-code specialist, always eager to learn and tackle challenges, exploring neural networks

Каталог НЕЙРОСЕТЕЙ и ИИ инструментов — FutureTools.ru