Google представляет новую веху в музыкальной генерации с ИИ: Magenta RealTime (Magenta RT). Эта открытая модель позволяет музыкантам и разработчикам создавать инструментальные композиции в режиме реального времени, реагируя на текстовые описания или аудиосэмплы. Разработка расширяет возможности интерактивного творчества, превращая абстрактные идеи в звуковые ландшафты моментально.
Как работает музыкальный трансформер
В основе Magenta RT лежит архитектура Transformer с впечатляющими 800 миллионами параметров. Нейросеть обучалась на массиве из 190 000 часов инструментальной музыки, что обеспечивает глубокое понимание структуры и стилей. Уникальная гибкость системы позволяет:
- Комбинировать текстовые промты (например, “джазовое соло на саксофоне в энергичном темпе”) с аудиофрагментами
- Генерировать семплы длительностью 10-60 секунд с когерентной мелодической структурой
- Адаптировать выходные данные под жанровые и ритмические паттерны
Под капотом используется механизм “семплирования с учётом задержки” — алгоритм минимизирует лаги при потоковой обработке, что критически важно для живых выступлений.
Доступ и демонстрационные возможности
Google придерживается принципов open-source, предоставив полный доступ к разработке:
- Репозиторий GitHub с исходным кодом и документацией
- Модель и веса на Hugging Face
- Интерактивный Colab-ноутбук с бесплатным доступом к TPU для тестирования
Коллаб позволяет экспериментировать с генерацией без локальных ресурсов: пользователи могут загружать семплы, вводить текстовые описания и мгновенно получать WAV-файлы. Подробные шаги работы описаны в документации проекта Magenta.
Дорожная карта развития
В ближайших планах разработчиков — расширение функциональности Magenta RT. Анонсированы:
- Скоро: Режим локального запуска без облачных зависимостей
- Инструменты кастомизации для адаптации модели под специфичные звуковые палитры
- Технический отчёт с детализацией архитектуры и обучения
Этот шаг укрепит позиции Google в креативных ИИ-инструментах, дополняя линейку проектов Magenta для генерации музыки и искусства. Для сообщества модель открывает перспективы интеграции в DAW, live-выступления и образовательные приложения.