В прошлом году благодаря Python и моделькам на его основе мы что только не генерировали. А теперь дошло дело и до музыки 🤯
🎼 На прошлой неделе на основе Stable Diffusion создали Riffusion (riff + diffusion) — модельку, обученную на спектрограммах с текстовыми описаниями. Генерируя такие спектрограммы (визуальное представление частот звукового сигнала во времени) алгоритм преобразовывает их в аудио и зацикливает несколько таких отрывков.
Ну-ка, кто айтишный джингл-белз сможет заделать? Выкладывайте в комменты, на сайте свой результат можно зашерить по кнопке 👇