



const main = async () => {
const response = await fetch('https://api.ai.cc/v2/generate/audio', {
method: 'POST',
headers: {
Authorization: 'Bearer ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'minimax/music-2.6',
prompt: 'A calm and soothing instrumental music with gentle piano and soft strings.',
lyrics: `[Verse]\nStreetlights flicker, the night breeze sighs\nShadows stretch as I walk alone\nAn old coat wraps my silent sorrow\nWandering, longing, where should I go\n[Chorus]\nPushing the wooden door, the aroma spreads\nIn a familiar corner, a stranger gazes back\nWarm lights flicker, memories awaken\nIn this small cafe, I find my way\n[Verse]\nRaindrops tap on the windowpane\nA melody plays, soft and low\nThe clink of cups, the murmur of dreams\nIn this haven, I find my home\n[Chorus]\nPushing the wooden door, the aroma spreads\nIn a familiar corner, a stranger gazes back\nWarm lights flicker, memories awaken\nIn this small cafe, I find my way`,
}),
}).then((res) => res.json());
console.log('Generation:', response);
};
main()
import requests
def main():
response = requests.post('https://api.ai.cc/v2/generate/audio', headers={
'Authorization': 'Bearer ',
'Content-Type': 'application/json',
}, json={
'model': 'minimax/music-2.6',
'prompt': 'A calm and soothing instrumental music with gentle piano and soft strings.',
'lyrics': '''[Verse]
Streetlights flicker, the night breeze sighs
Shadows stretch as I walk alone
An old coat wraps my silent sorrow
Wandering, longing, where should I go
[Chorus]
Pushing the wooden door, the aroma spreads
In a familiar corner, a stranger gazes back
Warm lights flicker, memories awaken
In this small cafe, I find my way
[Verse]
Raindrops tap on the windowpane
A melody plays, soft and low
The clink of cups, the murmur of dreams
In this haven, I find my home
[Chorus]
Pushing the wooden door, the aroma spreads
In a familiar corner, a stranger gazes back
Warm lights flicker, memories awaken
In this small cafe, I find my way''',
}).json()
print('Generation:', response)
if __name__ == '__main__':
main()

MUSIK 2.6
MiniMax Music 2.6 ist ein Musikgenerierungsmodell der nächsten Generation, das entwickelt wurde, um aus Textvorgaben und Liedtexten vollständige, strukturierte Lieder zu erstellen.
API-Übersicht
MiniMax Music 2.6 ist ein Text-zu-Audio-Modell, das vollständige Musikstücke generiert, indem es Stilbeschreibungen, Liedtexte und Strukturvorgaben kombiniert. Anstatt Fragmente zusammenzusetzen, erstellt es Kompositionen von Anfang bis Ende mit Intros, Strophen, Refrains und Übergängen, die einem definierten musikalischen Bogen folgen.
Eine der entscheidenden Änderungen dieser Version ist die Umstellung auf eine intentionsorientierte Komposition. Das Modell interpretiert nicht nur Genre-Tags, sondern versteht auch, wie sich ein Track im Laufe der Zeit entwickeln sollte, einschließlich Aufbau, Spannung und Entspannung.
Fähigkeiten
Generierung von Liedern in voller Länge
Anders als frühere KI-Musiksysteme, die nur kurze Schleifen ausgaben, generiert Music 2.6 komplette Songs mit Gesang und Instrumentalbegleitung. Eine einzige Eingabe genügt, um einen Track mit Struktur, Arrangement und Dynamik zu erzeugen.
Covergenerierung & Stiltransfer
Die Cover-Funktion extrahiert den melodischen Kern eines bestehenden Titels und interpretiert ihn in einem neuen Stil neu, wodurch Volksmelodien in elektronische Stücke verwandelt werden, wobei die Wiedererkennbarkeit erhalten bleibt.
Intelligenz
Musikalische Progression verstehen
Music 2.6 folgt einem zeitlichen Verlauf, nicht nur statischen Vorgaben. Es kann mit minimaler Instrumentierung beginnen, schrittweise weitere Ebenen einführen und auf einen definierten Höhepunkt hinarbeiten.
Anweisungen auf Prompt-Level
Die Nutzer können beschreiben, wie sich ein Musikstück entwickeln soll – indem sie emotionale Übergänge oder Energiekurven angeben – und das Modell spiegelt dies im Endergebnis wider.
Ausgewogene Gesangs- und Instrumentenmischung
Das Modell ermöglicht eine natürlichere Wiedergabe von Gesang und Melodie, einschließlich subtiler Unvollkommenheiten, die die Stücke weniger mechanisch und menschlicher wirken lassen.
Sounddesign
Verbessertes Tieftonverhalten
Verbesserte Wiedergabe von Bässen und tiefen Frequenzen, was zu präziseren Drums und einem klareren Subbass führt – unerlässlich für elektronische und filmische Filmmusik.
Produktionsfertige Ausgabe
Es wird mit einer Abtastrate von bis zu 44,1 kHz und einer Bitrate von 256 kbps generiert und eignet sich daher eher für den realen Einsatz als nur für die Prototypentwicklung.
Genrevielfalt
Von Ambient und Lo-Fi bis hin zu orchestraler und energiegeladener elektronischer Musik – die Kohärenz innerhalb jedes einzelnen Stils wird gewahrt.
Funktionsübersicht
| Fähigkeit | So funktioniert es | Warum es wichtig ist |
|---|---|---|
| Struktur-Tags | Definiere Abschnitte innerhalb der Liedtexte | Vorhersehbare Songkomposition |
| Titelgeschichte | Extrahiert die Melodie und interpretiert den Stil neu. | Ermöglicht kreative Remixe |
| promptbasierte Steuerung | Beschreibt Stimmung und Verlauf | Hervorragende kreative Leitung |
| Low-End-Optimierung | Verbesserter Bass und Schlagzeug | Besseres Hörerlebnis |
| Automatische Liedtexte | Generiert Liedtexte aus der Eingabeaufforderung | Schnellere Ideenfindung |
Anwendungsfälle
Inhaltserstellung
Maßgeschneiderte Hintergrundmusik für Videoszenen, ohne Lizenzbeschränkungen.
Spiel-Audio
Dynamische Soundtracks, die zur Intensität des Gameplays passen, von der Erkundung bis zum Kampf.
Personalisierte Erlebnisse
Auf die Vorlieben, die Stimmung oder den Kontext des Nutzers zugeschnittene Wiedergabelisten und Lieder.
Entwickler
Agentenintegration
Entwickelt für den Einsatz in agentenbasierten Systemen, generiert es automatisch Musik basierend auf Kontext oder Benutzerverhaltenslogik.
Automatisierungs-Workflows
Pipelines, in denen Musik dynamisch generiert wird und Soundtracks in Echtzeit auf Basis von Umgebungssignalen oder Benutzereingaben angepasst werden.
Leistung
Reduzierte Generationslatenz
Verkürzt die Zeitspanne zwischen Eingabeaufforderung und Ergebnis erheblich und ermöglicht so eine schnelle kreative Iteration.
Feinkörnige Anweisungen
Parameter wie Tempo, Tonart und emotionaler Tonfall werden mit hoher Präzision direkt von der Eingabeaufforderung übernommen.
KI-Spielplatz



Einloggen