qwen-bg
max-ico04
In
Aus
max-ico02
Chat
max-ico03
Aktiv
Musik 2.6
Es geht über kurze Clips oder Loops hinaus und konzentriert sich auf die Erstellung zusammenhängender, mehrteiliger Kompositionen mit Gesang, Arrangement und musikalischer Progression.
Gratis-Tokens für neue Mitglieder
Text to Speech
                                        const main = async () => {
  const response = await fetch('https://api.ai.cc/v2/generate/audio', {
    method: 'POST',
    headers: {
      Authorization: 'Bearer ',
      'Content-Type': 'application/json',
    },
    body: JSON.stringify({
      model: 'minimax/music-2.6',
      prompt: 'A calm and soothing instrumental music with gentle piano and soft strings.',
      lyrics: `[Verse]\nStreetlights flicker, the night breeze sighs\nShadows stretch as I walk alone\nAn old coat wraps my silent sorrow\nWandering, longing, where should I go\n[Chorus]\nPushing the wooden door, the aroma spreads\nIn a familiar corner, a stranger gazes back\nWarm lights flicker, memories awaken\nIn this small cafe, I find my way\n[Verse]\nRaindrops tap on the windowpane\nA melody plays, soft and low\nThe clink of cups, the murmur of dreams\nIn this haven, I find my home\n[Chorus]\nPushing the wooden door, the aroma spreads\nIn a familiar corner, a stranger gazes back\nWarm lights flicker, memories awaken\nIn this small cafe, I find my way`,
    }),
  }).then((res) => res.json());

  console.log('Generation:', response);
};

main()
                                
                                        import requests

def main():
    response = requests.post('https://api.ai.cc/v2/generate/audio', headers={
        'Authorization': 'Bearer ',
        'Content-Type': 'application/json',
    }, json={
        'model': 'minimax/music-2.6',
        'prompt': 'A calm and soothing instrumental music with gentle piano and soft strings.',
        'lyrics': '''[Verse]
Streetlights flicker, the night breeze sighs
Shadows stretch as I walk alone
An old coat wraps my silent sorrow
Wandering, longing, where should I go
[Chorus]
Pushing the wooden door, the aroma spreads
In a familiar corner, a stranger gazes back
Warm lights flicker, memories awaken
In this small cafe, I find my way
[Verse]
Raindrops tap on the windowpane
A melody plays, soft and low
The clink of cups, the murmur of dreams
In this haven, I find my home
[Chorus]
Pushing the wooden door, the aroma spreads
In a familiar corner, a stranger gazes back
Warm lights flicker, memories awaken
In this small cafe, I find my way''',
    }).json()

    print('Generation:', response)

if __name__ == '__main__':
    main()
Docs

Über 300 KI-Modelle für OpenClaw & KI-Agenten

Sparen Sie 20 % der Kosten und erhalten Sie Gratis-Tokens
qwenmax-bg
minimax.png
Musik 2.6

MUSIK 2.6

MiniMax Music 2.6 ist ein Musikgenerierungsmodell der nächsten Generation, das entwickelt wurde, um aus Textvorgaben und Liedtexten vollständige, strukturierte Lieder zu erstellen.

API: 0,195 $ / 5 Min.

API-Übersicht

MiniMax Music 2.6 ist ein Text-zu-Audio-Modell, das vollständige Musikstücke generiert, indem es Stilbeschreibungen, Liedtexte und Strukturvorgaben kombiniert. Anstatt Fragmente zusammenzusetzen, erstellt es Kompositionen von Anfang bis Ende mit Intros, Strophen, Refrains und Übergängen, die einem definierten musikalischen Bogen folgen.

Eine der entscheidenden Änderungen dieser Version ist die Umstellung auf eine intentionsorientierte Komposition. Das Modell interpretiert nicht nur Genre-Tags, sondern versteht auch, wie sich ein Track im Laufe der Zeit entwickeln sollte, einschließlich Aufbau, Spannung und Entspannung.

Fähigkeiten

Generierung von Liedern in voller Länge

Anders als frühere KI-Musiksysteme, die nur kurze Schleifen ausgaben, generiert Music 2.6 komplette Songs mit Gesang und Instrumentalbegleitung. Eine einzige Eingabe genügt, um einen Track mit Struktur, Arrangement und Dynamik zu erzeugen.

Strukturelle Kontrolle mittels Tags

Die Komposition kann mithilfe von Tags wie beispielsweise definiert werden. [Vers], [Chorus], [Bridge] oder [Outro]Dies ermöglicht eine präzise Kontrolle über den Ablauf des Liedes.

Covergenerierung & Stiltransfer

Die Cover-Funktion extrahiert den melodischen Kern eines bestehenden Titels und interpretiert ihn in einem neuen Stil neu, wodurch Volksmelodien in elektronische Stücke verwandelt werden, wobei die Wiedererkennbarkeit erhalten bleibt.

Intelligenz

Musikalische Progression verstehen

Music 2.6 folgt einem zeitlichen Verlauf, nicht nur statischen Vorgaben. Es kann mit minimaler Instrumentierung beginnen, schrittweise weitere Ebenen einführen und auf einen definierten Höhepunkt hinarbeiten.

Anweisungen auf Prompt-Level

Die Nutzer können beschreiben, wie sich ein Musikstück entwickeln soll – indem sie emotionale Übergänge oder Energiekurven angeben – und das Modell spiegelt dies im Endergebnis wider.

Ausgewogene Gesangs- und Instrumentenmischung

Das Modell ermöglicht eine natürlichere Wiedergabe von Gesang und Melodie, einschließlich subtiler Unvollkommenheiten, die die Stücke weniger mechanisch und menschlicher wirken lassen.

Sounddesign

Verbessertes Tieftonverhalten

Verbesserte Wiedergabe von Bässen und tiefen Frequenzen, was zu präziseren Drums und einem klareren Subbass führt – unerlässlich für elektronische und filmische Filmmusik.

Produktionsfertige Ausgabe

Es wird mit einer Abtastrate von bis zu 44,1 kHz und einer Bitrate von 256 kbps generiert und eignet sich daher eher für den realen Einsatz als nur für die Prototypentwicklung.

Genrevielfalt

Von Ambient und Lo-Fi bis hin zu orchestraler und energiegeladener elektronischer Musik – die Kohärenz innerhalb jedes einzelnen Stils wird gewahrt.

Funktionsübersicht

Fähigkeit So funktioniert es Warum es wichtig ist
Struktur-Tags Definiere Abschnitte innerhalb der Liedtexte Vorhersehbare Songkomposition
Titelgeschichte Extrahiert die Melodie und interpretiert den Stil neu. Ermöglicht kreative Remixe
promptbasierte Steuerung Beschreibt Stimmung und Verlauf Hervorragende kreative Leitung
Low-End-Optimierung Verbesserter Bass und Schlagzeug Besseres Hörerlebnis
Automatische Liedtexte Generiert Liedtexte aus der Eingabeaufforderung Schnellere Ideenfindung

Anwendungsfälle

Inhaltserstellung

Maßgeschneiderte Hintergrundmusik für Videoszenen, ohne Lizenzbeschränkungen.

Spiel-Audio

Dynamische Soundtracks, die zur Intensität des Gameplays passen, von der Erkundung bis zum Kampf.

Personalisierte Erlebnisse

Auf die Vorlieben, die Stimmung oder den Kontext des Nutzers zugeschnittene Wiedergabelisten und Lieder.

Entwickler

Agentenintegration

Entwickelt für den Einsatz in agentenbasierten Systemen, generiert es automatisch Musik basierend auf Kontext oder Benutzerverhaltenslogik.

Automatisierungs-Workflows

Pipelines, in denen Musik dynamisch generiert wird und Soundtracks in Echtzeit auf Basis von Umgebungssignalen oder Benutzereingaben angepasst werden.

Leistung

Reduzierte Generationslatenz

Verkürzt die Zeitspanne zwischen Eingabeaufforderung und Ergebnis erheblich und ermöglicht so eine schnelle kreative Iteration.

Feinkörnige Anweisungen

Parameter wie Tempo, Tonart und emotionaler Tonfall werden mit hoher Präzision direkt von der Eingabeaufforderung übernommen.

KI-Spielplatz

Testen Sie alle API-Modelle in der Sandbox-Umgebung, bevor Sie sie integrieren. Wir bieten über 300 Modelle zur Integration in Ihre App an.
Kostenlos testen
api-right-1
Modell-BG02-1

Mehr als 300 KI-Modelle für
OpenClaw & KI-Agenten

Sparen Sie 20 % der Kosten