



const main = async () => {
const response = await fetch('https://api.ai.cc/v2/video/generations', {
method: 'POST',
headers: {
Authorization: 'Bearer ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'alibaba/wan2.2-vace-fun-a14b-reframe',
prompt: 'Mona Lisa puts on glasses with her hands.',
video_url: 'https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4',
image_url: 'https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg',
resolution: "720p",
}),
}).then((res) => res.json());
console.log('Generation:', response);
};
main()
import requests
def main():
url = "https://api.ai.cc/v2/video/generations"
payload = {
"model": "alibaba/wan2.2-vace-fun-a14b-reframe",
"prompt": "Mona Lisa puts on glasses with her hands.",
"video_url": "https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4",
"image_url": "https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg",
"resolution": "720p",
}
headers = {"Authorization": "Bearer ", "Content-Type": "application/json"}
response = requests.post(url, json=payload, headers=headers)
print("Generation:", response.json())
if __name__ == "__main__":
main()

Produktdetails
WAN 2.2 VACE Reframe ist ein fortschrittliches Videogenerierungs- und Bearbeitungsmodell, das für anspruchsvolle Anwendungen entwickelt wurde. Video-zu-Video-TransformationenEs bietet unvergleichliche Feinkörnige Kontrolle über Videostil und Bewegungsdynamik hinweg, wobei die Identität des Protagonisten und die Videoqualität stets streng gewahrt bleiben. Basierend auf der robusten VACE-Architektur und unterstützt durch WAN 2.2 T2V A14B GewichteDieses Modell ermöglicht es Kreativen, Videos mit außergewöhnlicher Effizienz und Genauigkeit zu generieren, neu zu rahmen und präzise zu modifizieren, sei es lokal oder über eine API.
🚀 Technische Spezifikationen
- Architektur: VACE-Architektur kombiniert mit dem diffusionsbasierten Wan 2.2 T2V A14B-Modell.
- Kontrollbedingungen: Unterstützt präzise Steuerung über Pose, Tiefe, MLSD (Mehrzeilensegmenterkennung), Scharfe Kanten, Und BahnsteuerungDie
- Bildrate: Optimiert für flüssige Videovorhersage in beeindruckender Qualität 81 Bilder pro Sekunde (fps)Die
- Auflösung: Unterstützt 512p, 768p, 1024p Ausgabeauflösungen, mit theoretischer Leistungsfähigkeit für 1080p in längeren Videos.
- Eingabetypen: Primär für Video-zu-Video-Konvertierungen konzipiert; unterstützt aber auch zusätzliche Eingaben wie Standbilder und Texteingabeaufforderungen für verwandte VACE Fun-Workflows.
✨ Leistungsbenchmarks
- Videoqualität: Gewährleistet außergewöhnliche zeitliche Kohärenz und die Detailtreue des Motivs über mehrere Einzelbilder hinweg, was zu einer hohen Qualität und natürlichen Videobewegung führt.
- Vielseitigkeit: Merkmale mehrsprachige Vorhersageund damit seine Akzeptanz bei unterschiedlichen globalen Nutzergruppen ausweitet.
- Steuerungsgenauigkeit: Erreicht eine überragende Generierungsgenauigkeit durch die Aktivierung Feinsteuerung über Pose, Tiefe und Bewegungstrajektorien hinaus und übertrifft damit viele Open-Source-Alternativen.
💡 Hauptmerkmale
- Spezialisierung Video-Reframing: Zugeschnitten darauf, Videos neu zu gestalten, indem Perspektive, Bewegung oder Stil gekonnt verändert werden, während die räumliche Kohärenz und die thematische Identität des ursprünglichen Inhalts erhalten bleiben.
- Mehrzustandssteuerung: Bietet präzise Eingabesteuerungen, einschließlich Pose, Tiefenkarten, MLSD, Canny-Kantendetektion und Trajektorienpfade für präzise Bewegungs- und Bildausschnittanpassungen.
- Hohe zeitliche Konsistenz: Gewährleistet nahtlose Übergänge von Einzelbild zu Einzelbild und eine konsistente Objektpositionierung, was für eine qualitativ hochwertige Video-Reframing ohne Flimmern oder Verzerrungen unerlässlich ist.
- Bewegungs- und Szenenstabilisierung: Beinhaltet fortschrittliche VACE 2.0-Engine-Funktionen für die Stabilisierung von Kamerabewegungen, die Fixierung des Hintergrunds und die Integration von Spezialeffekten (z. B. Feuer, Rauch) während der Neugestaltung des Bildausschnitts.
- Vielseitige Ausgabeauflösung: Kann neu gerahmte Videos bis zu einer Länge von 1080p mit flüssiger Wiedergabe von mehr als 24 Bildern pro Sekunde, optimiert für GPU-Hardware im Consumer-Bereich für den lokalen Einsatz.
💲 API-Preise
- 360p: 0,0525 USD
- 540p: 0,07875 USD
- 720p: 0,105 $
✅ Anwendungsfälle
- Inhaltserstellung: Ideal für die Erstellung und Aufbereitung von Videoinhalten für soziale Medien, Werbekampagnen und Unterhaltung.
- Erweiterte Videobearbeitung: Perfekt geeignet für Szenarien, die einen bestimmten Stil oder aufwendige Bewegungsanpassungen innerhalb des vorhandenen Videomaterials erfordern.
- Animationsgenerierung: Erstellen Sie dynamische Animationen aus Standbildern oder Referenzvideos mit verbesserter Kontrolle.
- Lokale Videoproduktion: Ermöglichen Sie es den Nutzern, Videos lokal zu erstellen, wodurch die Abhängigkeit von der Cloud-Infrastruktur deutlich reduziert wird.
- Forschung & Entwicklung: Wertvoll für akademische und industrielle Forschungsanwendungen in den Bereichen Videosynthese und Stiltransfer.
💻 Codebeispiel
📊 Vergleich mit anderen Modellen
vs Wan 2.1 VACE: WAN 2.2 bietet einen deutlichen Sprung in Videoqualität mit deutlich höheren Bildraten (81 fps vs. ~30 fps) und unterstützt präzisere Steuerungsbedingungen wie Flugbahn und MLSDEs profitiert außerdem von einer effizienteren VAE-Komprimierung, die ein schnelleres und höher auflösendes Video-Reframing ermöglicht und gleichzeitig die räumliche Kohärenz besser erhält als sein Vorgänger.
vs Wan 2.2-T2V-A14B (Text-to-Video): Während Wan 2.2-T2V für optimiert ist semantische Verankerung von Text zu Video und die Generierung filmischer Szenen, Wan 2.2 VACE Reframe ist spezialisiert auf Video-zu-Video-Reframing Mit Mehrfachbedingungssteuerung. Dadurch ist VACE Reframe der Erzeugung synthetischer Szenen aus Text überlegen, wenn es um die Erhaltung von Bewegungen und Motiven in vorhandenem Filmmaterial geht.
vs Wan 2.2-I2V-A14B (Bild-zu-Video): Das VACE Reframe-Modell ist fachmännisch zugeschnitten für Video-Reframing Mit präziser Steuerung von Flugbahn und Pose. Im Gegensatz dazu konzentriert sich Wan 2.2-I2V auf die Umwandlung von Standbildern in Videos mit fachkundiger Detailverbesserung. Daher ist VACE Reframe die bevorzugte Wahl für die Bearbeitung und das Redesign bestehender Videos, während I2V sich durch seine Fähigkeit auszeichnet, Animationen aus statischen Bildern zu erstellen.
🔗 API-Integration
Das Modell ist leicht zugänglich über KI/ML-APIEine umfassende Dokumentation ist vorhanden. Hier verfügbarDie
❓ Häufig gestellte Fragen (FAQ)
F: Wofür ist Wan 2.2 VACE Reframe primär konzipiert?
A: Wan 2.2 VACE Reframe ist ein hochmodernes KI-Modell, das speziell für fortschrittliche Video-zu-Video-Transformationen entwickelt wurde und eine präzise Kontrolle über Videostil und Bewegung bietet, während gleichzeitig die Identität des Subjekts und die Videoqualität erhalten bleiben.
F: Welche spezifischen Steuerungsbedingungen werden für die Videotransformation unterstützt?
A: Es unterstützt eine feinere Steuerung durch Bedingungen wie Pose, Tiefe, MLSD (Multi-Line Segment Detection), Canny-Kanten und Trajektoriensteuerung und ermöglicht so hochpräzise Bewegungs- und Bildausschnittanpassungen.
F: Wie gewährleistet Wan 2.2 VACE Reframe eine hohe Videoqualität und zeitliche Konsistenz?
A: Das Modell gewährleistet eine überlegene zeitliche Kohärenz und Objekttreue über alle Frames hinweg und sorgt so für reibungslose Übergänge von Frame zu Frame und eine konsistente Objektpositionierung, was für natürliche und qualitativ hochwertige neu gerahmte Videos von entscheidender Bedeutung ist.
F: Was sind die Hauptunterschiede zwischen Wan 2.2 VACE Reframe und Wan 2.2-T2V-A14B?
A: Wan 2.2 VACE Reframe ist auf Video-zu-Video-Konvertierungen mit Mehrfachbedingungssteuerung für vorhandenes Filmmaterial spezialisiert und legt dabei Wert auf die Erhaltung von Bewegung und Motiven. Wan 2.2-T2V-A14B hingegen ist für die Generierung filmischer Szenen aus Textvorgaben (Text-zu-Video) optimiert.
F: Kann WAN 2.2 VACE Reframe zur lokalen Videogenerierung verwendet werden?
A: Ja, es ist für GPU-Hardware im Consumer-Bereich optimiert und ermöglicht es Kreativen, Videos lokal zu generieren, neu zu rahmen und zu bearbeiten, wodurch die Abhängigkeit von Cloud-basierten Lösungen reduziert wird.
KI-Spielplatz



Einloggen