



const main = async () => {
const response = await fetch('https://api.ai.cc/v2/video/generations', {
method: 'POST',
headers: {
Authorization: 'Bearer ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'alibaba/wan2.2-vace-fun-a14b-pose',
prompt: 'Mona Lisa puts on glasses with her hands.',
video_url: 'https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4',
image_url: 'https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg',
resolution: "720p",
}),
}).then((res) => res.json());
console.log('Generation:', response);
};
main()
import requests
def main():
url = "https://api.ai.cc/v2/video/generations"
payload = {
"model": "alibaba/wan2.2-vace-fun-a14b-pose",
"prompt": "Mona Lisa puts on glasses with her hands.",
"video_url": "https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4",
"image_url": "https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg",
"resolution": "720p",
}
headers = {"Authorization": "Bearer ", "Content-Type": "application/json"}
response = requests.post(url, json=payload, headers=headers)
print("Generation:", response.json())
if __name__ == "__main__":
main()

Produktdetails
Modellübersicht
Wan 2.2 VACE Pose ist ein fortschrittliches Videogenerierungsmodell, das von Wan Labs unter Verwendung der innovativen Technologie entwickelt wurde. VACE (Video Adaptive Compositional Editing) Technologie. Sie ist spezialisiert auf steuerbare Videosynthese mit fein abgestufter Parameterunterstützung wie z. B. Canny-Kantendetektion, Tiefenkarten, Installationskostenschätzung, MLSD (Liniensegmenterkennung)und vieles mehr. Dieses Modell gibt Kreativen mehr Kontrolle über die Erstellung von Videoinhalten und ermöglicht so qualitativ hochwertige, konsistente und flüssige Videosequenzen, die ideal für professionelle und kreative Anwendungen geeignet sind.
Technische Spezifikationen
Leistungsbenchmarks
- ✔ Erzeugt hochwertige, filmreife Videosequenzen mit flüssigen Bewegungsübergängen und stabilen, flimmerfreien Ausgaben.
- ✔ Deutlich verbesserte zeitliche Konsistenz und semantische Genauigkeit gegenüber WAN 2.1-ModelleDie
- ✔ Effiziente Speichernutzung durch optimierte VAE-Komprimierung ermöglicht schnellere Generierung.
- ✔ Echtzeit-Videobearbeitungs- und -generierungs-Workflows werden von modernen GPUs unterstützt (z. B. RTX 4090).
- ✔ Übertrifft frühere Versionen bei der Bewältigung komplexer dynamischer Szenen mit mehreren Charakteren und Kamerabewegungen.
- ✔ Überlegene, fein abgestufte Steuerung für präzise kreative Gestaltung (Beleuchtung, Komposition, Bewegung).
Hauptmerkmale
- ★ Erweiterte Videosteuerung: Unterstützt Canny-, Tiefen-, Pose- und MLSD-Kartenund Trajektorienparameter für die detaillierte Videoinhaltsmanipulation.
- ★ Unterstützung mehrerer Auflösungen: Erstellt Videos effizient bei Auflösungen von 512, 768 und 1024 PixelDie
- ★ Verarbeitung zeitlicher Rahmen: Trainiert mit Sequenzen von 81 Bilder pro Sekunde bei 16 Bildern pro Sekunde für eine reibungslose und kohärente Videogenerierung.
- ★ Mehrsprachige Eingabeunterstützung: Ermöglicht die Videogenerierung mit Eingabeaufforderungen in mehrere SprachenDie
- ★ Generative Flexibilität: Fähig zu themenspezifische Videogenerierung unter Verwendung maßgeschneiderter Steuereingaben.
- ★ Offen und erweiterbar: Voll Open-Source-Modellgewichte und -Workflows Verfügbar für individuelle Anpassung und Integration.
- ★ Stabile Kamerasteuerung: Unterstützt die Videobearbeitung mit stabiler Kameraobjektivsteuerung und komplexen Bewegungsabläufen.
API-Preise
💲 360p: 0,0525 USD
💲 540p: 0,07875 USD
💲 720p: 0,105 $
Anwendungsfälle
- ➤ Professionelle Videoproduktion und Animation mit präziser Pose- und Bewegungssteuerung.
- ➤ Filmisches Storytelling und Konzeptvideoerstellung.
- ➤ Digitale Kunstanimation mit verbesserter Stabilität und visueller Kohärenz.
- ➤ Kompositionsbearbeitung in Echtzeit für Film-, Werbe- und Multimedia-Projekte.
- ➤ Interaktive Videoinhaltsgenerierung mit multimodalen Eingabeauslösern.
Codebeispiel
Vergleich mit anderen Modellen
▶ vs. Veo 3.0: Veo 3.0 konzentriert sich auf die schnelle Text-zu-Video-Konvertierung mit effizienten Rendering-Geschwindigkeiten, bietet aber nur eine begrenzte direkte Kontrolle über räumliche Videoelemente. Wan 2.2 VACE Fun A14B PoseObwohl langsamer und VRAM-intensiver, ermöglicht es detaillierte Videobearbeitung und präzise Bewegungssteuerung und eignet sich daher besser für hochwertige Produktionsabläufe.
▶ vs KLING 2.0: Beide Modelle bieten fortschrittliche Videogenerierungsfunktionen mit Open-Source-Codebasen. Sie sind 2,2 VACE zeichnet sich durch adaptive Kompositionsbearbeitung mit Eingaben mehrerer Bedingungen (Pose, Tiefe, Canny-Kanten) aus, während KLING 2.0 in Bezug auf die Rohvideoqualität mithalten kann, jedoch die fein abgestuften Bearbeitungsfunktionen von VACE 2.0 vermissen lässt.
▶ vs Wan 2.1 VACE: Wan 2.2 VACE Fun A14B Pose Es zeigt eine verbesserte zeitliche Konsistenz und visuelle Wiedergabetreue gegenüber Wan 2.1 VACE, insbesondere in komplexen Szenen mit mehreren sich bewegenden Objekten. Es reduziert den Verlust von Identität in der Gesichts- und Posendarstellung effektiver und unterstützt höhere native Auflösungen (bis zu 1080p).
API-Integration
Zugänglich über eine KI/ML-API. Dokumentation: 🔗 WAN 2.2 VACE API-Referenz
Häufig gestellte Fragen (FAQ)
❓ Was ist Wan 2.2 Vace Fun A14B Pose und was macht sie so einzigartig für Charakterposen?
Wan 2.2 Vace Fun A14B Pose ist ein spezialisiertes KI-Modell, das Charakterposen mit kreativem Flair und anatomischer Genauigkeit generiert und manipuliert. Seine Einzigartigkeit liegt im Verständnis der menschlichen und tierischen Anatomie, der Generierung dynamischer und ausdrucksstarker Posen sowie der Wahrung der Charakterkonsistenz beim Erkunden verschiedener Haltungen, Gesten und Aktionspositionen. Der „Vace Fun“-Aspekt sorgt dafür, dass die Posen ansprechend, erzählerisch und visuell attraktiv sind.
❓ Welche Arten von Posen und Gesten kann dieses Modell am effektivsten generieren?
Das Modell zeichnet sich durch seine Fähigkeit aus, dynamische Actionposen (Kampf, Sport, Tanz), ausdrucksstarke Gesten und Körpersprache, natürliche Ruhe- und Freizeitpositionen, stilisierte Cartoon- und Anime-Posen, Tier- und Kreaturenposen, interaktive Kompositionen mit mehreren Charakteren sowie Posensequenzen mit Bewegungsabläufen zu generieren. Es berücksichtigt Gewichtsverteilung, Balance und anatomische Gegebenheiten, um glaubwürdige und visuell ansprechende Posen zu erzeugen.
❓ Wie beeinflusst der „Spaß“-Aspekt die Generierung von Posen?
Der „spielerische“ Aspekt verwandelt die Posengenerierung von einer rein technischen Positionierung in ausdrucksstarkes Storytelling, indem er Posen mit Persönlichkeit und Charakter erzeugt, dynamische und ansprechende Kompositionen nahelegt, bei Bedarf verspielte oder übertriebene Elemente hinzufügt, ein Gefühl von Bewegung und Energie vermittelt und sicherstellt, dass die Posen narrativen Zwecken dienen und nicht nur anatomischer Korrektheit entsprechen. Dadurch eignen sich die generierten Posen besser für Animation, Illustration und Charakterdesign.
❓ Was sind die praktischen Anwendungsgebiete für KI-gestützte Posengenerierung?
Praktische Anwendungsgebiete sind: Charakterdesign und Konzeptkunst, Erstellung von Keyframes für Animationen, Storyboard- und Comic-Panel-Entwicklung, Posing von Spielfiguren, Generierung von Referenzbildern für Künstler, Posing für Mode und Produkte, Anatomie-Demonstrationen im Unterricht und die Erstellung von Social-Media-Inhalten. Es ist besonders wertvoll für Künstler und Kreative, die schnell Posenreferenzen oder Inspiration für Charakterausdrücke benötigen.
❓ Welche Techniken liefern die besten Ergebnisse bei der Posengenerierung?
Die besten Ergebnisse erzielt man durch: eine klare Beschreibung der Emotionen oder Handlungen der Figur, die Angabe des Posenstils (realistisch, cartoonhaft, Anime), die Angabe von Kamerawinkel und Perspektive, die Beschreibung der Gewichtsverteilung und der Balancepunkte, die Erwähnung von Requisiten oder Interaktionen mit der Umgebung sowie die Bereitstellung von Kontextinformationen zur Persönlichkeit der Figur. Beispiel: „Eine Superhelden-Landepose aus der Froschperspektive, dynamischer Aufprall mit wehendem Umhang, selbstbewusster Ausdruck, realistische menschliche Proportionen mit leichter stilistischer Übertreibung.“
KI-Spielplatz



Einloggen