



const main = async () => {
const response = await fetch('https://api.ai.cc/v2/generate/video/runway/generation', {
method: 'POST',
headers: {
Authorization: 'Bearer ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'runway/act_two',
character: {
type: 'image',
url: 'https://fs.tonkosti.ru/33/ol/33olc2eyzj6s4w8ksg8kkc0gg.jpg',
},
reference: {
type: 'video',
url: 'https://videos.pexels.com/video-files/3044160/3044160-uhd_2560_1440_24fps.mp4',
}
}),
}).then((res) => res.json());
console.log('Generation:', response);
};
main()
import requests
def main():
url = "https://api.ai.cc/v2/generate/video/runway/generation"
payload = {
"model": "runway/act_two",
"character": {
"type": "image",
"url": "https://fs.tonkosti.ru/33/ol/33olc2eyzj6s4w8ksg8kkc0gg.jpg",
},
"reference": {
"type": "video",
"url": "https://videos.pexels.com/video-files/3044160/3044160-uhd_2560_1440_24fps.mp4",
}
}
headers = {"Authorization": "Bearer ", "Content-Type": "application/json"}
response = requests.post(url, json=payload, headers=headers)
print("Generation:", response.json())
if __name__ == "__main__":
main()

Detalle del producto
RunwayML Act Two es una API avanzada de generación de video que revoluciona la animación de personajes. Crea eficientemente videos cortos de alta calidad combinando vídeos de rendimiento de conducción con referencias de personajesCon un sistema de precios transparente basado en créditos, Act Two es muy accesible para desarrolladores y creadores que participan en diversos flujos de trabajo creativos y de producción.
Especificaciones técnicas
🚀 Puntos de referencia de rendimiento
- • Optimizado para la generación rápida de vídeo.
- • Adecuado para tareas de síntesis de vídeo ligeras con un uso eficiente del ordenador.
💡 Capacidades clave
- • Admite salidas de vídeo de longitud variable con una gran rentabilidad.
- • Fácil integración para desarrolladores que desean agregar funcionalidad de síntesis de video.
- • Eficiente en el uso de recursos, lo que lo hace ideal para aplicaciones con hardware limitado o limitaciones presupuestarias.
💰 Precios de la API
- $0,0525 por segundo, utilizando un sistema transparente basado en el crédito.
Casos de uso óptimos
- • Creación rápida de contenidos de vídeo para redes sociales y campañas de marketing.
- • Herramientas creativas ligeras que requieren capacidades de síntesis de vídeo eficientes.
- • Proyectos de prototipado y generación de vídeo a pequeña escala.
- • Implementaciones conscientes de los costos que necesitan salidas de video cortas con precios predecibles.
Ejemplo de código
Comparación con otros modelos
➡️ Vs. Laboratorios Pika:
El segundo acto es minimalista Unidad de vídeo de 3 segundos y precios de crédito transparentes Lo convierten en una opción atractiva para prototipados rápidos y económicos. Pika Labs puede ofrecer mayor personalización para flujos de trabajo avanzados, pero generalmente a un precio y un requerimiento computacional más elevados.
➡️ Contra Kaiber:
Si bien Kaiber es conocido por sus capacidades más amplias de transformación de video y transferencia de estilo, Act Two se destaca al ofrecer vídeos cortos animados de alta calidad Con necesidades de computación mínimas. Esto lo hace ideal para desarrolladores que buscan una implementación sencilla y costos predecibles.
➡️ Vs. Hermana:
Sora ofrece efectos visuales premium y una generación de escenas ampliada. Sin embargo, RunwayML Act Two destaca por ofrecer Resultados inmediatos y rentables para videos animados de formato corto, dirigidos a desarrolladores y creadores de contenido que priorizan la velocidad y la asequibilidad por sobre las capacidades cinematográficas avanzadas.
Limitaciones
- 🚫 Duración mínima del vídeo: Una duración mínima de vídeo de 3 segundos Puede no ser adecuado para aplicaciones que requieran clips ultracortos o salidas de un solo fotograma.
- 🚫 Optimización para vídeos cortos: Optimizado principalmente para la generación de videos cortos; los videos más largos o complejos pueden requerir soluciones más especializadas.
Preguntas frecuentes
❓ ¿Qué innovaciones en la arquitectura generativa impulsan la síntesis de vídeo cinematográfico de Runway Act Two?
El Acto Dos de Runway emplea una revolucionaria arquitectura de transformador de difusión temporal con mecanismos de atención espacio-temporal multiescala. Este sistema modela simultáneamente la dinámica de movimiento a corto plazo y la coherencia narrativa a largo plazo, incorporando representaciones latentes jerárquicas que separan el contenido, el estilo y los factores de movimiento para un control independiente. Las redes neuronales avanzadas basadas en la física garantizan patrones de movimiento realistas que se ajustan a las leyes físicas.
❓ ¿Cómo logra el segundo acto una consistencia sin precedentes en la persistencia de personajes y objetos?
El modelo implementa incrustaciones de identidad persistentes que conservan los rasgos de los personajes, los detalles de la vestimenta y las propiedades de los objetos en secuencias extendidas. Utiliza mecanismos de atención entre fotogramas con bancos de memoria que almacenan y recuperan información de las entidades, junto con restricciones de consistencia geométrica que preservan las relaciones espaciales y las proporciones. El sistema también incluye detección automática de continuidad para identificar y corregir posibles inconsistencias.
❓ ¿Qué capacidades cinematográficas profesionales introduce el Acto Dos en la generación de vídeo con IA?
El segundo acto incorpora inteligencia cinematográfica integral, incluyendo coreografía dinámica de cámara con patrones de movimiento profesionales (dolly, grúa, steadicam), simulación de iluminación avanzada con transporte de luz realista e iluminación global, y efectos de profundidad de campo con renderizado bokeh auténtico. También incluye etalonaje profesional con aplicaciones LUT cinematográficas, comprensión de los principios de composición de escenas, lógica de secuenciación de tomas y ritmo editorial.
❓ ¿Qué interfaces de control creativo y de dirección ofrece el Acto Dos?
El segundo acto ofrece un control creativo granular mediante interfaces de edición semántica que permiten la dirección plano a plano, la transferencia de estilo con referencias cinematográficas, el ajuste del tono emocional, la especificación de la personalidad de los personajes y el control del ritmo narrativo. El sistema incluye funciones de previsualización interactiva con ajustes en tiempo real, compatibilidad con flujos de trabajo colaborativos para la producción en equipo y opciones de exportación compatibles con software de edición profesional. Los usuarios avanzados pueden acceder a parámetros básicos de iluminación, física de cámara y composición de escenas con un control preciso.
Patio de juegos de IA



Acceso