



const main = async () => {
const response = await fetch('https://api.ai.cc/v2/video/generations', {
method: 'POST',
headers: {
Authorization: 'Bearer ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'alibaba/wan2.2-vace-fun-a14b-reframe',
prompt: 'Mona Lisa puts on glasses with her hands.',
video_url: 'https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4',
image_url: 'https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg',
resolution: "720p",
}),
}).then((res) => res.json());
console.log('Generation:', response);
};
main()
import requests
def main():
url = "https://api.ai.cc/v2/video/generations"
payload = {
"model": "alibaba/wan2.2-vace-fun-a14b-reframe",
"prompt": "Mona Lisa puts on glasses with her hands.",
"video_url": "https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4",
"image_url": "https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg",
"resolution": "720p",
}
headers = {"Authorization": "Bearer ", "Content-Type": "application/json"}
response = requests.post(url, json=payload, headers=headers)
print("Generation:", response.json())
if __name__ == "__main__":
main()
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
Wan 2.2 VACE Reframe 是一款专为复杂应用而设计的高级视频生成和编辑模型。 视频到视频的转换它提供了无与伦比的 精细控制 在视频风格和运动动态方面,我们力求做到极致,同时严格保持主体特征和视频质量。它基于强大的 VACE 架构构建,并由……提供支持。 Wan 2.2 T2V A14B 配重该模型使创作者能够以极高的效率和准确性生成、重新构图和精确修改视频,无论是在本地还是通过 API。
🚀 技术规格
- 建筑学: VACE架构与Wan 2.2 T2V A14B基于扩散的模型相结合。
- 控制条件: 支持通过以下方式进行精确控制 姿势, 深度, MLSD (多行线段检测) 狡猾的边缘, 和 轨迹控制。
- 帧率: 针对流畅的视频预测进行了优化,性能令人印象深刻。 每秒 81 帧 (fps)。
- 解决: 支持 512p、768p、1024p 输出分辨率,理论上能够 1080p 在更长的视频中。
- 输入类型: 主要设计用于视频到视频的转换;也支持其他输入,例如静态图像和文本提示,用于相关的 VACE Fun 工作流程。
✨ 性能基准测试
- 视频质量: 确保卓越 时间一致性 并且在帧与帧之间保持主体保真度,从而产生高质量、自然的视频运动。
- 多功能性: 特征 多语言预测从而扩大其在全球不同用户群体中的应用。
- 控制精度: 通过实现卓越的生成精度 精细控制 在姿态、深度和运动轨迹方面,性能优于许多开源替代方案。
💡 主要特点
- 视频重构专业化: 通过巧妙地改变视角、运动或风格,同时保持原始内容的空间连贯性和主题特性,从而重新构建视频。
- 多条件控制: 提供精确的输入控制,包括 姿态、深度图、MLSD、Canny边缘检测和轨迹路径 用于精确的运动和构图调整。
- 高保真时间一致性: 保持帧与帧之间无缝过渡和一致的对象定位,这对于高质量视频重构至关重要,避免出现闪烁或失真。
- 运动和场景稳定: 集成了先进的 VACE 2.0 引擎功能,可实现摄像机运动稳定、背景固定以及在重新构图时集成特殊效果(例如,火焰、烟雾)。
- 多功能输出分辨率: 能够生成高达 1080p 流畅播放帧率超过 24 FPS,针对消费级 GPU 硬件进行了优化,适用于本地使用。
💲 API 定价
- 360p: 0.0525美元
- 540p: 0.07875美元
- 720p: 0.105美元
✅ 应用案例
- 内容创作: 非常适合用于社交媒体、广告宣传和娱乐的视频内容创作和重新包装。
- 高级视频编辑: 非常适合需要在现有视频素材中进行特定风格或复杂运动调整的场景。
- 动画生成: 利用更强大的控制功能,从静态图像或参考视频创建动态动画。
- 本地视频制作: 使用户能够在本地生成视频,从而显著减少对云基础设施的依赖。
- 研发: 对视频合成和风格迁移方面的学术和工业研究应用具有重要价值。
💻 代码示例
📊 与其他型号的比较
vs Wan 2.1 VACE: Wan 2.2 在以下方面实现了显著飞跃: 视频质量 帧速率显著提高(81帧/秒对比约30帧/秒并支持更精确的控制条件,例如 轨迹和MLSD它还受益于更高效的 VAE 压缩,能够实现更快、更高分辨率的视频重帧,同时比其前代产品更好地保持空间连贯性。
vs Wan 2.2-T2V-A14B(文本转视频): 虽然 Wan 2.2-T2V 针对以下方面进行了优化 文本到视频的语义接地 Wan 2.2 VACE Reframe 专注于电影场景生成。 视频到视频的重构 VACE Reframe 具备多条件控制功能,因此在保留现有素材的运动和主体方面优于从文本生成合成场景。
vs Wan 2.2-I2V-A14B(图像转视频): VACE Reframe 模型是专门为……量身定制的 视频重构 VACE Reframe 具备精细的轨迹和姿态控制功能。相比之下,Wan 2.2-I2V 则专注于将静态图像转换为视频,并提供专首页指导的细节增强功能。因此,VACE Reframe 是编辑和重新设计现有视频的首选,而 I2V 则擅长从静态图像制作动画。
🔗 API 集成
该模型可通过以下方式轻松访问: AI/ML API完整的文档是 此处提供。
❓ 常见问题解答 (FAQ)
问:Wan 2.2 VACE Reframe 的主要设计用途是什么?
A:Wan 2.2 VACE Reframe 是一款最先进的 AI 模型,专为高级视频到视频转换而设计,可在保持主体身份和视频质量的同时,精确控制视频风格和运动。
问:它支持哪些具体的视频转换控制条件?
答:它支持通过姿态、深度、MLSD(多线段检测)、Canny边缘和轨迹控制等条件进行精细控制,从而实现高度精确的运动和构图调整。
问:WAN 2.2 VACE Reframe 如何确保高视频质量和时间一致性?
答:该模型在帧间保持了卓越的时间连贯性和主体保真度,确保了帧与帧之间的平滑过渡和一致的物体定位,这对于自然和高质量的重构视频至关重要。
问:Wan 2.2 VACE Reframe 和 Wan 2.2-T2V-A14B 的主要区别是什么?
答:Wan 2.2 VACE Reframe 专注于视频到视频的转换,可对现有素材进行多条件控制,重点在于保持运动和主体清晰。而 Wan 2.2-T2V-A14B 则针对根据文本提示生成电影场景(文本转视频)进行了优化。
问:WAN 2.2 VACE Reframe 能否用于本地视频生成?
答:是的,它适用于消费级 GPU 硬件,允许创作者在本地生成、重新构图和修改视频,从而减少对基于云的解决方案的依赖。



登录