



const main = async () => {
const response = await fetch('https://api.ai.cc/v2/video/generations', {
method: 'POST',
headers: {
Authorization: 'Bearer ',
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'alibaba/wan2.2-14b-animate-move',
prompt: 'Mona Lisa puts on glasses with her hands.',
video_url: 'https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4',
image_url: 'https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg',
resolution: "720p",
}),
}).then((res) => res.json());
console.log('Generation:', response);
};
main()
import requests
def main():
url = "https://api.ai.cc/v2/video/generations"
payload = {
"model": "alibaba/wan2.2-14b-animate-move",
"prompt": "Mona Lisa puts on glasses with her hands.",
"video_url": "https://storage.googleapis.com/falserverless/example_inputs/wan_animate_input_video.mp4",
"image_url": "https://s2-111386.kwimgs.com/bs2/mmu-aiplatform-temp/kling/20240620/1.jpeg",
"resolution": "720p",
}
headers = {"Authorization": "Bearer ", "Content-Type": "application/json"}
response = requests.post(url, json=payload, headers=headers)
print("Generation:", response.json())
if __name__ == "__main__":
main()

产品详情
这 Wan 2.2 14B 动画移动 是一款尖端的大规模人工智能视频生成模型,专为动画化静态角色图像而设计,能够实现无与伦比的控制。它通过从参考视频中提取复杂的动作和表情,使静态照片栩栩如生,是创作者的宝贵工具。
用户可以轻松上传静态角色图像和包含所需动作的网盘视频。系统会智能提取姿势和遮罩,然后为角色添加动画。在其主要功能中, 动画模式它创建了一个全新的视频,其中静态角色精确地模仿了驾驶视频中的手势和角度,从而生成了高度逼真且引人入胜的动画内容。
⚙️ 技术规格
- 型号尺寸: 140亿个参数(世代骨干网)
- 建筑学: 扩散变换器模型 专家混合(教育部) 设计旨在提高容量,而无需增加额外的计算成本。
- 培训目标: 在紧凑的 3D 时空潜在空间中,采用扩散式去噪进行流匹配。
- 注意机制: 跨帧和像素的时空自注意力池化,以及对文本特征的交叉注意力(可选)。
- 输入: 参考图像(静态人物照片)+参考视频(动态驱动)。
- 输出: 高质量 720p 视频,帧率 24 fps 角色动画能够复刻参考视频中的动作和表情。
📈 性能基准测试
- GPU兼容性: 已在高端 GPU(如 NVIDIA H100 (80GB))上成功测试,建议使用约 75 GB 显存以进行长时间序列渲染。
- 输出质量: 能够制作出连贯、高质量的视频,人物动作和表情自然生动。
- 身份保留: 证明在动态运动传递过程中,能够从单个参考图像中可靠地保持图像身份。
- 环境: 针对 Ubuntu 和支持 CUDA 的现代 PyTorch 堆栈环境进行了优化。
- 内容长度: 能够有效处理适合社交媒体短片和短动画内容的视频长度。
✨ 主要特点
- 精确的动作传递: 利用参考视频中的实时动作,使静态图像动起来,精确地传递身体和面部表情。
- 高效架构: 混合专家架构能够在不增加计算成本的情况下处理复杂的动作和详细的表情映射。
- 时间稳定性: 由于采用了因果 3D 压缩方法,运动过程中具有很高的时间稳定性,防止了未来帧泄漏造成的伪影。
- 现实融合: 支持将动画角色与周围环境进行逼真融合,动态控制光照和颜色以匹配背景。
- 高质量输出: 提供流畅 24帧/秒输出,高清720p分辨率 适用于社交媒体和内容创作平台。
- 实时推理: 通过用户友好的界面,提供实用的实时本地推理工作流程。 内置接口。
💲 API 定价
- 480p: 0.042美元
- 580p: 0.063美元
- 720p: 0.084美元
💡 使用案例
- 社交媒体和数字内容: 利用静态人物图像制作动画视频,打造引人入胜的线上形象。
- 虚拟形象与虚拟角色动画: 为游戏或元宇宙中的虚拟化身和虚拟角色生成逼真的动作和表情传递。
- AI驱动的角色替换: 以可控的运动保真度替换现有视频中的角色。
- 动画原型制作: 利用本地 GPU 推理功能,实现动画的快速原型制作和迭代。
- 赋能创作者: 使只有极少手工动画技能的内容创作者和动画师能够制作出专业级的动画。
🔍 与其他型号的比较
在评估人工智能动画解决方案时,了解 Wan 2.2 14B Animate Move 的独特之处至关重要:
- vs FLUX.1 Kontext [开发]: Wan 2.2 提供基于因果时间建模的深度运动迁移,在保持身份和自然流畅度方面表现出色。相比之下, FLUX.1 Kontext [开发] 更侧重于为自定义动画流程量身定制的开放式权重一致性控制。
- 与 Adobe Animate 对比: Wan 2.2 的优势在于利用人工智能技术,根据实时动作数据生成自发动画,尤其适用于角色面部和身体。这与……形成鲜明对比。 Adobe Animate 的 传统的逐帧动画和矢量动画工具严重依赖手动设计输入。
- 与 FLUX.1 Kontext Max 相比: Wan 2.2 针对高质量 720p 视频生成进行了优化,可实现流畅的运动传输,从而生成紧凑的视频片段。 FLUX.1 上下文最大值然而,它的目标是实现企业级精度和工作室制作中经常需要的复杂长动画序列。
- 对阵 Animaker: Wan 2.2 在技术上很先进,具有 AI 驱动的姿态和表情迁移功能,可以从单张图像生成完整的动态视频。 动画制作器 面向初学者,采用基于模板的拖放式动画和有限的动作自定义功能。
🔌 API 集成
Wan 2.2 14B Animate Move 可通过 AI/ML API 访问。完整文档请参见此处。 此处提供。
❓ 常见问题解答 (FAQ)
Wan 2.2 14B Animate Move 是什么?
它是一款先进的人工智能模型,能够通过将参考视频中的动作和表情转移到静态角色图像上来生成动画视频。它能让静态照片栩栩如生,充满动态效果。
它与传统动画软件有何不同?
与需要逐帧或关键帧手动输入的传统软件不同,Wan 2.2 使用 AI 自动从实时视频中提取运动并将其应用于静态图像,从而大大减少了动画制作所需的努力和技能。
我可以期待怎样的产出质量?
该模型以每秒 24 帧 (fps) 的速度生成高质量的 720p 视频,具有自然逼真的角色动作和表情,确保从原始静态图像中可靠地保留角色身份。
它适合专业用途吗?
是的,它具备逼真的运动传输、高时间稳定性和高清输出功能,使其成为内容创作者、动画师和开发人员的理想选择,可用于制作社交媒体、虚拟角色和快速原型制作的专业级动画内容。
运行此模型有哪些技术要求?
对于较长的序列,建议使用高端 GPU,例如配备约 75 GB 显存的 NVIDIA H100(80GB)。它针对 Ubuntu 和支持 CUDA 的环境进行了优化,并使用了现代 PyTorch 技术栈,可通过 Gradio 接口提供实时本地推理。



登录