

在
2.262 出去
积极的 

Text to Speech
const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'deepseek/deepseek-v4-pro',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="deepseek/deepseek-v4-pro",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

DeepSeek V4 Pro
目前最大的开放权重模型——1.6万亿个参数,100万个上下文窗口,每个Tokens490亿个活跃节点。这是首个在生产规模下实现百万Tokens上下文经济可行性的架构。
1.6吨
总参数
49B
每个Tokens有效
100万
上下文窗口
33T
训练Tokens
// 01 — 概述
什么是 DeepSeek V4 Pro?
DeepSeek V4 Pro 是 DeepSeek 第四代产品的旗舰型号。 目前市面上最大的公开重量级车型 — 比 Kimi K2.6 大 1.1T,是其前代产品 DeepSeek V3.2 的两倍多 685B。
使用 专家混合(教育部) V4 Pro 的设计使得每个Tokens仅激活 490 亿个参数——约占其总权重的 3%。在一百万个Tokens的场景下,它仅需要 推理浮点运算次数的 27% 和 KV缓存大小的10% 与 V3.2 相比,这些并非渐进式改进,而是在生产规模的经济可行性方面实现了飞跃式变化。
API定价(每100万Tokens)
输入(缓存未命中)
2.26美元
每100万个Tokens
输入(缓存命中)
0.19美元
每100万个Tokens
输出
4.52美元
每100万个Tokens
// 02 — 建筑
效率背后的三大创新
大多数模型将百万级上下文窗口视为一种营销噱头。在这种规模下,标准注意力机制的成本呈平方级增长——内存膨胀、推理速度减慢,成本成倍增加。DeepSeek 通过在 V4 版本发布前开发并发布的三个架构突破解决了这个问题。
混合注意力机制(CSA + HCA)
取代标准全神贯注。实现 27% 推理浮点运算 就 10% KV 缓存 达到 100 万个Tokens——使长上下文推理真正能够在生产规模上部署。
流形约束超连接
标准HC导致 3000倍信号放大 在 27B 实验中,mHC 通过 Sinkhorn-Knopp 机制限制混合矩阵,从而抑制扩增。 1.6倍 — 实现稳定的 1.6T 训练。
缪子优化器
取代 AdamW 进行预训练。在 1.6T 参数规模下,收敛速度更快,训练稳定性更高——同时满足 mHC 的所有保证 33T Tokens训练 可实现的。
两阶段后续培训
每个领域专家独立进行SFT + RL(GRPO),然后通过以下方式统一: 政策提炼保留每个领域的优势,然后进行融合,而不会出现能力退化。
// 03 — 基准测试
基准测试结果
V4 Pro 在推理、编码和知识任务方面的基准测试结果与顶级闭源模型相比毫不逊色。在 SWE-bench Verified 测试中,它位列前茅。 Claude作品 4.6 分,0.2 分 产出成本约为原先的七分之一。
基准
分数
地位
SWE-bench 已验证
80.6%
接近SOTA
GPQA钻石级
约76%
顶级
终端台
#1 操作系统
领导者
智能体编码
在下面
领导者
世界知识
#1 操作系统
领导者
数学/STEM
最佳操作系统
领导者
// 04 — 推理模式
推理努力模式
V4 Pro 支持可配置的推理模式——根据任务需要权衡速度和深度,而不是每次调用都追求最大程度的思考。
标准
默认设置。快速、直接的响应,无需冗长的思考过程。最适合检索、摘要、结构化输出以及那些延迟比深度推理更重要的任务。
思考
在得出最终答案之前,会逐步展开推理过程。可见的推理标记会出现在…… 理由详情适用于复杂的编码、数学运算和多步骤分析。
// 05 — 用例
哪些人适合使用DeepSeek V4 Pro?
V4 Pro 的 1M 上下文、强大的代理编码性能和具有竞争力的价格使其适合特定类型的工作负载。
- 完整代码库 将整个中等规模的代码库加载到上下文中。Terminal-Bench 和 SWE-bench 的最新技术实现了跨文件重构、错误调查和架构审查,且不会截断代码。
- 智能体任务 多步骤自动化、研究综合以及复杂的流程执行,其中智能体必须跟踪多个回合的状态。在智能体编码基准测试的开源领域处于领先地位。
- 数学/STEM 在数学和 STEM 基准测试中,该模型优于所有现有的开源模型。在 GPQA Diamond 测试中,该模型可与顶尖的闭源模型相媲美。适用于技术研究和科学推理。
- 知识红绿灯 V4 Pro 在世界知识开源模型中排名第一,整体表现仅次于 Gemini 3.1 Pro。对于构建 RAG 流程或文档问答系统的企业而言,V4 Pro 的召回率明显优于同类开源模型。



登录