



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'deepseek/deepseek-reasoner-v3.1-terminus',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="deepseek/deepseek-reasoner-v3.1-terminus",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
✨ DeepSeek V3.1 终点站:高级混合推理人工智能
这 DeepSeek V3.1 终点 代表着大规模混合推理人工智能模型的一次重大演进,该模型经过精心设计,能够应对最苛刻的思维链任务。此次 DeepSeek V3 系列的更新旨在提供无与伦比的性能。 稳定流线型 代理/工具工作流程并且稳健 多步骤推理能力它完美适用于高级编码、直观的网页导航和命令行自动化等复杂应用,将强大的模型容量与灵活的推理模式无缝融合。
⚙️ 技术规格
- 型号: 混合专首页(MoE)大型语言模型
- 参数总数: 6710亿
- 每个前向传递的有效参数: 370亿
- 混合推理模式: 两者均支持 “思考”模式 (复杂的内部推理、工具规划) “非思考”模式 (在同一网络内实现更快的直接响应)。
- 上下文窗口大小: 至多 128,000 个Tokens促进广泛的上下文处理和长时间的思维链推理。
- 代理功能: 具有专门的集成代理,包括代码代理、搜索代理、浏览代理和终端代理。
📊 性能基准
- MMLU-Pro 推理: 从 84.8 提高到 85.0(终点站)
- GPQA-钻石: 80.7
- 人类的最后考试: 从 15.9 大幅跃升 21.7
- LiveCodeBench: 边际收益达到74.9
- Codeforces得分: 2046 年前后略有变化
- 软件工程验证: 从 66.0 提高到 68.4

🌟 DeepSeek V3.1 终端的主要特性
- 大上下文窗口: 流程直至 128,000 个Tokens能够理解大量文档和复杂的多步骤推理。
- 增强型代理集成: 提供优化的多步骤代理工作流程,在工具调用方面具有卓越的可靠性,包括专用代理 代码生成, 搜索, 浏览, 和 码头作业。
- 效率提升: 取得了显著成就 减少20%–50%。 在推理模式下,平均令牌消耗量降低,同时保持或提高输出质量。
- 提高语言一致性: 显著减少了随机字符插入和不必要的语言混合问题,确保输出始终更加流畅和连贯。
- 卓越的编码性能: 提供高级代码生成功能,能够创建复杂的应用程序,并与 Godot 等游戏引擎无缝交互,而不会出现构建错误。
💰 API定价
- 100万个输入令牌: 0.294美元
- 100万个输出Tokens: 0.441美元
🎯 主要应用场景
- 复杂的 多步骤推理任务 要求逻辑严密。
- 自动化 编码 以及软件开发方面的协助。
- 命令行自动化和高级 脚本。
- 通过网络爬虫和复杂的数据检索 浏览代理。
- 需要对上下文有广泛理解的高级问答。
- 研究综合与总结 长篇文档。
💻 代码示例
🔍 与其他型号的比较
对比 GPT-4: 虽然 GPT-4 因其多功能性和创造性输出而备受赞誉,并在一般推理和对话质量方面表现出色, DeepSeek 终点站 它以卓越的表现而脱颖而出 代理工作流程 且效率极高 多步骤工具调用而且通常Tokens成本更低。
对比 Claude 4.1: Claude 4.1 以其直观、创造性的多步骤推理和流畅的逻辑推理执行而闻名。 DeepSeek 终点站 在复杂的代理工作流程中,尤其是在精确控制方面,它能提供高度匹配。 工具集成 明确 规划 至关重要。
对比 DeepSeek R1: 终点站 提供相当的推理质量,但还具有以下额外优势: 更快的响应速度 并降低了输出Tokens消耗。
对比 DeepSeek V3.1: 终点站 显著提升语言稳定性,几乎完全消除字符错误,并增强整体性能。 代理/工具协调 为了获得更流畅的用户体验。
❓ 常见问题解答 (FAQ)
问题1: DeepSeek V3.1 Terminus 的主要关注点是什么?
A1: DeepSeek V3.1 Terminus 主要专注于增强 混合推理能力 针对复杂的思维链任务,提高了稳定性,改进了代理/工具工作流程,并在各种应用程序中实现了可靠的多步骤推理。
Q2: 上下文窗口大小对用户有何益处?
A2: 上下文窗口相当大,最大可达 128,000 个TokensTerminus 可以处理极其长的文档并维护复杂的推理链,这对于研究、总结和深度分析任务至关重要。
Q3: Terminus的主要效率提升点是什么?
A3: 它显著提高了效率,降低了平均Tokens消耗量。 20%–50% 在推理模式下,与以前的版本相比,其输出质量不仅保持不变,甚至有所提高。
第四季度: DeepSeek V3.1 Terminus 能否处理高级编码任务?
A4: 是的,它具备 卓越的编码性能能够生成复杂的应用程序,并与 Godot 等游戏引擎流畅地交互,确保最小的构建错误和强大的功能。
Q5: Terminus 在代理工作流程中的独特之处是什么?
A5: 终点站拥有 增强型代理集成提供优化的多步骤代理工作流程和提高工具调用可靠性,包括用于编码、搜索、浏览和终端操作的专用代理。



登录