



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'alibaba/qwen3-max-preview',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="alibaba/qwen3-max-preview",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

产品详情
阿里云 Qwen3-Max 是一个尖端的开源语言模型,专为广泛的上下文理解、高级推理和海量内容生成而设计。它配备了令人印象深刻的 256K 个令牌的上下文窗口该模型在大规模文本分析、多轮对话和复杂代码合成方面表现出色。它在多语言和定量基准测试中均展现出强大的性能,使其成为需要处理长期依赖关系和复杂数据的高要求人工智能应用的理想之选。 Apache 2.0Qwen3-Max 提供强大的商业和研究灵活性,原生支持英语、中文以及十余种其他语言。尤其值得一提的是,它具有卓越的可扩展性和成本效益,能够满足需要扩展Tokens容量和强大输出量的项目需求。
🚀 技术规格
性能基准
- 上下文窗口: 256K 个Tokens
- 最大输入: 258,048 个Tokens
- MMLU: 高水平多语言推理能力
- GSM8K: 运用高级数学推理解决具有挑战性的问题
绩效指标
Qwen3-Max 在处理超长文档和复杂对话方面展现了领先的性能。它能够保持上下文的连贯性。 256K 个Tokens 它超越了大多数当代语言学习模型,支持需要持续状态感知和扩展性创造性或分析性生成的工作流程。编码基准测试反映了其强大的开发用例,而多语言任务则证实了其均衡的全球语言能力。
✨ 主要功能
Qwen3-Max 为各种 AI 工作负载提供企业级性能:
- ✅ 超长上下文处理: 卓越的能力 256K 个Tokens 能够深入理解文档、扩展对话和多文档合成。
- 🌐 多语言推理: 英语和中文母语水平,并能熟练运用 10 多种语言,包括处理细致入微的跨语言任务。
- 💡 数学和逻辑推理: 面向 STEM 应用的高级定量问题解决和符号推理。
- 💻 代码生成和调试: 为全栈开发提供全面的编码支持,涵盖遗留代码现代化和新系统构建。
- 🔓 开源灵活性: Apache 2.0 获得许可,从而带来广泛的商业、研究和定制机会。
💰 API 定价
- ➡️ 每百万Tokens的输入价格:
- 1.26美元 (0-32K 个Tokens)
- 2.52美元 (32K–128K 个Tokens)
- 3.15美元 (12.8万至25.2万Tokens)
- ⬅️ 每百万Tokens的产出价格:
- 6.30美元 (0-32K 个Tokens)
- 12.60美元 (32K–128K 个Tokens)
- 15.75美元 (12.8万至25.2万Tokens)
🎯 最佳使用场景
- 📄 需要超长上下文的企业级文档分析和报告生成。
- 💬 复杂的多回合聊天机器人和虚拟助手,能够维护较长的对话历史记录。
- 🔬 大规模科学数据解读和技术研究支持。
- ⚙️ 先进的软件工程工作流程,将代码生成与调试和测试相结合。
- 🌍 为全球平台提供多语言内容生成、翻译和本地化服务。
👨💻 代码示例
⚖️ 与其他型号的比较
- 🆚 对比 Qwen3-32B: 上级上下文窗口(256K 对 131K Tokens)用于处理更多文档,但价格更高。
- 🆚 对比 OpenAI GPT-4 Turbo: 更大的Tokens容量,可实现更长时间的上下文保留;大批量输出具有竞争力的价格。
- 🆚 对比 Gemini 2.5-Pro: 通过 Apache 2.0 许可,提供媲美高端产品的性能,并提高了开源可访问性。
- 🆚 对比 Mixtral-8x22B: 增强推理和编码可扩展性,并支持更广泛的多语言。
⚠️ 限制
Qwen3-Max 虽然提供了前所未有的令牌容量和高级推理能力,但在高令牌范围内会产生更高的 API 费用,并且在超长上下文场景下,与针对速度优化的较小型号相比,可能会出现一些延迟差异。此外,一些基准测试得分尚待公开确认,但预计将与 Qwen3 系列设定的高标准保持一致。
❓ 常见问题解答 (FAQ)
问:阿里云的Qwen3-Max是什么?
一个: Qwen3-Max 是阿里云开发的尖端开源语言模型,以其广泛的上下文理解、高级推理和海量内容生成能力而闻名,具有 256K 个标记的上下文窗口。
问:Qwen3-Max 的最大上下文窗口容量是多少?
一个: 它拥有令人印象深刻的 256K 个令牌的上下文窗口这使得它能够有效地处理超长文档、复杂的多轮对话和广泛的数据分析任务。
问:Qwen3-Max 是开源模型吗?它的许可证是什么?
一个: 是的,Qwen3-Max 是一个开源模型,采用以下许可协议: Apache 2.0这为商业部署和学术研究提供了极大的灵活性。
问:Qwen3-Max 的主要最佳使用场景是什么?
一个: 其最佳应用场景包括企业级文档分析、复杂的多轮聊天机器人、大规模科学数据解释、高级代码生成和调试,以及面向全球平台的多语言内容创建。
问:Qwen3-Max 在定价和Tokens容量方面与其他领先型号相比如何?
一个: 与 Qwen3-32B (131K) 和 OpenAI GPT-4 Turbo 等许多同类产品相比,Qwen3-Max 拥有更高的令牌容量 (256K)。虽然在高令牌量下 API 费用较高,但考虑到其扩展的上下文功能,其大批量输出的价格仍然具有竞争力。



登录