



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/QwQ-32B',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Qwen/QwQ-32B",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

产品详情
✨ 隆重推出 QwQ-32B:一种强大而高效的语言模型
这 QwQ-32B QwQ-32B 是一款最先进的 320 亿参数语言模型,专为高级推理、编码和复杂问题解决而设计,性能卓越。它创新性地融合了强化学习和智能推理能力,实现了通常只有参数数量远超 QwQ-32B 的模型才能达到的性能。其上下文窗口高达 13.1 万个词元,使其在管理和理解长篇复杂工作流程方面极其高效。
这款结构紧凑而功能强大的模型以其高效性和适应性脱颖而出,使其成为动态人工智能代理和专业推理任务的理想选择。它实现了…… 与规模大得多的模型几乎不相上下 (例如,DeepSeek-R1 671B)在推理和编码方面的高难度基准测试中表现出色。QwQ-32B尤其擅长数学问题求解、逻辑工作流和自适应智能推理,展现出对大型文档和上下文丰富任务的稳健处理能力。
⚙️ 技术规格
- 型号尺寸: 325亿个参数(310亿个非嵌入参数)
- 层数: 64层变压器
- 上下文窗口: 131,072 个Tokens
- 建筑学: Transformer 结合 RoPE 位置编码、SwiGLU 激活函数、RMSNorm 和 QKV 注意力偏置
- 训练: 结合预训练、监督微调和多阶段强化学习
- 结盟: 利用基于强化学习的方法来提高响应正确性并减轻偏差,尤其是在数学和编码领域。
💡 QwQ-32B 的主要功能
- 🚀强化学习增强推理: 采用多阶段强化学习进行高度自适应和复杂的问题解决。
- 🧠 能动推理: 根据复杂的输入上下文和实时反馈动态调整推理策略。
- 📚 扩展上下文处理: 支持超长篇幅的输入,使其成为全面文档分析和持续对话的理想选择。
- 💻 高效的编码辅助: 在多种编程语言中,都能提供强大的代码生成和有效调试性能。
🎯 最佳使用场景
- 🔬 科学与数学研究: 适用于需要深入、结构化推理和复杂计算的任务。
- 🖥️ 软件开发: 有助于实现复杂的软件设计、强大的调试功能和高效的代码合成。
- 📈财务和工程工作流程: 简化特定领域的逻辑流程和数据分析。
- 🤖 人工智能代理: 赋予智能体灵活的推理能力和更强的适应能力。
🔗 API 访问和文档
这 QwQ-32B 该模型很容易获取。 AI/ML API平台可以通过以下方式访问: “QwQ-32B”轻松将此强大模型集成到您的项目中。
有关完整的技术细节、集成指南和代码示例,请参阅以下内容: API 文档 由 Qwen 团队提供。
⚖️ 合乎道德的使用和许可
道德准则: Qwen 团队将安全性放在首位,在训练过程中实施基于规则的验证器,以确保数学和编程任务输出结果的高度正确性。我们建议用户在未经充分测试或涉及敏感领域的应用场景中部署模型时,应谨慎对待潜在的偏差或不准确性。
许可: QwQ-32B 是根据以下条款开源的: Apache 2.0 许可证这使得它可以免费用于商业和研究用途。其优化的紧凑尺寸也便于在消费级硬件上部署,从而使先进的人工智能更容易获得。
❓ 常见问题解答 (FAQ)
Q1:QwQ-32B 的主要优势是什么?
一个: QwQ-32B 在高级推理、编码和结构化问题解决方面表现出色。它结合了强化学习和智能推理,实现了与规模大得多的模型相媲美的性能,尤其是在数学和逻辑密集型任务中。
Q2:QwQ-32B 的上下文窗口有多大?
一个: QwQ-32B 支持高达 131,072 个标记的扩展上下文窗口,使其能够有效地处理非常长的文档和复杂的、上下文丰富的对话。
Q3:QwQ-32B 可以用于商业项目吗?
一个: 是的,QwQ-32B 是根据 Apache 2.0 许可证发布的,允许免费用于商业和研究用途。
Q4:QwQ-32B 的部署效率如何?
一个: 当然。尽管QwQ-32B功能强大,但其设计紧凑高效,即使在消费级硬件上也能部署。
Q5:在哪里可以找到 API 文档?
一个: QwQ-32B 的详细 API 文档已发布。 这里提供集成所需的所有信息。



登录