



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/QwQ-32B',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Qwen/QwQ-32B",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
✨ Apresentando o QwQ-32B: um modelo de linguagem poderoso e eficiente
O QwQ-32B O QwQ-32B é um modelo de linguagem de última geração com 32 bilhões de parâmetros, projetado para desempenho excepcional em raciocínio avançado, codificação e resolução de problemas complexos. Através de uma combinação inovadora de aprendizado por reforço e recursos de raciocínio agentivo, o QwQ-32B oferece funcionalidades geralmente encontradas apenas em modelos com um número significativamente maior de parâmetros. Ele possui uma ampla janela de contexto de até 131 mil tokens, tornando-o incrivelmente eficaz para gerenciar e compreender fluxos de trabalho longos e complexos.
Este modelo compacto, porém robusto, destaca-se pela sua eficiência e adaptabilidade, posicionando-se como a escolha ideal para agentes de IA dinâmicos e tarefas de raciocínio especializado. Ele atinge quase paridade com modelos muito maiores (por exemplo, DeepSeek-R1 671B) em benchmarks desafiadores de raciocínio e codificação. O QwQ-32B se destaca particularmente na resolução de problemas matemáticos, fluxos de trabalho lógicos e raciocínio adaptativo, demonstrando um manuseio robusto de documentos extensos e tarefas ricas em contexto.
⚙️ Especificações Técnicas
- Tamanho do modelo: 32,5 bilhões de parâmetros (31 bilhões não incorporados)
- Camadas: 64 camadas de transformador
- Janela de contexto: 131.072 tokens
- Arquitetura: Transformer com codificação posicional RoPE, ativações SwiGLU, RMSNorm e viés de atenção QKV.
- Treinamento: Combinação de pré-treinamento, ajuste fino supervisionado e aprendizado por reforço em múltiplos estágios.
- Alinhamento: Utiliza métodos baseados em aprendizado por reforço para aprimorar a precisão das respostas e mitigar o viés, particularmente nas áreas de matemática e programação.
💡 Principais funcionalidades do QwQ-32B
- 🚀 Raciocínio aprimorado por aprendizado por reforço: Emprega aprendizado por reforço em múltiplos estágios para resolução de problemas altamente adaptativa e sofisticada.
- 🧠 Raciocínio Agentic: Ajusta dinamicamente as estratégias de raciocínio com base em um contexto de entrada complexo e feedback em tempo real.
- 📚 Tratamento de Contexto Estendido: Suporta entradas de texto muito longas, sendo ideal para análises documentais abrangentes e diálogos prolongados.
- 💻 Assistência Eficiente em Codificação: Oferece alto desempenho na geração de código preciso e na depuração eficaz em diversas linguagens de programação.
🎯 Casos de uso ideais
- 🔬 Pesquisa Científica e Matemática: Para tarefas que exigem raciocínio profundo e estruturado, além de cálculos complexos.
- 🖥️ Desenvolvimento de Software: Facilitando o projeto de software complexo, a depuração robusta e a síntese de código eficiente.
- 📈 Fluxos de trabalho financeiros e de engenharia: Otimização de processos lógicos e análise de dados em domínios especializados.
- 🤖 Agentes com Inteligência Artificial: Capacitar os agentes com recursos de raciocínio flexíveis e maior adaptabilidade.
🔗 Acesso à API e documentação
O QwQ-32B O modelo está prontamente disponível no Plataforma de API de IA/ML, onde pode ser acessado como "QwQ-32B"Integre este poderoso modelo aos seus projetos com facilidade.
Para obter detalhes técnicos completos, guias de integração e exemplos de código, consulte o Documentação da API Fornecido pela Equipe Qwen.
⚖️ Uso Ético e Licenciamento
Diretrizes Éticas: A equipe do Qwen prioriza a segurança, implementando verificadores baseados em regras durante o treinamento para garantir alta precisão nos resultados de tarefas matemáticas e de programação. Recomenda-se que os usuários tomem precauções quanto a possíveis vieses ou imprecisões ao implantar o modelo em domínios menos testados ou sensíveis.
Licenciamento: O QwQ-32B é de código aberto sob a licença Open Source. Licença Apache 2.0Isso permite o uso gratuito tanto para fins comerciais quanto de pesquisa. Seu tamanho compacto e otimizado também facilita a implementação em hardware de consumo, tornando a IA avançada mais acessível.
❓ Perguntas frequentes (FAQ)
Q1: Quais são os principais pontos fortes do QwQ-32B?
UM: O QwQ-32B se destaca em raciocínio avançado, codificação e resolução de problemas estruturados. Ele combina aprendizado por reforço e raciocínio agentivo para alcançar um desempenho comparável ao de modelos muito maiores, especialmente em tarefas que exigem muita matemática e lógica.
Q2: Qual o tamanho da janela de contexto do QwQ-32B?
UM: O QwQ-32B suporta uma janela de contexto estendida de até 131.072 tokens, permitindo que ele lide com documentos muito longos e conversas complexas e ricas em contexto de forma eficaz.
P3: O QwQ-32B pode ser usado em projetos comerciais?
UM: Sim, o QwQ-32B é distribuído sob a licença Apache 2.0, que permite o uso gratuito tanto para fins comerciais quanto de pesquisa.
Q4: O QwQ-32B é eficiente em termos de implementação?
UM: Com certeza. Apesar de suas poderosas capacidades, o QwQ-32B foi projetado para ser compacto e eficiente, permitindo sua implementação até mesmo em hardware de consumo.
Q5: Onde posso encontrar a documentação da API?
UM: A documentação detalhada da API para QwQ-32B está disponível. aqui, fornecendo todas as informações necessárias para a integração.
Playground de IA



Conecte-se