qwen-bg
max-ico04
32 mil
Em
Fora
max-ico02
Bater papo
max-ico03
desativar
Qwen 1.5 (72B)
Qwen 1.5-72B: Modelo de linguagem baseado em Transformers com suporte multilíngue, 32 mil contextos e alto desempenho em preenchimento automático de texto e raciocínio.
Tokens de $1 grátis para novos membros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });

const main = async () => {
  const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
  const response = await api.completions.create({
    prompt,
    model: 'Qwen/Qwen1.5-72B',
  });
  const text = response.choices[0].text;

  console.log('Completion:', text);
};

main();

                                
                                        from openai import OpenAI

client = OpenAI(
    api_key="",
    base_url="https://api.ai.cc/v1",
)


def main():
    response = client.completions.create(
        model="Qwen/Qwen1.5-72B",
        prompt="""
  All of the states in the USA:
  - Alabama, Mongomery;
  - Arkansas, Little Rock;
  """,
    )

    completion = response.choices[0].text
    print(f"Completion: {completion}")


main()
Docs

Uma API com mais de 300 modelos de IA

Economize 20% nos custos e ganhe tokens grátis de $1.
qwenmax-bg
imagem
Qwen 1.5 (72B)

Detalhes do produto

✨ Descubra o Qwen 1.5 (72B): Um modelo de linguagem de IA avançado

Modelo de linguagem base Qwen1.5-72B representa a versão beta do Qwen2, um modelo de linguagem avançado baseado em Transformers. Pré-treinado usando um vasto conjunto de dados, oferece melhorias significativas em relação ao seu antecessor, o Qwen.

As principais melhorias incluem suporte multilíngue Para os modelos base e de chat, desempenho estável com um Contexto de 32K de comprimentoe a eliminação da necessidade de código_remoto_confiável, simplificando sua implantação e utilização.

🧠 Compreendendo a arquitetura do modelo Qwen 1.5 (72B)

Qwen1.5-72B é o principal membro da série Qwen1.5, que engloba modelos de linguagem decodificadores em seis tamanhos diferentes, variando de 0,5B a 72B. Como o maior modelo base desta série, ele é construído sobre uma base robusta. Arquitetura de transformadores.

Entre as características notáveis, incluem-se: Ativação do SwiGLU, viés de atenção QKV e um tokenizador aprimorado adaptável a múltiplas linguagens e códigos naturais. Também incorpora atenção de consulta em grupo e uma combinação de atenção de janela deslizante e atenção completa para melhor desempenho.

💡 Observação: Para esta versão beta, Atenção de consulta em grupo (GQA) e a mistura de Atenção por Janela Deslizante (SWA) e a atenção plena está atualmente omitida.

⭐ Qwen 1.5 (72B) Desempenho e Vantagem Competitiva

Qwen1.5-72B demonstra consistentemente Desempenho sólido em diversos parâmetros de avaliação.Demonstra capacidades excepcionais em compreensão da linguagem, raciocínio e tarefas matemáticas complexas.

Significativamente, Apresenta desempenho superior ao Llama2-70B em todos os benchmarks., consolidando sua posição como um modelo de linguagem de primeira linha em sua categoria. Sua capacidade de lidar de forma confiável com Contexto de 32K de comprimento O que o diferencia de forma consistente é a garantia de um desempenho estável em diversos cenários, sem comprometer a eficiência.

Além disso, o Qwen1.5-72B demonstra ser altamente competitivo com outros modelos líderes na comunidade, como... Mixtral 8x7bOs resultados dos testes de desempenho confirmam sua capacidade de lidar com tarefas linguísticas complexas com precisão e eficiência, consolidando-o como um participante importante no cenário de modelos de linguagem baseados em Transformers.

💡 Dicas práticas de uso para Qwen 1.5 (72B)

Embora seja geralmente aconselhável usar versões de bate-papo para geração de textoO modelo base Qwen1.5-72B é de valor inestimável para diversos experimentos e avaliações. Isso se deve principalmente ao seu viés mínimo ao realizar tarefas de preenchimento de texto.

Você pode acessar facilmente este poderoso modelo através do nosso API de IA/ML Ao se cadastrar neste site.

Para quem implanta o modelo localmente, é possível aplicar técnicas avançadas de pós-treinamento para aprimorar ainda mais o desempenho. Considere usar SFT (Ajuste Fino Esparso), RLHF (Aprendizagem por Reforço com Feedback Humano)ou treinamento prévio contínuo para adaptar os resultados a requisitos específicos e otimizar o desempenho do modelo.

📜 Contrato de Licença do Qwen 1.5 (72B)

O modelo Qwen1.5-72B é regido por Contrato de Licença Tongyi QianwenOs detalhes completos da licença podem ser acessados ​​no repositório do modelo em GitHub ou Huggingface.

Não é necessário um pedido de autorização para uso comercial, a menos que seu produto ou serviço alcance mais de 100 milhões de usuários ativos mensais.

🚀 Conclusão: Avançando os LLMs com Qwen 1.5 (72B)

Em conclusão, Qwen1.5-72B representa um avanço significativo em modelos de linguagem fundamentais de código aberto. Oferece recursos aprimorados de preenchimento automático de texto, suporte multilíngue robusto e tratamento de contexto superior, tornando-se uma ferramenta essencial para pesquisadores e desenvolvedores que buscam expandir os limites da IA.

❓ Perguntas frequentes (FAQ)

P: O que é Qwen 1.5 (72B)?

A: Qwen 1.5 (72B) é a iteração beta do Qwen2, um modelo de linguagem avançado baseado em transformadores com 72 bilhões de parâmetros, apresentando suporte multilíngue e um comprimento de contexto estável de 32K.

P: Como o Qwen 1.5 (72B) se compara aos concorrentes?

A: Ele supera consistentemente o Llama2-70B em vários benchmarks e é altamente competitivo com modelos como o Mixtral 8x7b, sendo particularmente notável pelo seu confiável gerenciamento de contexto de 32K.

P: O Qwen 1.5 (72B) é adequado para uso comercial?

R: Sim, é regido pela licença Tongyi Qianwen. Uma solicitação especial de uso comercial só é necessária se o seu produto ou serviço ultrapassar 100 milhões de usuários ativos mensais.

P: Quais são as principais aplicações para o modelo básico Qwen 1.5 (72B)?

A: Embora as versões de bate-papo sejam recomendadas para geração direta de texto, o modelo base é ideal para experimentos e avaliações, podendo ser aprimorado com técnicas de pós-treinamento como SFT ou RLHF para personalizar as saídas.

P: Onde posso encontrar os detalhes da licença e o repositório de modelos?

A: O contrato de licença e os detalhes do modelo do Tongyi Qianwen estão disponíveis em seus repositórios oficiais em GitHub e Huggingface.

Playground de IA

Teste todos os modelos de API no ambiente de sandbox antes de integrá-los. Oferecemos mais de 300 modelos para integrar ao seu aplicativo.
Experimente grátis
api-right-1
modelo-bg02-1

Uma API
Mais de 300 modelos de IA

Economize 20% nos custos