



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'meta-llama/Llama-3-70b-chat-hf',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="meta-llama/Llama-3-70b-chat-hf",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
🚀 Llama 3 70B Instruct: Uma Nova Era na IA da Linguagem
Nome do modelo: Lhama 3 70B Instruir
Desenvolvedor/Criador: Meta
Data de lançamento: 18 de abril de 2024
Versão: 3
Tipo de modelo: Modelo de Linguagem Amplo (LLM)
O Llama 3 70B Instruct representa um avanço significativo em modelos de linguagem de grande porte. Projetado para bate-papo sofisticado, semelhante a um assistente virtual, e para diversas tarefas de geração de linguagem natural, este modelo de última geração da Meta Oferece melhorias substanciais em relação ao seu antecessor, Llama 2, particularmente em áreas como raciocínio, geração de código e seguimento de instruções.
✨ Principais características que diferenciam o Llama 3:
- Raciocínio Avançado e Geração de Código: Capacidades aprimoradas para resolução de problemas complexos e tarefas de programação.
- Melhoria no seguimento e alinhamento das instruções: Interpreta e executa as instruções do usuário com maior precisão.
- Redução das taxas de recusas indevidas: Menos propenso a recusar solicitações válidas incorretamente.
- Maior diversidade nas respostas dos modelos: Gera uma gama mais ampla de resultados criativos e relevantes.
- Saídas direcionáveis aprimoradas: Oferece maior controle sobre a natureza e o estilo do conteúdo gerado.
🎯 Uso pretendido e suporte linguístico:
O modelo Llama 3 70B Instruct foi desenvolvido principalmente para aplicações comerciais e de pesquisa Em inglês. Seu foco principal reside em alimentar sistemas de bate-papo semelhantes a assistentes virtuais e diversas tarefas de geração de linguagem natural.
Embora otimizado para inglês, o modelo oferece aos desenvolvedores a flexibilidade de ajustá-lo para outros idiomas. Isso deve ser feito em estrita conformidade com a Licença Comunitária do Llama 3 e sua Política de Uso Aceitável.
⚙️ Análise Técnica Detalhada
Visão geral da arquitetura:
- Transformador somente para decodificador: Uma arquitetura robusta otimizada para tarefas generativas.
- 70 bilhões de parâmetros: Uma quantidade enorme de parâmetros permite uma compreensão e geração complexas.
- Atenção de consulta agrupada (GQA): Melhora significativamente a eficiência da inferência, o que é crucial para modelos de grande porte.
- Vocabulário de 128 mil tokens: Facilita uma codificação de linguagem mais eficiente e com mais nuances.
- 8.192 Janela de Contexto do Token: Permite que o modelo processe e mantenha o contexto ao longo de conversas e documentos mais extensos.
Análises de dados de treinamento:
- Treinado em um nível sem precedentes até 15 trilhões de tokens.
- Observaram-se melhorias notáveis no desempenho mesmo após o treinamento com duas ordens de magnitude a mais de dados do que a quantidade ideal para o modelo Chinchilla.
- Utiliza um conjunto de dados diversificado especificamente selecionada para melhorar o desempenho geral do modelo e mitigar possíveis vieses.
📊 Métricas de desempenho:
Pontuação MMLU: 0,82
Índice de Qualidade em Todas as Avaliações: 62
Velocidade de saída: 54,3 tokens por segundo
Tempo até o primeiro token (TTFT): 0,44 segundos
Comparação com outros modelos:
- Llama 3 70B Instrua define um novo padrão de referência de última geração para modelos LLM na escala de parâmetros 70B.
- As avaliações de anotadores humanos confirmam que isso supera os modelos concorrentes de tamanho comparável em cenários do mundo real, demonstrando utilidade e desempenho superiores.
💡 Diretrizes de Uso
Exemplos de código:
# Exemplo de uso do Python (conceitual)
from llama3_api import Llama3Client
cliente = Llama3Client(modelo="meta-llama/Llama-3-70b-chat-hf")
resposta = cliente.chat_completion(prompt="Olá, o que você pode fazer?")
imprimir(resposta.escolhas[0].mensagem.conteúdo)
Nota: Este é um espaço reservado para trechos de código da API. Consulte a documentação oficial do Meta Llama 3 para exemplos de integração precisos.
✅ Diretrizes Éticas:
A Llama 3 70B Instruct foi construída com um forte compromisso com considerações éticas, defendendo princípios fundamentais como:
- Promover a abertura, a inclusão e a prestatividade: Projetado para atender a uma ampla gama de usuários.
- Respeitando a dignidade e a autonomia do usuário: Garante que as interações com o usuário sejam respeitosas e empoderadoras.
- Evitar julgamentos ou normatividade desnecessários: Busca neutralidade e imparcialidade nas respostas.
- Seguindo um guia de uso responsável: Diretrizes abrangentes estão em vigor para mitigar o potencial uso indevido e os riscos críticos.
📄 Informações sobre licenciamento:
Tipo de licença: Licença Comunitária Lhama 3
- A licença permite ambos uso comercial e de pesquisa do modelo.
- É estritamente proibido o uso de qualquer forma que viole as leis ou regulamentos aplicáveis.
- Para obter detalhes completos, consulte o site oficial. Política de Licença Comunitária e Uso Aceitável do Llama 3.
❓ Perguntas frequentes (FAQ)
P1: Para que serve principalmente o Llama 3 70B Instruct?
A1: Ele foi projetado principalmente para aplicativos de bate-papo com assistentes virtuais e diversas tarefas de geração de linguagem natural, destinados ao uso comercial e de pesquisa em inglês.
Q2: Como o Llama 3 70B Instruct se compara ao seu antecessor, o Llama 2?
A2: O Llama 3 70B Instruct oferece melhorias significativas no raciocínio, na geração de códigos, no seguimento de instruções, na redução das taxas de falsas recusas e no aumento da diversidade de respostas.
Q3: O Llama 3 70B Instruct pode ser usado para idiomas diferentes do inglês?
A3: Embora tenha sido projetado principalmente para o inglês, os desenvolvedores podem ajustar o modelo para outros idiomas, desde que cumpram a Licença Comunitária do Llama 3 e a Política de Uso Aceitável.
Q4: Quais são as considerações éticas para o uso do Llama 3 70B Instruct?
A4: Adere a diretrizes éticas rigorosas, promovendo a abertura, a inclusão, a prestatividade, o respeito à dignidade do usuário, evitando julgamentos desnecessários e seguindo um guia de uso responsável para mitigar riscos.
Q5: O Llama 3 70B Instruct é adequado para aplicações comerciais?
A5: Sim, a Licença Comunitária do Llama 3 permite explicitamente o uso comercial, além do uso para pesquisa, desde que todos os termos e condições da licença sejam seguidos.
Playground de IA



Conecte-se