



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Meta-Llama/Llama-Guard-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Meta-Llama/Llama-Guard-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
Desbloqueando conversas mais seguras entre humanos e IA com o Llama Guard (7B)
Guarda Lhama, construído sobre o poderoso Lhama2-7b A arquitetura, baseada em LLM de última geração, é um modelo meticulosamente projetado para aprimorar significativamente a segurança e a integridade das interações entre humanos e IA. Ela integra uma sofisticada taxonomia de riscos de segurança, fornecendo uma estrutura robusta para classificar riscos potenciais tanto em comandos do usuário quanto em respostas geradas por IA.
✅ Desempenho excepcional: O Llama Guard oferece desempenho consistente, igual ou até superior ao de ferramentas de moderação de conteúdo existentes, em benchmarks críticos como o conjunto de dados de Avaliação de Moderação da OpenAI e o ToxicChat. Este modelo é otimizado com base em um conjunto de dados selecionado e de alta qualidade, garantindo sua confiabilidade e eficácia na segurança da IA.
🔍 Taxonomia Abrangente de Riscos de Segurança
No cerne das capacidades do Llama Guard reside sua taxonomia de risco de segurançaEsta ferramenta fundamental fornece uma abordagem sistemática para identificar e categorizar preocupações específicas de segurança em duas áreas-chave cruciais para uma moderação robusta de LLM:
- Classificação de prompts: Analisar a entrada do usuário para detectar potenciais riscos de segurança antes que uma resposta de IA seja gerada.
- Classificação da resposta: Avaliar os resultados da IA para garantir que ela esteja em conformidade com as diretrizes de segurança e permaneça livre de conteúdo prejudicial.
Essa estrutura sistemática aprimora significativamente a capacidade do modelo de garantir interações seguras e apropriadas em conversas geradas por IA, tornando-o uma ferramenta indispensável para a moderação de conteúdo.
🚀 Desempenho avançado e ajustes finos para moderação LLM
Apesar de utilizar um volume de dados mais compacto, o Llama Guard apresenta desempenho excepcional, muitas vezes superando as soluções de moderação de conteúdo existentes em termos de precisão e confiabilidade. Seus principais pontos fortes incluem:
- Classificação Multiclasse: Capaz de identificar diversas categorias de riscos dentro do conteúdo.
- Pontuações de decisão binária: Fornecer avaliações claras de "seguro" ou "inseguro" para uma ação rápida.
- Ajuste fino das instruções: Esse processo crucial permite uma personalização profunda, possibilitando que o modelo se adapte a requisitos de tarefas e formatos de saída específicos. Isso torna o Llama Guard incrivelmente... ferramenta flexível para diversas aplicações relacionadas à segurança.
💡 Personalização e Adaptabilidade Perfeita
O poder do ajuste fino das instruções se estende ao notável Llama Guard. personalização e adaptabilidade, permitindo medidas de segurança personalizadas com IA. Os usuários podem:
- Ajustar categorias de taxonomia: Adapte a taxonomia de segurança às necessidades específicas da organização ou aos padrões da indústria para uma moderação de conteúdo mais precisa.
- Facilitar o uso de instruções com zero ou poucos exemplos: Integre-se perfeitamente a diversas taxonomias e adapte-se rapidamente a novos requisitos de segurança sem a necessidade de extensos treinamentos adicionais.
Esse alto grau de flexibilidade garante que a Llama Guard possa fornecer medidas de segurança personalizadas em uma ampla gama de casos de uso de interação com IA, aprimorando a segurança geral da conversa entre humanos e IA.
🌐 Disponibilidade aberta e futuro colaborativo em segurança de IA
Para fomentar a inovação e a melhoria coletiva na moderação e segurança da IA, o Os pesos dos modelos Llama Guard estão disponíveis publicamente.Essa abordagem de código aberto incentiva ativamente pesquisadores e desenvolvedores a:
- Aprimorar ainda mais o modelo: Aprimorar suas capacidades e abordar os desafios de segurança emergentes em conversas entre humanos e IA.
- Adaptar-se às necessidades em constante evolução: Personalize o Llama Guard para atender às necessidades específicas da comunidade e a diversos casos de uso.
Esse compromisso com o desenvolvimento aberto visa impulsionar o progresso contínuo na criação de ambientes de IA mais seguros e no avanço das técnicas de moderação de LLM.
⚙️ Como utilizar o Llama Guard para suas candidaturas ao LLM
A integração do Llama Guard em seus aplicativos pode ser simplificada para aprimorar a moderação de conteúdo. Embora o conteúdo original faça referência a um trecho específico para uso, de modo geral, os desenvolvedores podem usar o Llama Guard para tarefas robustas de moderação de conteúdo em seus aplicativos LLM. Isso normalmente envolve o envio de prompts do usuário ou respostas de IA para o modelo para classificação de segurança.
Exemplo de caso de uso: Implemente o Llama Guard como uma etapa de pré-processamento para entradas de usuários, a fim de filtrar avisos prejudiciais, ou como uma etapa de pós-processamento para saídas de IA, garantindo que o conteúdo gerado seja seguro e esteja em conformidade com seus padrões.
Para obter mais detalhes sobre a implementação, consulte a documentação oficial ou os recursos da comunidade assim que tiver acesso aos pesos do modelo para aproveitar ao máximo seus recursos de segurança de IA.
❓ Perguntas frequentes (FAQs)
1. Para que serve o Llama Guard (7B)?
O Llama Guard (7B), construído sobre o Llama2-7b, é um modelo baseado em LLM projetado especificamente para aprimorar a segurança das conversas entre humanos e IA, classificando os riscos de segurança tanto nas solicitações do usuário quanto nas respostas da IA, usando uma taxonomia abrangente de riscos de segurança.
2. Como o Llama Guard garante a segurança do conteúdo e a moderação do LLM?
Ele utiliza um modelo ajustado às instruções e uma taxonomia detalhada de risco de segurança para classificação multiclasse, fornecendo pontuações de decisão binárias para identificar e sinalizar conteúdo ou avisos inseguros, realizando a classificação tanto do aviso quanto da resposta.
3. Posso personalizar as diretrizes de segurança e a taxonomia do Llama Guard?
Sim, por meio do ajuste fino das instruções, o Llama Guard permite uma personalização significativa das categorias de taxonomia e suporta instruções com zero ou poucos disparos, tornando-o altamente adaptável a diversos requisitos de segurança e casos de uso.
4. O modelo da Llama Guard está disponível para uso público ou para pesquisa?
Sim, os pesos do modelo Llama Guard são disponibilizados publicamente para incentivar pesquisadores e desenvolvedores a aprimorarem e adaptarem ainda mais o modelo, promovendo a melhoria contínua nas práticas de segurança e moderação da IA.
5. Como o Llama Guard se compara a outras ferramentas de moderação de conteúdo?
O Llama Guard demonstra um desempenho excepcional, igualando ou superando a precisão e a confiabilidade das soluções de moderação de conteúdo existentes em benchmarks importantes como o OpenAI Moderation Evaluation e o ToxicChat, apesar de seu volume de dados relativamente menor.
Informações adaptadas de: Original: Lhama Guard (7B) Descrição
Playground de IA



Conecte-se