



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'meta-llama/Llama-Guard-3-11B-Vision-Turbo',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="meta-llama/Llama-Guard-3-11B-Vision-Turbo",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
Visão geral: Llama Guard 3 11B Vision
Llama Guard 3 11B Visão é um classificador de segurança de conteúdo multimodal de ponta desenvolvido por MetaLançado em 6 de dezembro de 2023Esta versão do Llama 3.2 foi especificamente projetada para aprimorar a segurança de aplicativos de Modelo de Linguagem Ampla (LLM, na sigla em inglês) detectando conteúdo prejudicial em entradas e respostas de texto e imagem.
- ✓ Nome do modelo: Llama Guard 3 11B Visão
- ✓ Desenvolvedor: Meta
- ✓ Data de lançamento: 6 de dezembro de 2023
- ✓ Tipo de modelo: Classificador de segurança de conteúdo multimodal (texto e imagem)
🔍 Principais recursos para maior segurança em LLM
Este modelo traz avanços significativos para a moderação de conteúdo, especialmente em cenários multimodais complexos, garantindo interações mais seguras com a IA.
- Detecção de conteúdo prejudicial: Identifica conteúdo inadequado ou inseguro em entradas de texto e imagem, protegendo as interações do LLM.
- Otimizado para raciocínio de imagens: Destaca-se em cenários onde o contexto visual é crucial para uma classificação de segurança precisa.
- Relatório de segurança detalhado: Gera textos claros que indicam os níveis de segurança e as categorias específicas de conteúdo violado, fornecendo informações úteis para ações práticas.
- Desempenho superior: Supera modelos líderes como GPT-4o e GPT-4o mini na classificação de respostas, apresentando taxas de falsos positivos significativamente menores.
💬 Uso pretendido e suporte linguístico
O Llama Guard 3 11B Vision foi projetado principalmente para casos de uso que exigem detecção robusta de conteúdo prejudicial em entradas e respostas multimodais. É uma ferramenta essencial para desenvolvedores e organizações que buscam garantir a segurança e o uso ético de seus aplicativos LLM.
- 💬 Aplicação principal: Protegendo aplicativos de mestrado em direito contra conteúdo multimodal prejudicial.
- 💬 Idioma otimizado: Desenvolvido e otimizado principalmente para o língua Inglesa.
📚 Análise Técnica Detalhada
Compreender a arquitetura e a metodologia de treinamento revela a robustez e as capacidades avançadas do Llama Guard 3 11B Vision.
Arquitetura
O modelo é construído sobre um Modelo pré-treinado Llama-3.2-11B, que foi meticulosamente ajustado especificamente para tarefas de classificação de segurança de conteúdo, aproveitando suas poderosas capacidades fundamentais para uma precisão superior.
Estratégia de dados de treinamento
O regime de treinamento utilizou um método sofisticado. conjunto de dados híbridoEste conjunto de dados combina dados gerados por humanos e dados gerados sinteticamente, garantindo uma cobertura abrangente de vários cenários nocivos e melhorando a aplicabilidade no mundo real. Inclui:
- Sugestões criadas por humanos acompanhados de diversas imagens correspondentes.
- Respostas benignas e violadoras do modelo Gerado usando modelos Llama internos e técnicas avançadas de jailbreak para simular ataques adversários do mundo real.
Fonte e tamanho dos dados
O conjunto de dados é excepcionalmente diverso, apresentando uma ampla gama de pares de estímulo-imagem. Esses pares são meticulosamente rotulados por anotadores humanos ou por sistemas avançados. Modelo Llama 3.1 405BOs dados abrangem todas as categorias de perigo definidas por MLCommons, garantindo uma base de treinamento ampla e completa. Para o processamento de imagens, o codificador de visão redimensiona as imagens de forma eficiente em 4 partes, cada uma medindo 560x560 pixels.
Diversidade e Mitigação de Preconceitos
Compromisso com a Diversidade: O processo de curadoria priorizou a criação de um conjunto de dados que realmente refletisse uma gama diversificada de pares de estímulo-imagem, abrangendo todas as categorias de risco definidas para minimizar o viés e aprimorar a detecção robusta em vários cenários.
📈 Métricas de desempenho e benchmarking
A eficácia do Llama Guard 3 11B Vision é rigorosamente avaliada em relação a um conjunto de testes internos alinhado com a taxonomia de riscos do MLCommons. O modelo demonstra consistentemente alto desempenho e confiabilidade.
Resultados excepcionais na Fórmula 1: Llama Guard 3 Vision alcança pontuações F1 superiores a 0,69 em todas as categorias de risco, incluindo áreas desafiadoras como Armas Indiscriminadas e Eleições, demonstrando alta precisão e confiabilidade em todos os aspectos.

Comparação com outros modelos da indústria
Em comparações diretas, O Llama Guard 3 Vision demonstra capacidades superiores. contra modelos proeminentes como o GPT-4o e o GPT-4o mini. Essa superioridade é particularmente evidente na classificação de respostas, onde alcança pontuações F1 mais altas e taxas de falsos positivos significativamente menores. O design do modelo minimiza efetivamente ataques baseados em dicas, confiando mais na resposta do modelo para a classificação, abordando a ambiguidade inerente às dicas combinadas de texto e imagem com maior precisão.

🔑 Uso e acesso à API
Integrar o Llama Guard 3 11B Vision em seus aplicativos é simples, proporcionando recursos robustos de segurança de conteúdo com facilidade.
Exemplos de código:
O modelo está facilmente disponível em Plataforma de API de IA/ML sob o identificador "Llama-Guard-3-11B-Vision-Turbo"Acesse a API aqui Para começar.
Documentação da API:
Para obter orientações técnicas detalhadas, instruções de integração e informações completas, consulte o manual oficial. Documentação da API.
📒 Diretrizes e Limitações Éticas
É crucial compreender as considerações éticas e as limitações específicas associadas ao Llama Guard 3 11B Vision para uma implementação responsável e eficaz nas suas aplicações.
Nota importante: O Llama Guard 3 Vision foi otimizado com base no Llama 3.2-vision. Seu desempenho e capacidades estão intrinsecamente ligados aos dados de pré-treinamento. não intencional para servir como um classificador de segurança de imagens independente ou um classificador de segurança somente de texto. Ele foi projetado para segurança de conteúdo multimodal especificamente no contexto das contribuições e respostas do LLM para fornecer uma defesa em camadas.
Para começar a aproveitar os poderosos recursos da API Llama Guard 3 11B Vision Turbo, você pode Comece aqui.
ⓘ Perguntas frequentes (FAQ)
- P1: O que é o Llama Guard 3 11B Vision?
- A1: É um modelo multimodal de classificação de segurança de conteúdo desenvolvido pela Meta, especificamente projetado para detectar conteúdo prejudicial de texto e imagem em entradas e respostas de Modelos de Linguagem Amplos (LLM).
- P2: Que tipos de conteúdo o Llama Guard 3 11B Vision consegue detectar?
- A2: Ele foi projetado para detectar conteúdo prejudicial em formatos de texto e imagem, tornando-o altamente eficaz para segurança multimodal de gestão de aprendizagem online e moderação de conteúdo.
- P3: Como seu desempenho se compara a outros modelos de segurança como o GPT-4o?
- A3: O Llama Guard 3 Vision demonstra desempenho superior em comparação com o GPT-4o e o GPT-4o mini, particularmente na classificação de respostas, alcançando pontuações F1 mais altas e taxas de falsos positivos significativamente menores.
- Q4: O Llama Guard 3 11B Vision é adequado para classificação independente somente de texto ou somente de imagem?
- A4: Não, ele foi especificamente projetado e otimizado para segurança de conteúdo multimodal em contextos LLM e não se destina ao uso como um classificador independente somente de texto ou somente de imagem.
- Q5: Como posso acessar a API do Llama Guard 3 11B Vision?
- A5: O modelo está disponível na plataforma AI/ML API com o identificador "Llama-Guard-3-11B-Vision-Turbo". Você pode encontrar acesso e documentação detalhada no site oficial da plataforma.
Playground de IA



Conecte-se