



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Meta-Llama/Llama-Guard-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Meta-Llama/Llama-Guard-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
利用羊驼卫士 (7B) 解锁更安全的人机对话
羊驼卫队建立在强大的 羊驼2-7b 该架构是一个基于LLM的尖端模型,经过精心设计,旨在显著提升人机交互的安全性和完整性。它集成了一套复杂的安全风险分类体系,为用户提示和AI生成响应中的潜在风险分类提供了一个强大的框架。
✅ 出色的性能: Llama Guard 在 OpenAI Moderation Evaluation 数据集和 ToxicChat 等关键基准测试中,始终保持着与现有内容审核工具相当甚至更优的性能。该模型基于高质量、精心挑选的数据集进行微调,确保其在 AI 安全领域的可靠性和有效性。
🔍 综合安全风险分类
羊驼卫队能力的核心在于其 安全风险分类该基础工具提供了一种系统的方法,用于识别和分类两个关键领域中的具体安全问题,而这两个领域对于稳健的LLM管理至关重要:
- 提示分类: 在生成人工智能响应之前,分析用户输入以检测潜在的安全风险。
- 响应分类: 评估人工智能的输出,以确保其符合安全准则,并且不包含有害内容。
这一系统框架显著增强了该模型确保人工智能生成的对话中安全、适当的互动的能力,使其成为内容审核的宝贵工具。
🚀 LLM 主持的高级性能和微调
尽管使用了更小的数据量,Llama Guard 仍表现出 卓越的表现其准确性和可靠性通常优于现有的内容审核解决方案。其核心优势包括:
- 多类别分类: 能够识别内容中各种类型的风险。
- 二元决策评分: 提供清晰的“安全”或“不安全”评估,以便迅速采取行动。
- 指令微调: 这一关键流程实现了深度定制,使模型能够适应特定的任务需求和输出格式。这使得 Llama Guard 成为一款极其出色的产品。 灵活的工具 适用于各种安全相关应用。
💡 定制化和无缝适应性
指令微调的强大功能也体现在 Llama Guard 的卓越表现中。 定制化和适应性从而实现定制化的AI安全措施。用户可以:
- 调整分类类别: 根据具体的组织需求或行业标准调整安全分类,以实现更精确的内容审核。
- 简化零次或少次提示: 可与各种分类法无缝集成,无需大量再培训即可快速适应新的安全要求。
这种高度的灵活性确保了羊驼卫队能够提供 量身定制的安全措施 在各种人工智能交互用例中,增强了人机对话的整体安全性。
🌐 人工智能安全领域的开放性和协作未来
为了促进人工智能监管和安全领域的创新和集体改进, Llama Guard 模型重量数据是公开的。这种开源方式积极鼓励研究人员和开发人员:
- 进一步完善模型: 增强其功能,并应对人机对话中新出现的安全挑战。
- 适应不断变化的需求: 根据特定社区需求和各种使用场景定制 Llama Guard。
这种对开放式开发的承诺旨在推动在创建更安全的 AI 环境和推进 LLM 审核技术方面取得持续进展。
⚙️ 如何将 Llama Guard 应用于您的 LLM 申请
将 Llama Guard 集成到您的应用程序中可以简化流程,从而增强内容审核。虽然原文引用了特定的代码片段进行演示,但通常情况下,开发人员可以在其 LLM 应用程序中使用 Llama Guard 执行强大的内容审核任务。这通常涉及将用户提示或 AI 响应传递给模型进行安全分类。
使用示例: 将 Llama Guard 用作用户输入的预处理步骤,以过滤掉有害提示;或者用作 AI 输出的后处理步骤,以确保生成的内容安全且符合您的标准。
有关实施的更多详细信息,请在获取模型权重后参考官方文档或社区资源,以充分利用其 AI 安全功能。
❓ 常见问题解答 (FAQ)
1. Llama Guard (7B) 的设计用途是什么?
Llama Guard (7B) 是基于 Llama2-7b 构建的 LLM 模型,专门设计用于通过使用全面的安全风险分类法对用户提示和 AI 响应中的安全风险进行分类,从而增强人机对话的安全性。
2. Llama Guard 如何确保内容安全和 LLM 审核?
它采用指令调整模型和详细的安全风险分类法进行多类分类,提供二元决策分数来识别和标记不安全的内容或提示,同时执行提示和响应分类。
3. 我可以自定义 Llama Guard 的安全准则和分类吗?
是的,通过指令微调,Llama Guard 可以对分类类别进行大幅度自定义,并支持零次或少次提示,使其能够高度适应各种安全要求和使用场景。
4. Llama Guard 的模型是否可供公众使用或研究?
是的,Llama Guard 模型权重是公开提供的,旨在鼓励研究人员和开发人员进一步改进和调整模型,从而促进 AI 安全性和审核实践的持续改进。
5. Llama Guard 与其他内容审核工具相比如何?
尽管数据量相对较低,但 Llama Guard 表现出卓越的性能,在 OpenAI Moderation Evaluation 和 ToxicChat 等关键基准测试中,其准确性和可靠性与现有的内容审核解决方案相当甚至更高。
信息来源: 原文:羊驼卫队 (7B) 描述



登录