



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-20b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-20b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

产品详情
这 GPT OSS 20B 是一项创新 开放权重语言模型 由 OpenAI 开发,专门针对 高效、本地化和专业化的AI用例它拥有强大的推理和编码能力。该模型在以下方面实现了极佳的平衡: 高性能和低延迟因此,它非常适合…… 边缘设备 以及需要快速迭代或较低计算需求的应用。设计时 代理工作流程 考虑到这一点,它为逻辑推理、函数调用和 Python 代码执行提供了强大的支持,并且功能齐全。 可定制的推理努力 以及结构化输出能力。
🚀 技术规格
- ✔️ 型号尺寸: 总共有 200 亿个参数,推理过程中有 36 亿个活动参数。
- ✔️ 兼容性: 专为在 16GB 内存内高效运行而设计,优先考虑降低延迟和本地部署。
- ✔️ 建筑学: 一个纯文本模型,展示了卓越的指令遵循能力和娴熟的工具使用技巧。
📊 性能基准
- 💡 性能相当: 在众多推理和编码任务中,其性能水平与 OpenAI 的专有 o3-mini 模型相当。
- 💡 高效部署: 非常适合部署在消费级硬件和各种边缘设备上。
- 💡 进阶学习: 擅长处理小样本学习场景、复杂的多步骤推理以及强大的工具集成。
💰 API定价
- 💲 输入标记: 每百万Tokens0.033233美元
- 💲 输出标记: 每百万Tokens0.153248美元
✨ 主要能力
- 🧠 高级推理: 提供可配置的推理难度级别(低、中、高),以在准确性和延迟之间实现最佳平衡。
- 🤖 代理功能: 在复杂的工作流程中,无缝支持函数调用、网页浏览、代码执行和结构化输出。
- 💻 代码生成: 精通多种编程语言的代码编写和编辑。
- ⚡ 轻量级部署: 专为资源受限、硬件要求不高的环境而设计,可高效运行。
🎯 最佳使用场景
- 📱 设备端人工智能: 非常适合需要在边缘设备上直接运行轻量级但功能强大的 AI 模型的应用。
- 🔄 快速实验: 便于在编码和分析任务中快速进行实验和迭代。
- 🛠️ 灵活集成: 非常适合需要灵活推理深度和全面工具集成的应用。
- 🔒 本地/离线部署: 对于优先考虑隐私和本地数据控制的场景来说,这是一个绝佳的选择。
💻 代码示例
// 使用 OpenAI API 客户端调用 GPT OSS 20B 的示例 API import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # 或者您自定义的 GPT OSS 20B 端点 ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "您是一位乐于助人且言简意赅的助手。"}, {"role": "user", "content": "用一句话解释机器学习的概念。"} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"发生错误:{e}") 注意:此扩展的 Python 代码示例演示了 GPT OSS 20B 的典型 API 调用,替换了原有的通用代码片段占位符。请确保您的 API 密钥和 base_url 配置正确。
⚖️ 与其他型号的比较
与 GPT OSS 120B 相比: GPT OSS 20B 它在硬件配置有限(16GB内存)的情况下也能高效运行,凭借强大的推理和编码能力,非常适合本地快速部署。相比之下, GPT OSS 120B凭借其更大的容量(120B 参数),提供更高的精度,并且是为大规模、高计算任务而设计的。
与 OpenAI o3-mini 对比: GPT OSS 20B 其性能与专有的 o3-mini 型号相当。其主要区别在于: 开放体重准入 灵活的配置,为重视透明度和定制性的研究人员和开发人员提供了显著的优势。
与 GLM-4.5 相比: 尽管 GLM-4.5 在特定的实际编码挑战和高级工具集成方面,可能优于 GPT OSS 20B。 GPT OSS 20B 在一般推理任务中保持强大的竞争力,并且更容易在资源有限的硬件上部署。
⚠️ 局限性和注意事项
- ❗ 复杂度限制: 虽然比大型机型更具成本效益,但对于极其复杂的任务,它的性能不如 GPT OSS 120B。
- ❗ 提示设计: 要获得最佳产出,最好的方法是通过明确且精心设计的提示工程。
- ❗ 硬件依赖性: 整体性能和延迟直接受底层硬件能力和输入大小的影响。
- ❗ 生产保障措施: 由于其开放重量的特性,企业应实施额外的保障措施,以确保生产安全、安保和合规性。
❓ 常见问题解答 (FAQ)
GPT OSS 20B 是一款开源权重语言模型,针对高效、本地化和专业化的 AI 应用场景进行了优化,尤其擅长推理和编码任务。它专为需要兼顾高性能和低延迟的场景而设计,尤其适用于边缘设备。
该模型经过优化,可在 16GB 内存内高效运行,因此无需大量计算资源即可部署在消费级硬件和各种边缘设备上。
它为智能体功能提供了强大的支持,包括可配置的思维链推理、可靠的函数调用、网页浏览、Python 代码执行,以及在复杂的自动化工作流程中生成结构化输出的能力。
GPT OSS 20B 虽然功能强大,足以应对许多应用场景,但在处理极其复杂的大规模任务时,其性能却不及 GPT OSS 120B 等体积更大的型号。它最擅长资源受限、效率和本地部署至关重要的环境中。
GPT OSS 20B 的开源特性为开发者和研究人员提供了充分的访问权限和灵活性,便于进行定制和透明化。这有利于那些需要深入了解模型内部结构、灵活配置模型以及将其集成到专有系统中并增强控制的用户。



登录