qwen-bg
max-ico04
128K
出去
max-ico02
聊天
max-ico03
禁用
GPT OSS 20B
GPT OSS 20B 轻巧而强大,支持多步骤工作流程、工具集成,并且在配备 16GB 内存的硬件上高效运行。
新会员可获赠价值 1 美元的免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'openai/gpt-oss-20b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="openai/gpt-oss-20b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

一个 API 包含 300 多个 AI 模型

节省20%费用并获赠价值1美元的Tokens
qwenmax-bg
图片
GPT OSS 20B

产品详情

GPT OSS 20B 是一项创新 开放权重语言模型 由 OpenAI 开发,专门针对 高效、本地化和专业化的AI用例它拥有强大的推理和编码能力。该模型在以下方面实现了极佳的平衡: 高性能和低延迟因此,它非常适合…… 边缘设备 以及需要快速迭代或较低计算需求的应用。设计时 代理工作流程 考虑到这一点,它为逻辑推理、函数调用和 Python 代码执行提供了强大的支持,并且功能齐全。 可定制的推理努力 以及结构化输出能力。

🚀 技术规格

  • ✔️ 型号尺寸: 总共有 200 亿个参数,推理过程中有 36 亿个活动参数。
  • ✔️ 兼容性: 专为在 16GB 内存内高效运行而设计,优先考虑降低延迟和本地部署。
  • ✔️ 建筑学: 一个纯文本模型,展示了卓越的指令遵循能力和娴熟的工具使用技巧。

📊 性能基准

  • 💡 性能相当: 在众多推理和编码任务中,其性能水平与 OpenAI 的专有 o3-mini 模型相当。
  • 💡 高效部署: 非常适合部署在消费级硬件和各种边缘设备上。
  • 💡 进阶学习: 擅长处理小样本学习场景、复杂的多步骤推理以及强大的工具集成。

💰 API定价

  • 💲 输入标记: 每百万Tokens0.033233美元
  • 💲 输出标记: 每百万Tokens0.153248美元

主要能力

  • 🧠 高级推理: 提供可配置的推理难度级别(低、中、高),以在准确性和延迟之间实现最佳平衡。
  • 🤖 代理功能: 在复杂的工作流程中,无缝支持函数调用、网页浏览、代码执行和结构化输出。
  • 💻 代码生成: 精通多种编程语言的代码编写和编辑。
  • 轻量级部署: 专为资源受限、硬件要求不高的环境而设计,可高效运行。

🎯 最佳使用场景

  • 📱 设备端人工智能: 非常适合需要在边缘设备上直接运行轻量级但功能强大的 AI 模型的应用。
  • 🔄 快速实验: 便于在编码和分析任务中快速进行实验和迭代。
  • 🛠️ 灵活集成: 非常适合需要灵活推理深度和全面工具集成的应用。
  • 🔒 本地/离线部署: 对于优先考虑隐私和本地数据控制的场景来说,这是一个绝佳的选择。

💻 代码示例

 // 使用 OpenAI API 客户端调用 GPT OSS 20B 的示例 API import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.openai.com/v1/", # 或者您自定义的 GPT OSS 20B 端点 ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "您是一位乐于助人且言简意赅的助手。"}, {"role": "user", "content": "用一句话解释机器学习的概念。"} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"发生错误:{e}") 

注意:此扩展的 Python 代码示例演示了 GPT OSS 20B 的典型 API 调用,替换了原有的通用代码片段占位符。请确保您的 API 密钥和 base_url 配置正确。

⚖️ 与其他型号的比较

与 GPT OSS 120B 相比: GPT OSS 20B 它在硬件配置有限(16GB内存)的情况下也能高效运行,凭借强大的推理和编码能力,非常适合本地快速部署。相比之下, GPT OSS 120B凭借其更大的容量(120B 参数),提供更高的精度,并且是为大规模、高计算任务而设计的。

与 OpenAI o3-mini 对比: GPT OSS 20B 其性能与专有的 o3-mini 型号相当。其主要区别在于: 开放体重准入 灵活的配置,为重视透明度和定制性的研究人员和开发人员提供了显著的优势。

与 GLM-4.5 相比: 尽管 GLM-4.5 在特定的实际编码挑战和高级工具集成方面,可能优于 GPT OSS 20B。 GPT OSS 20B 在一般推理任务中保持强大的竞争力,并且更容易在资源有限的硬件上部署。

⚠️ 局限性和注意事项

  • 复杂度限制: 虽然比大型机型更具成本效益,但对于极其复杂的任务,它的性能不如 GPT OSS 120B。
  • 提示设计: 要获得最佳产出,最好的方法是通过明确且精心设计的提示工程。
  • 硬件依赖性: 整体性能和延迟直接受底层硬件能力和输入大小的影响。
  • 生产保障措施: 由于其开放重量的特性,企业应实施额外的保障措施,以确保生产安全、安保和合规性。

常见问题解答 (FAQ)

问题1:GPT OSS 20B 的主要设计用途是什么?

GPT OSS 20B 是一款开源权重语言模型,针对高效、本地化和专业化的 AI 应用场景进行了优化,尤其擅长推理和编码任务。它专为需要兼顾高性能和低延迟的场景而设计,尤其适用于边缘设备。

Q2:GPT OSS 20B 的内存需求是什么?

该模型经过优化,可在 16GB 内存内高效运行,因此无需大量计算资源即可部署在消费级硬件和各种边缘设备上。

Q3:GPT OSS 20B 如何支持代理工作流?

它为智能体功能提供了强大的支持,包括可配置的思维链推理、可靠的函数调用、网页浏览、Python 代码执行,以及在复杂的自动化工作流程中生成结构化输出的能力。

Q4:GPT OSS 20B 是否适用于高度复杂、大规模的任务?

GPT OSS 20B 虽然功能强大,足以应对许多应用场景,但在处理极其复杂的大规模任务时,其性能却不及 GPT OSS 120B 等体积更大的型号。它最擅长资源受限、效率和本地部署至关重要的环境中。

Q5:其“开放重量级”的特性带来了哪些独特的优势?

GPT OSS 20B 的开源特性为开发者和研究人员提供了充分的访问权限和灵活性,便于进行定制和透明化。这有利于那些需要深入了解模型内部结构、灵活配置模型以及将其集成到专有系统中并增强控制的用户。

API 操练场(Playground)

集成前,请在沙盒环境中测试所有 API 模型。我们提供 300 多个模型供您集成到应用中。
免费试用
api-right-1
模型-bg02-1

一个 API
300多个人工智能模型

节省20%的费用