qwen-bg
max-ico04
128K
出去
max-ico02
聊天
max-ico03
禁用
GPT OSS 120B
GPT OSS 120B 采用混合专首页架构和灵活的推理难度级别,专为需要深入理解、多模态工作流程和经济高效部署的企业和研究人员而构建。
新会员可获赠价值 1 美元的免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'openai/gpt-oss-120b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="openai/gpt-oss-120b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

一个 API 包含 300 多个 AI 模型

节省20%费用并获赠价值1美元的Tokens
  • ico01-1
    API 操练场(Playground)

    在集成之前,请在沙箱环境中测试所有 API 模型。

    我们提供 300 多种模型供您集成到您的应用程序中。

    复制图片02图片01
qwenmax-bg
图片
GPT OSS 120B

产品详情

GPT OSS 120B 是一款尖端产品, 大规模开源语言模型 它专为高容量推理、高级编码和各种通用任务而设计。它巧妙地平衡了对超过 1000 亿参数模型所期望的尖端性能与 卓越的成本效益为研究人员和开发人员提供更便捷的访问途径。GPT OSS 120B 在各种应用领域都表现出色,从文本生成和多步骤逻辑推理到全面的多语言理解。

⚙️技术规格

  • 性能稳健: 在推理基准测试中,准确率可与顶级 GPT 模型相媲美。
  • 编程能力: 在学术界和工业界的编程挑战赛中,与其他大型基金会模型相比,具有很强的竞争力。
  • 多面推理: 强大的多领域推理能力,包括 STEM(科学、技术、工程和数学)、自然语言理解和复杂对话能力。

性能基准

  • 型号尺寸: 1200亿个参数
  • 上下文窗口: 128K Tokens

API定价

  • 输入标记: 0.04431美元 每百万Tokens
  • 输出标记: 0.4431美元 每百万Tokens

💡主要能力

  • 高级推理: 采用链式思维和混合推理模式,高效解决多步骤问题。
  • 多模态输入支持: 原生处理文本和图像输入,以实现丰富的上下文理解(计划中或可用)。
  • 工具集成: 支持使用外部工具(例如,Python 执行、网页浏览、API 调用)来实现自主工作流程。
  • 代码生成: 能够以接近专首页级的性能生成和编辑多种语言的代码。
  • 可扩展上下文: 扩展上下文长度可以有效地处理大型文档、代码库和长时间的对话。

🎯最佳使用场景

  • 大规模文档分析: 非常适合用于综合大量信息。
  • 软件开发: 为复杂的编码和调试提供高级支持。
  • 深度研究: 支持需要深度推理和多步骤工作流程的项目。
  • 多模态人工智能应用: 非常适合处理文本和图像数据的任务。
  • 成本意识型部署: 该机型容量大,性价比高,适用于各种应用。

💻代码示例

🆚与其他型号的比较

与 GPT-4o Mini 对比: GPT OSS 120B 的参数数量显著更多,在高容量推理和代码生成方面表现出色。相比之下,GPT-40 Mini 则专为规模较小、成本效益更高的操作而设计,并内置了对文本和图像的多模态支持。

与 GLM-4.5 相比: 虽然 GLM-4.5 拥有更多的总参数和活动参数,在高级工具集成和代理任务性能方面处于领先地位,但 GPT OSS 120B 仍然具有很强的竞争力,其推理基准测试结果优异,并且在更小的硬件占用空间上效率更高。

🚧局限性和注意事项

  • 成本: 这反映了其先进的功能和规模,因此与较小型号相比,成本更高。
  • 提示设计: 在极具创造性或开放式的任务中,要达到最佳表现,需要明确的提示设计。
  • 延迟和吞吐量: 根据输入规模和模型负载而定;较大的上下文将导致更长的处理时间。

常见问题解答 (FAQ)

什么是 GPT OSS 120B?

GPT OSS 120B 是一款大规模开源语言模型,专为高级推理、编码和通用人工智能任务而设计,兼顾高性能和成本效益。

GPT OSS 120B 的主要功能有哪些?

它的主要功能包括:具有多步骤问题解决能力的高级推理、计划中的多模态输入支持(文本和图像)、外部工具集成、专首页级代码生成以及针对大型文档和对话的可扩展上下文处理。

GPT OSS 120B 与其他型号(例如 GPT-4o Mini)相比如何?

GPT OSS 120B 提供更大的参数数量 (120B),并且在复杂推理和代码生成方面表现出色,而 GPT-40 Mini 体积更小、成本更低,并且具有内置的多模态支持。

GPT OSS 120B 的 API 定价详情是什么?

API 定价为每百万个输入Tokens 0.04431 美元,每百万个输出Tokens 0.4431 美元。

GPT OSS 120B 的主要局限性是什么?

其局限性包括:成本较高(反映其先进的规模)、在高度创造性的任务中需要明确的提示设计,以及基于输入大小和模型负载的延迟/吞吐量变化。

了解如何利用 AICC API 实现公司转型

探索如何利用 AICC API 革新您的业务!解锁强大的工具,实现流程自动化、增强决策能力并打造个性化的客户体验。
联系销售
api-right-1
模型-bg02-1

一个 API
300多个人工智能模型

节省20%的费用