



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-120b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
GPT OSS 120B 是一款尖端产品, 大规模开源语言模型 它专为高容量推理、高级编码和各种通用任务而设计。它巧妙地平衡了对超过 1000 亿参数模型所期望的尖端性能与 卓越的成本效益为研究人员和开发人员提供更便捷的访问途径。GPT OSS 120B 在各种应用领域都表现出色,从文本生成和多步骤逻辑推理到全面的多语言理解。
⚙️技术规格
- 性能稳健: 在推理基准测试中,准确率可与顶级 GPT 模型相媲美。
- 编程能力: 在学术界和工业界的编程挑战赛中,与其他大型基金会模型相比,具有很强的竞争力。
- 多面推理: 强大的多领域推理能力,包括 STEM(科学、技术、工程和数学)、自然语言理解和复杂对话能力。
性能基准
- 型号尺寸: 1200亿个参数
- 上下文窗口: 128K Tokens
API定价
- 输入标记: 0.04431美元 每百万Tokens
- 输出标记: 0.4431美元 每百万Tokens
💡主要能力
- 高级推理: 采用链式思维和混合推理模式,高效解决多步骤问题。
- 多模态输入支持: 原生处理文本和图像输入,以实现丰富的上下文理解(计划中或可用)。
- 工具集成: 支持使用外部工具(例如,Python 执行、网页浏览、API 调用)来实现自主工作流程。
- 代码生成: 能够以接近专首页级的性能生成和编辑多种语言的代码。
- 可扩展上下文: 扩展上下文长度可以有效地处理大型文档、代码库和长时间的对话。
🎯最佳使用场景
- 大规模文档分析: 非常适合用于综合大量信息。
- 软件开发: 为复杂的编码和调试提供高级支持。
- 深度研究: 支持需要深度推理和多步骤工作流程的项目。
- 多模态人工智能应用: 非常适合处理文本和图像数据的任务。
- 成本意识型部署: 该机型容量大,性价比高,适用于各种应用。
💻代码示例
🆚与其他型号的比较
与 GPT-4o Mini 对比: GPT OSS 120B 的参数数量显著更多,在高容量推理和代码生成方面表现出色。相比之下,GPT-40 Mini 则专为规模较小、成本效益更高的操作而设计,并内置了对文本和图像的多模态支持。
与 GLM-4.5 相比: 虽然 GLM-4.5 拥有更多的总参数和活动参数,在高级工具集成和代理任务性能方面处于领先地位,但 GPT OSS 120B 仍然具有很强的竞争力,其推理基准测试结果优异,并且在更小的硬件占用空间上效率更高。
🚧局限性和注意事项
- 成本: 这反映了其先进的功能和规模,因此与较小型号相比,成本更高。
- 提示设计: 在极具创造性或开放式的任务中,要达到最佳表现,需要明确的提示设计。
- 延迟和吞吐量: 根据输入规模和模型负载而定;较大的上下文将导致更长的处理时间。
❓常见问题解答 (FAQ)
什么是 GPT OSS 120B?
GPT OSS 120B 是一款大规模开源语言模型,专为高级推理、编码和通用人工智能任务而设计,兼顾高性能和成本效益。
GPT OSS 120B 的主要功能有哪些?
它的主要功能包括:具有多步骤问题解决能力的高级推理、计划中的多模态输入支持(文本和图像)、外部工具集成、专首页级代码生成以及针对大型文档和对话的可扩展上下文处理。
GPT OSS 120B 与其他型号(例如 GPT-4o Mini)相比如何?
GPT OSS 120B 提供更大的参数数量 (120B),并且在复杂推理和代码生成方面表现出色,而 GPT-40 Mini 体积更小、成本更低,并且具有内置的多模态支持。
GPT OSS 120B 的 API 定价详情是什么?
API 定价为每百万个输入Tokens 0.04431 美元,每百万个输出Tokens 0.4431 美元。
GPT OSS 120B 的主要局限性是什么?
其局限性包括:成本较高(反映其先进的规模)、在高度创造性的任务中需要明确的提示设计,以及基于输入大小和模型负载的延迟/吞吐量变化。



登录