



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-120b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-120b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
GPT OSS 120B est à la pointe de la technologie, modèle de langage open-source à grande échelle Conçu pour le raisonnement à haute capacité, le codage avancé et un large éventail de tâches générales, il offre un équilibre optimal entre les performances de pointe attendues des modèles à plus de 100 milliards de paramètres et les capacités des systèmes de calcul haute performance. remarquable rentabilitéGPT OSS 120B démocratise l'accès aux chercheurs et aux développeurs et excelle dans diverses applications, allant de la génération de texte et du raisonnement logique multi-étapes à la compréhension multilingue complète.
⚙️Spécifications techniques
- Performances robustes : Atteint une précision comparable à celle des meilleurs modèles GPT dans les tests de raisonnement.
- Compétences en programmation : Très compétitif dans les concours de programmation académiques et industriels face à d'autres modèles de fondations de grande envergure.
- Raisonnement polyvalent : Solides compétences en raisonnement multidomaine, notamment en sciences, technologies, ingénierie et mathématiques (STEM), en compréhension du langage naturel et en dialogue complexe.
Indicateurs de performance
- Taille du modèle : 120 milliards de paramètres
- Fenêtre contextuelle : 128 000 jetons
Tarification de l'API
- Jetons d'entrée : 0,04431 $ par million de jetons
- Jetons de sortie : 0,4431 $ par million de jetons
💡Capacités clés
- Raisonnement avancé : Utilise des modes de raisonnement en chaîne et d'inférence hybride pour une résolution de problèmes efficace et en plusieurs étapes.
- Prise en charge des entrées multimodales : Traite nativement les entrées de texte et d'image pour une compréhension contextuelle riche (planifiée ou disponible).
- Intégration des outils : Prend en charge l'utilisation d'outils externes (par exemple, l'exécution de Python, la navigation Web, les appels d'API) pour les flux de travail autonomes.
- Génération de code : Génère et modifie du code dans plusieurs langages avec des performances quasi expertes.
- Contexte évolutif : La longueur de contexte étendue permet de gérer efficacement les documents volumineux, les bases de code et les longues conversations.
🎯Cas d'utilisation optimaux
- Analyse de documents à grande échelle : Idéal pour synthétiser de vastes quantités d'informations.
- Développement logiciel : Assistance avancée pour le codage et le débogage complexes.
- Recherche approfondie : Prend en charge les projets nécessitant un raisonnement approfondi et des flux de travail en plusieurs étapes.
- Applications d'IA multimodales : Idéal pour les tâches impliquant des données textuelles et visuelles.
- Déploiements tenant compte des coûts : Capacité de modélisation élevée et rapport coût-efficacité avantageux pour diverses applications.
💻Exemple de code
🆚Comparaison avec d'autres modèles
par rapport à GPT-4o Mini : GPT-OSS 120B dispose d'un nombre de paramètres nettement supérieur, ce qui lui permet d'exceller dans le raisonnement à haute capacité et la génération de code. À l'inverse, GPT-4o Mini est conçu pour des opérations plus modestes et plus économiques, avec une prise en charge multimodale intégrée pour le texte et les images.
par rapport à GLM-4.5 : Alors que GLM-4.5 se targue d'un plus grand nombre total de paramètres et de paramètres actifs, et qu'il est à la pointe de l'intégration d'outils avancés et des performances des tâches d'agents, GPT OSS 120B reste très compétitif grâce à de solides performances de raisonnement et une plus grande efficacité sur des empreintes matérielles plus petites.
🚧Limites et considérations
- Coût: Cela reflète ses capacités avancées et son envergure, ce qui entraîne des coûts plus élevés par rapport aux modèles plus petits.
- Conception de prompts : Pour obtenir des performances optimales dans des tâches hautement créatives ou ouvertes, une ingénierie explicite et rapide est nécessaire.
- Latence et débit : Cela dépend de la taille des données d'entrée et de la charge du modèle ; les contextes plus volumineux entraîneront des temps de traitement plus longs.
❓Foire aux questions (FAQ)
Qu'est-ce que GPT OSS 120B ?
GPT OSS 120B est un modèle de langage open-source à grande échelle conçu pour le raisonnement avancé, le codage et les tâches d'IA à usage général, alliant hautes performances et rentabilité.
Quelles sont les principales fonctionnalités de GPT OSS 120B ?
Ses principales fonctionnalités incluent un raisonnement avancé avec résolution de problèmes en plusieurs étapes, une prise en charge planifiée des entrées multimodales (texte et image), l'intégration d'outils externes, la génération de code de niveau expert et une gestion évolutive du contexte pour les documents et les conversations volumineux.
Comment le GPT OSS 120B se compare-t-il à d'autres modèles comme le GPT-4o Mini ?
GPT OSS 120B offre un nombre de paramètres nettement supérieur (120B) et excelle dans le raisonnement complexe et la génération de code, tandis que GPT-4o Mini est plus petit, plus rentable et dispose d'une prise en charge multimodale intégrée.
Quels sont les détails de tarification de l'API pour GPT OSS 120B ?
Le prix de l'API est fixé à 0,04431 $ par million de jetons d'entrée et à 0,4431 $ par million de jetons de sortie.
Quelles sont les principales limitations de GPT OSS 120B ?
Les limitations comprennent des coûts plus élevés reflétant son échelle avancée, la nécessité d'une conception explicite des invites dans les tâches hautement créatives et des variations de latence/débit en fonction de la taille des entrées et de la charge du modèle.
Terrain de jeu de l'IA



Se connecter