



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'openai/gpt-oss-20b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="openai/gpt-oss-20b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
Le GPT OSS 20B est innovant modèle de langage à poids ouvert développé par OpenAI, spécifiquement optimisé pour cas d'utilisation de l'IA efficaces, locaux et spécialisésIl possède de solides capacités de raisonnement et de programmation. Ce modèle atteint un excellent équilibre de hautes performances et faible latence, ce qui le rend exceptionnellement bien adapté à périphériques et les applications qui exigent une itération rapide ou des besoins de calcul réduits. Conçu avec flux de travail agents Dans cet esprit, il offre une prise en charge robuste du raisonnement par chaîne de pensée, des appels de fonctions et de l'exécution de code Python, avec effort de raisonnement personnalisable et des capacités de sortie structurées.
🚀 Spécifications techniques
- ✔️ Taille du modèle : 20 milliards de paramètres au total, dont 3,6 milliards de paramètres actifs pendant l'inférence.
- ✔️ Compatibilité: Conçu pour fonctionner efficacement avec 16 Go de mémoire, en privilégiant une faible latence et un déploiement local.
- ✔️ Architecture: Un modèle entièrement textuel qui démontre une capacité supérieure à suivre les instructions et une utilisation sophistiquée des outils.
📊 Indicateurs de performance
- 💡 Performances comparables : Atteint des niveaux de performance comparables au modèle propriétaire o3-mini d'OpenAI sur de nombreuses tâches de raisonnement et de codage.
- 💡 Déploiement efficace : Hautement performant pour le déploiement sur du matériel grand public et divers périphériques.
- 💡 Apprentissage avancé : Excellente capacité d'apprentissage en peu d'exemples, de raisonnement complexe en plusieurs étapes et d'intégration robuste des outils.
💰 Tarification de l'API
- 💲 Jetons d'entrée : 0,033233 $ par million de jetons
- 💲 Jetons de sortie : 0,153248 $ par million de jetons
✨ Capacités clés
- 🧠 Raisonnement avancé : Offre des niveaux d'effort de raisonnement configurables (faible, moyen, élevé) pour équilibrer de manière optimale la précision et la latence.
- 🤖 Caractéristiques de l'agent : Prend en charge de manière transparente les appels de fonctions, la navigation Web, l'exécution de code et les sorties structurées au sein de flux de travail sophistiqués.
- 💻 Génération de code : Très performant pour la production et l'édition de code dans un large éventail de langages de programmation.
- ⚡ Déploiement léger : Conçu pour un fonctionnement efficace dans des environnements aux ressources limitées et avec des exigences matérielles modestes.
🎯 Cas d'utilisation optimaux
- 📱 IA embarquée : Idéal pour les applications exigeant des modèles d'IA légers mais puissants directement sur les périphériques périphériques.
- 🔄 Expérimentation rapide : Facilite l'expérimentation et l'itération rapides dans les tâches de codage et d'analyse.
- 🛠️ Intégration flexible : Idéal pour les applications qui tirent parti d'une profondeur de raisonnement adaptable et d'une intégration complète des outils.
- 🔒 Déploiements locaux/hors ligne : Un excellent choix pour les scénarios privilégiant la confidentialité et le contrôle local des données.
💻 Exemple de code
// Exemple d'appel API utilisant GPT OSS 20B via le client API d'OpenAI import openai client = openai.OpenAI( api_key="VOTRE_CLÉ_API", base_url="https://api.openai.com/v1/", # Ou votre point de terminaison personnalisé pour GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Vous êtes un assistant utile et concis."}, {"role": "user", "content": "Expliquez le concept d'apprentissage automatique en une phrase."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Une erreur s'est produite : {e}") Remarque : Cet exemple de code Python enrichi illustre un appel API typique pour GPT OSS 20B, remplaçant l’extrait de code générique d’origine. Assurez-vous que votre clé API et votre URL de base sont correctement configurées.
⚖️ Comparaison avec d'autres modèles
vs GPT OSS 120B : GPT OSS 20B Il fonctionne efficacement avec un matériel limité (16 Go de mémoire), ce qui le rend idéal pour un déploiement local et rapide grâce à une logique et un codage robustes. En revanche, GPT OSS 120B, avec sa capacité nettement supérieure (120 milliards de paramètres), offre une précision accrue et est conçue pour les tâches à grande échelle et à forte intensité de calcul.
contre OpenAI o3-mini : GPT OSS 20B Il présente des performances comparables à celles du modèle propriétaire o3-mini. Ses principaux atouts sont : accès en poids libre et une configuration flexible, offrant des avantages considérables aux chercheurs et aux développeurs qui privilégient la transparence et la personnalisation.
par rapport à GLM-4.5 : Alors que GLM-4.5 peut surpasser GPT OSS 20B dans des défis de codage pratiques spécifiques et dans l'intégration d'outils avancés, GPT OSS 20B Elle conserve une forte compétitivité dans les tâches de raisonnement général et offre un déploiement plus facile sur du matériel aux ressources limitées.
⚠️ Limites et considérations
- ❗ Limite de complexité : Bien que plus économique que les modèles plus grands, il est moins puissant que le GPT OSS 120B pour les tâches extrêmement complexes.
- ❗ Conception de prompts : On obtient de meilleurs résultats grâce à une ingénierie des processus explicite et bien conçue.
- ❗ Dépendance matérielle : Les performances globales et la latence sont directement influencées par les capacités matérielles sous-jacentes et la taille du signal d'entrée.
- ❗ Mesures de protection de la production : En raison de sa nature à poids ouvert, les entreprises doivent mettre en œuvre des mesures de protection supplémentaires pour la sécurité, la sûreté et la conformité de la production.
❓ Foire aux questions (FAQ)
GPT OSS 20B est un modèle de langage à poids ouvert optimisé pour des cas d'utilisation d'IA spécialisés, efficaces et locaux, notamment pour les tâches de raisonnement et de programmation. Il est conçu pour les scénarios exigeant un équilibre entre hautes performances et faible latence, en particulier sur les appareils périphériques.
Le modèle est optimisé pour fonctionner efficacement avec seulement 16 Go de mémoire, ce qui le rend accessible au déploiement sur du matériel grand public et divers appareils périphériques sans nécessiter d'importantes ressources de calcul.
Il offre une prise en charge robuste des fonctionnalités d'agent, notamment un raisonnement configurable par chaîne de pensée, un appel de fonction fiable, la navigation Web, l'exécution de code Python et la capacité de générer des sorties structurées au sein de flux de travail automatisés complexes.
Bien que performant pour de nombreuses applications, GPT OSS 20B est moins adapté que des modèles beaucoup plus volumineux comme GPT OSS 120B aux tâches extrêmement complexes et à grande échelle. Il excelle particulièrement dans les environnements aux ressources limitées où l'efficacité et le déploiement local sont essentiels.
La nature ouverte de GPT OSS 20B offre aux développeurs et aux chercheurs un accès complet et une grande flexibilité pour la personnalisation et la transparence. Ceci est particulièrement avantageux pour ceux qui ont besoin d'une compréhension approfondie du fonctionnement interne du modèle, de configurations flexibles et de la possibilité de l'intégrer à des systèmes propriétaires avec un contrôle accru.
Terrain de jeu de l'IA



Se connecter