qwen-bg
max-ico04
128K
Dans
Dehors
max-ico02
Chat
max-ico03
désactiver
GPT OSS 20B
Léger mais puissant, GPT OSS 20B prend en charge les flux de travail en plusieurs étapes, l'intégration d'outils et fonctionne efficacement sur du matériel doté de 16 Go de mémoire.
Jetons gratuits de 1 $ pour les nouveaux membres
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'openai/gpt-oss-20b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="openai/gpt-oss-20b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Une seule API pour plus de 300 modèles d'IA

Économisez 20 % sur les coûts et recevez des jetons gratuits d'une valeur de 1 $.
qwenmax-bg
image
GPT OSS 20B

Détails du produit

Le GPT OSS 20B est innovant modèle de langage à poids ouvert développé par OpenAI, spécifiquement optimisé pour cas d'utilisation de l'IA efficaces, locaux et spécialisésIl possède de solides capacités de raisonnement et de programmation. Ce modèle atteint un excellent équilibre de hautes performances et faible latence, ce qui le rend exceptionnellement bien adapté à périphériques et les applications qui exigent une itération rapide ou des besoins de calcul réduits. Conçu avec flux de travail agents Dans cet esprit, il offre une prise en charge robuste du raisonnement par chaîne de pensée, des appels de fonctions et de l'exécution de code Python, avec effort de raisonnement personnalisable et des capacités de sortie structurées.

🚀 Spécifications techniques

  • ✔️ Taille du modèle : 20 milliards de paramètres au total, dont 3,6 milliards de paramètres actifs pendant l'inférence.
  • ✔️ Compatibilité: Conçu pour fonctionner efficacement avec 16 Go de mémoire, en privilégiant une faible latence et un déploiement local.
  • ✔️ Architecture: Un modèle entièrement textuel qui démontre une capacité supérieure à suivre les instructions et une utilisation sophistiquée des outils.

📊 Indicateurs de performance

  • 💡 Performances comparables : Atteint des niveaux de performance comparables au modèle propriétaire o3-mini d'OpenAI sur de nombreuses tâches de raisonnement et de codage.
  • 💡 Déploiement efficace : Hautement performant pour le déploiement sur du matériel grand public et divers périphériques.
  • 💡 Apprentissage avancé : Excellente capacité d'apprentissage en peu d'exemples, de raisonnement complexe en plusieurs étapes et d'intégration robuste des outils.

💰 Tarification de l'API

  • 💲 Jetons d'entrée : 0,033233 $ par million de jetons
  • 💲 Jetons de sortie : 0,153248 $ par million de jetons

Capacités clés

  • 🧠 Raisonnement avancé : Offre des niveaux d'effort de raisonnement configurables (faible, moyen, élevé) pour équilibrer de manière optimale la précision et la latence.
  • 🤖 Caractéristiques de l'agent : Prend en charge de manière transparente les appels de fonctions, la navigation Web, l'exécution de code et les sorties structurées au sein de flux de travail sophistiqués.
  • 💻 Génération de code : Très performant pour la production et l'édition de code dans un large éventail de langages de programmation.
  • Déploiement léger : Conçu pour un fonctionnement efficace dans des environnements aux ressources limitées et avec des exigences matérielles modestes.

🎯 Cas d'utilisation optimaux

  • 📱 IA embarquée : Idéal pour les applications exigeant des modèles d'IA légers mais puissants directement sur les périphériques périphériques.
  • 🔄 Expérimentation rapide : Facilite l'expérimentation et l'itération rapides dans les tâches de codage et d'analyse.
  • 🛠️ Intégration flexible : Idéal pour les applications qui tirent parti d'une profondeur de raisonnement adaptable et d'une intégration complète des outils.
  • 🔒 Déploiements locaux/hors ligne : Un excellent choix pour les scénarios privilégiant la confidentialité et le contrôle local des données.

💻 Exemple de code

 // Exemple d'appel API utilisant GPT OSS 20B via le client API d'OpenAI import openai client = openai.OpenAI( api_key="VOTRE_CLÉ_API", base_url="https://api.openai.com/v1/", # Ou votre point de terminaison personnalisé pour GPT OSS 20B ) try: chat_completion = client.chat.completions.create( model="openai/gpt-oss-20b", messages=[ {"role": "system", "content": "Vous êtes un assistant utile et concis."}, {"role": "user", "content": "Expliquez le concept d'apprentissage automatique en une phrase."} ], temperature=0.7, max_tokens=50 ) print(chat_completion.choices[0].message.content) except Exception as e: print(f"Une erreur s'est produite : {e}") 

Remarque : Cet exemple de code Python enrichi illustre un appel API typique pour GPT OSS 20B, remplaçant l’extrait de code générique d’origine. Assurez-vous que votre clé API et votre URL de base sont correctement configurées.

⚖️ Comparaison avec d'autres modèles

vs GPT OSS 120B : GPT OSS 20B Il fonctionne efficacement avec un matériel limité (16 Go de mémoire), ce qui le rend idéal pour un déploiement local et rapide grâce à une logique et un codage robustes. En revanche, GPT OSS 120B, avec sa capacité nettement supérieure (120 milliards de paramètres), offre une précision accrue et est conçue pour les tâches à grande échelle et à forte intensité de calcul.

contre OpenAI o3-mini : GPT OSS 20B Il présente des performances comparables à celles du modèle propriétaire o3-mini. Ses principaux atouts sont : accès en poids libre et une configuration flexible, offrant des avantages considérables aux chercheurs et aux développeurs qui privilégient la transparence et la personnalisation.

par rapport à GLM-4.5 : Alors que GLM-4.5 peut surpasser GPT OSS 20B dans des défis de codage pratiques spécifiques et dans l'intégration d'outils avancés, GPT OSS 20B Elle conserve une forte compétitivité dans les tâches de raisonnement général et offre un déploiement plus facile sur du matériel aux ressources limitées.

⚠️ Limites et considérations

  • Limite de complexité : Bien que plus économique que les modèles plus grands, il est moins puissant que le GPT OSS 120B pour les tâches extrêmement complexes.
  • Conception de prompts : On obtient de meilleurs résultats grâce à une ingénierie des processus explicite et bien conçue.
  • Dépendance matérielle : Les performances globales et la latence sont directement influencées par les capacités matérielles sous-jacentes et la taille du signal d'entrée.
  • Mesures de protection de la production : En raison de sa nature à poids ouvert, les entreprises doivent mettre en œuvre des mesures de protection supplémentaires pour la sécurité, la sûreté et la conformité de la production.

Foire aux questions (FAQ)

Q1 : À quoi est principalement destiné GPT OSS 20B ?

GPT OSS 20B est un modèle de langage à poids ouvert optimisé pour des cas d'utilisation d'IA spécialisés, efficaces et locaux, notamment pour les tâches de raisonnement et de programmation. Il est conçu pour les scénarios exigeant un équilibre entre hautes performances et faible latence, en particulier sur les appareils périphériques.

Q2 : Quelles sont les exigences en matière de mémoire pour GPT OSS 20B ?

Le modèle est optimisé pour fonctionner efficacement avec seulement 16 Go de mémoire, ce qui le rend accessible au déploiement sur du matériel grand public et divers appareils périphériques sans nécessiter d'importantes ressources de calcul.

Q3 : Comment GPT OSS 20B prend-il en charge les flux de travail d’agents ?

Il offre une prise en charge robuste des fonctionnalités d'agent, notamment un raisonnement configurable par chaîne de pensée, un appel de fonction fiable, la navigation Web, l'exécution de code Python et la capacité de générer des sorties structurées au sein de flux de travail automatisés complexes.

Q4 : GPT OSS 20B est-il adapté aux tâches très complexes et à grande échelle ?

Bien que performant pour de nombreuses applications, GPT OSS 20B est moins adapté que des modèles beaucoup plus volumineux comme GPT OSS 120B aux tâches extrêmement complexes et à grande échelle. Il excelle particulièrement dans les environnements aux ressources limitées où l'efficacité et le déploiement local sont essentiels.

Q5 : Quel avantage unique offre sa nature « à poids ouvert » ?

La nature ouverte de GPT OSS 20B offre aux développeurs et aux chercheurs un accès complet et une grande flexibilité pour la personnalisation et la transparence. Ceci est particulièrement avantageux pour ceux qui ont besoin d'une compréhension approfondie du fonctionnement interne du modèle, de configurations flexibles et de la possibilité de l'intégrer à des systèmes propriétaires avec un contrôle accru.

Terrain de jeu de l'IA

Testez tous les modèles d'API dans l'environnement de test avant de les intégrer. Nous proposons plus de 300 modèles à intégrer à votre application.
Essai gratuit
api-droite-1
modèle-bg02-1

Une API
Plus de 300 modèles d'IA

Économisez 20 % sur vos coûts