



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'MiniMax-Text-01',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="MiniMax-Text-01",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
💡MiniMax-Text-01 : Libérer les capacités avancées de l’IA
Découvrir MiniMax-Texte-01, un modèle de langage étendu (LLM) de pointe conçu par MiniMax AI pour révolutionner les tâches exigeant un traitement contextuel étendu et un raisonnement sophistiqué. Lancé le 15 janvier 2025Ce modèle version 1.0 établit de nouvelles normes en matière de performance et d'efficacité dans le domaine de l'IA, avec un total de 456 milliards de paramètres.
Informations de base
- Nom du modèle : MiniMax-Texte-01
- Promoteur: MiniMax IA
- Date de sortie : 15 janvier 2025
- Version: 1.0
- Type de modèle : Modèle de langage étendu (LLM)
Capacités clés
- ✅Longueur du contexte étendu : Traite jusqu'à 1 million de jetons pendant l'entraînement ; gère des contextes d'inférence jusqu'à 4 millions de jetons.
- ✅Architecture hybride : Intègre Lightning Attention, Softmax Attention et Mixture-of-Experts (MoE) pour une gestion du contexte supérieure.
- ✅Utilisation efficace des paramètres : N'active que 45,9 milliards de paramètres par jeton, optimisant ainsi les ressources de calcul.
- ✅Performances de référence optimales : Obtient des résultats compétitifs aux tests de référence académiques, notamment au MMLU et à divers tests de raisonnement.
- ✅Disponibilité en open source : Diffusé sous licence MIT, facilitant une large utilisation à des fins de recherche et commerciales.
💰Tarification de l'API
Débloquez les fonctionnalités avancées de MiniMax-Text-01 grâce à notre structure tarifaire API transparente :
- Jetons d'entrée : 0,21 $ par million de jetons
- Jetons de sortie : 1,155 $ par million de jetons
🎯Idéal pour les applications de raisonnement approfondi et à contexte long
MiniMax-Texte-01 est parfaitement adapté à développeurs de logiciels, chercheurs et scientifiques des données qui exigent un traitement du langage naturel de pointe. Il excelle dans les applications qui requièrent :
- Raisonnement en profondeur : Résolution de problèmes analytiques complexes et de défis logiques subtils.
- Traitement du contexte long : Comprendre et générer du contenu au sein de documents très longs ou d'historiques de conversations.
- Gestion efficace des grands ensembles de données : Traitement et extraction d'informations précieuses à partir d'immenses bases de données.
Bien que son principal soutien soit pour Anglais, MiniMax-Text-01 est conçu pour s'adapter plusieurs langues, s'adaptant aux divers besoins des utilisateurs.
⚙️Analyse technique approfondie : Architecture et formation
Architecture du modèle
MiniMax-Text-01 utilise une architecture sophistiquée pour des performances inégalées :
- Paramètres totaux : 456 milliards
- Paramètres activés par jeton : 45,9 milliards
- Nombre de couches : 80
- Mécanismes d'attention :
- Approche hybride : attention Softmax suivant chaque 7 couches d’attention Lightning.
- Nombre de têtes d'attention : 64
- Dimension de la tête : 128
- Mélange d'experts (ME) : Intègre 32 experts avec une stratégie de routage top-2 pour un traitement dynamique.
- Encodage positionnel : Utilise l'intégration de position rotative (RoPE) avec une fréquence de base de 10 000.
Données de formation complètes
Le modèle a été rigoureusement entraîné sur un ensemble de données diversifié et étendu afin de garantir sa robustesse et sa polyvalence :
- Source et taille des données : Il comprend environ 14,8 billions de jetons provenant de textes accessibles au public et d'un large éventail de dépôts de code.
- Diversité et atténuation des préjugés : Les données d'entraînement ont été soigneusement sélectionnées afin de minimiser les biais et de maximiser la diversité des sujets et des styles, améliorant ainsi la capacité du modèle à générer des résultats variés et objectifs.
Visualisation des indicateurs de performance

🚀Premiers pas avec MiniMax-Text-01
Intégrez facilement MiniMax-Text-01 à vos projets. Il est facilement accessible sur le Plateforme API IA/ML, identifié comme "MiniMax-Text-01".
Accédez à la documentation complète de l'API
Détaillé Documentation de l'API est disponible pour vous guider tout au long de l'intégration et de l'utilisation.
Pour une mise en œuvre rapide, utilisez les éléments fournis exemples de code:
⚖️Détails relatifs à l'utilisation éthique et aux licences
Principes de développement éthique de l'IA
MiniMax AI s'engage fermement à respecter les considérations éthiques dans le développement de l'IA. Nous privilégions transparence concernant les capacités et les limitations inhérentes de MiniMax-Text-01. Les utilisateurs sont fortement encouragés à s'exercer utilisation responsableœuvrant activement à prévenir toute utilisation abusive ou application potentiellement nuisible du contenu généré par le modèle.
Licence MIT open-source
MiniMax-Text-01 est distribué sous une licence permissive licence open-source MITCette licence confère des droits étendus, autorisant à la fois recherche académique et utilisation commerciale, tout en garantissant le respect des normes éthiques et en protégeant les droits des créateurs.
❓Foire aux questions (FAQ)
1. Qu'est-ce que MiniMax-Text-01 et qui l'a développé ?
MiniMax-Text-01 est un modèle de langage étendu (LLM) de pointe développé par MiniMax IAElle se spécialise dans les tâches nécessitant un traitement contextuel approfondi et des capacités de raisonnement avancées.
2. Quelles sont les principales caractéristiques architecturales de MiniMax-Text-01 ?
Elle se vante d'un architecture hybride intégrant Lightning Attention, Softmax Attention et un puissant système Mixture-of-Experts (MoE) avec 32 experts, lui permettant de traiter des contextes d'inférence jusqu'à 4 millions de jetons.
3. Sous quelle licence MiniMax-Text-01 est-il disponible ?
MiniMax-Text-01 est distribué sous une licence licence open-source MIT, en accordant aux utilisateurs des droits étendus pour les applications de recherche et commerciales, tout en respectant les normes éthiques.
4. Où puis-je trouver la documentation de l'API et accéder au modèle ?
Complet Documentation de l'API est disponible en ligne. Vous pouvez accéder à l'API MiniMax-Text-01 sur le Plateforme API IA/ML.
5. Quelles langues MiniMax-Text-01 prend-il en charge ?
Le modèle prend principalement en charge Anglais mais est conçu pour s'adapter plusieurs langues en fonction des exigences et des configurations spécifiques des utilisateurs.
Terrain de jeu de l'IA



Se connecter