



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'ai21/jamba-1-5-mini',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="ai21/jamba-1-5-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
💡 Découvrez Jamba 1.5 Mini : le tout dernier LLM hybride d’AI21 Labs
Aperçu : Jamba 1.5 Mini
- Nom du modèle : Jamba 1.5 Mini
- Promoteur: Laboratoires AI21
- Date de sortie : Août 2024
- Version: 1.0
- Type de modèle : Modèle de langage étendu (LLM) utilisant une architecture hybride SSM-Transformer
Aperçu
Jamba 1.5 Mini représente une avancée significative dans le domaine des modèles de langage de grande taille. Développé par Laboratoires AI21 Lancé en août 2024, ce modèle hybride SSM-Transformer de pointe est conçu pour une efficacité exceptionnelle et des performances robustes. Il excelle particulièrement dans tâches de suivi d'instructions et est très douée pour le traitement longueurs de contexte étenduesCe logiciel offre des résultats de haute qualité pour un large éventail d'applications de traitement automatique du langage naturel. Sa conception garantit à la fois rapidité et précision, ce qui en fait un outil polyvalent pour diverses solutions numériques.
🚀 Performances accélérées et fonctionnalités avancées
Caractéristiques principales
- ✅ Inférence ultra-rapide : Atteignez jusqu'à Vitesses d'inférence 2,5 fois plus rapides par rapport aux autres modèles leaders, un point crucial pour les applications en temps réel.
- ✅ Gestion supérieure des contextes longs : Gère avec expertise des longueurs de contexte allant jusqu'à 256 000 jetons, permettant une compréhension approfondie de documents complexes et longs.
- 🌍 Assistance multilingue étendue : Offre des capacités linguistiques complètes dans tous les domaines Anglais, espagnol, français, portugais, italien, néerlandais, allemand, arabe et hébreu, facilitant le déploiement mondial.
- 💰 Fonctionnalités orientées business : Comprend des fonctionnalités spécialisées comme appel de fonction et la génération de sortie JSON structurée, rationalisant l'intégration dans les flux de travail de l'entreprise.
- 🔧 Déploiement optimisé sur un seul GPU : Utilise l'innovation Technique de quantification ExpertsInt8 pour un déploiement efficace sur un seul GPU de 80 Go, maximisant l'utilisation des ressources.
Applications prévues
Jamba 1.5 Mini est idéal pour diverses applications nécessitant un traitement du langage avancé et une grande efficacité :
- 💬 Chatbots intelligents et assistants virtuels
- 📞 Solutions automatisées de service client
- 📝 Génération et résumé de contenu avancés
- 🔍 Traitement efficace de volumes importants d'informations dans divers contextes commerciaux
🔧 Spécifications techniques et formation
Décomposition architecturale
Le cœur du Jamba 1.5 Mini réside dans son innovation Architecture hybride SSM-TransformateurCette conception combine les couches Transformer traditionnelles avec des couches Mamba avancées et un module Mixture-of-Experts (MoE) efficace, offrant des performances optimales pour la modélisation de séquences et le traitement parallèle.
- ⭐ Paramètres actifs : 12 milliards
- ⭐ Paramètres totaux : Environ 52 milliards
- ⭐ Capacité de gestion de la longueur du contexte : Jusqu'à 256 000 jetons
- ⭐ Attention, têtes de mule : Configurable en fonction des besoins architecturaux spécifiques
Données et philosophie d'entraînement
Les capacités avancées de Jamba 1.5 Mini à suivre des instructions et à converser découlent de son entraînement sur un ensemble de données riche et varié.
- 📄 Source et étendue des données : Formée sur un large éventail de textes issus de multiples domaines afin de garantir une solide compréhension linguistique.
- 📅 Date limite de connaissances : 5 mars 2024
- 🏵 Atténuation des préjugés et diversité : L'ensemble de données a été soigneusement sélectionné afin de minimiser les biais et de maximiser la diversité des sujets et des langues, contribuant ainsi à la résilience du modèle dans différents contextes réels.
Performances et indicateurs comparatifs
Jamba 1.5 Mini démontre constamment forte performance compétitive par rapport à d'autres modèles. Des comparaisons visuelles sont fournies ci-dessous :

Comparaison du Jamba 1.5 Mini
Consultez l'analyse comparative pour voir où se situe le Jamba 1.5 Mini par rapport aux autres modèles leaders du secteur :


💻 Intégrez Jamba 1.5 Mini à votre flux de travail
Accès à l'API et aux exemples de code
Le Jamba 1.5 Mini est disponible sur le Plateforme API IA/MLLes développeurs peuvent y accéder sous le nom du modèle "Jamba 1.5 Mini".
Voici un exemple de la manière de référencer le modèle dans votre code :
Pour plus d'informations et pour commencer, rendez-vous sur le site officiel. Plateforme API IA/ML : API IA/ML
Documentation API complète
Pour des instructions détaillées, des guides d'intégration et des exemples d'utilisation avancés, consultez le site officiel. Documentation de l'API.
Accédez à la documentation complète ici : Documentation de l'API
📚 Cadre éthique et licences
Engagement en faveur d'une IA éthique
AI21 Labs accorde une grande importance à développement éthique de l'IAIls prônent une transparence totale concernant les capacités et les limitations inhérentes du Jamba 1.5 Mini. Les utilisateurs sont activement incités à adopter une utilisation responsable afin de limiter les risques de mauvaise utilisation ou d'applications malveillantes, et ainsi préserver l'impact positif du modèle.
Détails de la licence
Jamba 1.5 Mini est commercialisé sous la marque Licence de modèle ouvert JambaCette licence offre des droits d'utilisation flexibles, autorisant les applications commerciales et non commerciales, tout en garantissant le respect des normes éthiques établies. Ce modèle de licence ouverte vise à favoriser l'innovation et l'accessibilité à grande échelle.
Prêt à exploiter la puissance de Jamba 1.5 Mini ?
Obtenez ici un accès à l'API Jamba 1.5 Mini !❓ Foire aux questions (FAQ)
1. Qu'est-ce que Jamba 1.5 Mini ?
Jamba 1.5 Mini est un modèle de langage hybride SSM-Transformer de grande taille (LLM) développé par AI21 Labs, connu pour sa grande efficacité dans les tâches de suivi d'instructions et le traitement contextuel étendu.
2. Quels sont les principaux avantages du Jamba 1.5 Mini ?
Parmi ses principaux avantages, citons une inférence jusqu'à 2,5 fois plus rapide, la prise en charge de contextes allant jusqu'à 256 000 jetons, des capacités multilingues et des fonctionnalités axées sur les besoins de l'entreprise telles que l'appel de fonctions et la sortie JSON structurée.
3. Quelles langues Jamba 1.5 Mini prend-il en charge ?
Il prend en charge de nombreuses langues, dont l'anglais, l'espagnol, le français, le portugais, l'italien, le néerlandais, l'allemand, l'arabe et l'hébreu.
4. Comment les développeurs peuvent-ils accéder à Jamba 1.5 Mini et l'intégrer ?
Jamba 1.5 Mini est disponible via la plateforme API IA/ML. Vous trouverez une documentation API détaillée et des exemples de code sur leur portail de documentation officiel.
5. L'utilisation commerciale du Jamba 1.5 Mini est-elle autorisée ?
Oui, Jamba 1.5 Mini est distribué sous la licence Jamba Open Model License, qui autorise une utilisation commerciale et non commerciale, dans le respect de directives éthiques spécifiques.
Terrain de jeu de l'IA



Se connecter