



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'ai21/jamba-1-5-mini',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="ai21/jamba-1-5-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
💡 Descubre Jamba 1.5 Mini: el último LLM híbrido de AI21 Labs
De un vistazo: Jamba 1.5 Mini
- Nombre del modelo: Jamba 1.5 Mini
- Revelador: Laboratorios AI21
- Fecha de lanzamiento: Agosto de 2024
- Versión: 1.0
- Tipo de modelo: Modelo de lenguaje grande (LLM) que utiliza una arquitectura híbrida SSM-Transformer
Descripción general
Jamba 1.5 Mini representa un avance significativo en la tecnología de modelos de lenguajes grandes. Desarrollado por Laboratorios AI21 Lanzado en agosto de 2024, este innovador modelo híbrido SSM-Transformer está diseñado para una eficiencia excepcional y un rendimiento robusto. Destaca especialmente en tareas de seguimiento de instrucciones y es muy hábil en el procesamiento longitudes de contexto extensasOfrece resultados de alta calidad en una amplia gama de aplicaciones de procesamiento del lenguaje natural. Su diseño garantiza velocidad y precisión, lo que lo convierte en una herramienta versátil para diversas soluciones digitales.
🚀 Rendimiento acelerado y capacidades avanzadas
Características principales
- ✅ Inferencia ultrarrápida: Lograr hasta Velocidades de inferencia 2,5 veces más rápidas En comparación con otros modelos líderes, crucial para aplicaciones en tiempo real.
- ✅ Manejo superior de contextos largos: Gestiona de forma experta longitudes de contexto de hasta 256.000 tokens, permitiendo una comprensión profunda de documentos complejos y extensos.
- 🌍 Amplio soporte multilingüe: Ofrece capacidades lingüísticas integrales en todos los ámbitos. Inglés, español, francés, portugués, italiano, holandés, alemán, árabe y hebreo, facilitando el despliegue global.
- 💰 Funcionalidad orientada al negocio: Incluye funciones especializadas como llamada de función y la generación de salida JSON estructurada, agilizando la integración en los flujos de trabajo empresariales.
- 🔧 Implementación optimizada de una sola GPU: Utiliza lo innovador Técnica de cuantificación de ExpertsInt8 para una implementación eficiente en una sola GPU de 80 GB, maximizando la utilización de recursos.
Aplicaciones previstas
Jamba 1.5 Mini es ideal para diversas aplicaciones que requieren procesamiento de lenguaje avanzado y eficiencia:
- 💬 Chatbots inteligentes y asistentes virtuales
- 📞 Soluciones automatizadas de atención al cliente
- 📝 Generación y resumen de contenido avanzado
- 🔍 Procesamiento eficiente de información extensa en diversos contextos comerciales
🔧 Especificaciones técnicas y capacitación
Desglose de la arquitectura
El núcleo de Jamba 1.5 Mini es su innovador Arquitectura híbrida SSM-TransformerEste diseño sinergiza las capas Transformer tradicionales con capas Mamba avanzadas y un módulo Mixture-of-Experts (MoE) eficiente, brindando un rendimiento óptimo para el modelado de secuencias y el procesamiento paralelo.
- ⭐ Parámetros activos: 12 mil millones
- ⭐ Parámetros totales: Aproximadamente 52 mil millones
- ⭐ Capacidad de longitud de contexto: Hasta 256K tokens
- ⭐ Atención Jefes: Configurable según necesidades arquitectónicas específicas
Datos de entrenamiento y filosofía
Las capacidades avanzadas de seguimiento de instrucciones y conversación de Jamba 1.5 Mini provienen de su entrenamiento en un conjunto de datos rico y variado.
- 📄 Fuente de datos y alcance: Capacitado en una amplia gama de textos de múltiples dominios para garantizar una sólida comprensión del lenguaje.
- 📅 Fecha límite de conocimientos: 5 de marzo de 2024
- 🏵 Mitigación de sesgos y diversidad: El conjunto de datos fue cuidadosamente seleccionado para minimizar los sesgos y maximizar la diversidad de temas e idiomas, lo que contribuyó a la resiliencia del modelo en diferentes contextos del mundo real.
Rendimiento y puntos de referencia comparativos
Jamba 1.5 Mini demuestra consistentemente fuerte desempeño competitivo Comparación con otros modelos. A continuación se ofrecen comparativas visuales:

Comparación del Jamba 1.5 Mini
Revise el análisis comparativo para ver dónde se ubica Jamba 1.5 Mini entre otros modelos líderes de la industria:


💻 Integra Jamba 1.5 Mini en tu flujo de trabajo
Acceder a la API y a ejemplos de código
Jamba 1.5 Mini está disponible convenientemente en el Plataforma API de IA/MLLos desarrolladores pueden acceder a él bajo el nombre del modelo. Jamba 1.5 Mini.
A continuación se muestra un ejemplo de cómo hacer referencia al modelo en su código:
Para obtener más información y comenzar, visite el sitio oficial Plataforma API de IA/ML: API de IA/ML
Documentación completa de la API
Para obtener instrucciones detalladas, guías de integración y patrones de uso avanzados, consulte el sitio web oficial. Documentación de la API.
Acceda a la documentación completa aquí: Documentación de la API
📚 Marco ético y licencias
Compromiso con la IA ética
AI21 Labs pone un gran énfasis en desarrollo ético de la IASe promueve la transparencia total sobre las capacidades de Jamba 1.5 Mini y sus limitaciones inherentes. Se anima activamente a los usuarios a practicar un uso responsable para mitigar el riesgo de uso indebido o aplicaciones dañinas, garantizando así el impacto positivo del modelo.
Detalles de la licencia
Jamba 1.5 Mini se lanza bajo el Licencia de modelo abierto de JambaEsta licencia ofrece derechos de uso flexibles, permitiendo aplicaciones tanto comerciales como no comerciales, garantizando al mismo tiempo el cumplimiento de los estándares éticos establecidos. Este modelo de licencia abierta busca fomentar la innovación y la accesibilidad.
¿Estás listo para aprovechar el poder de Jamba 1.5 Mini?
¡Obtén acceso a la API Jamba 1.5 Mini aquí!❓ Preguntas frecuentes (FAQ)
1. ¿Qué es Jamba 1.5 Mini?
Jamba 1.5 Mini es un modelo de lenguaje grande (LLM) híbrido SSM-Transformer de última generación desarrollado por AI21 Labs, conocido por su alta eficiencia en tareas de seguimiento de instrucciones y su extenso procesamiento de contexto.
2. ¿Cuáles son las principales ventajas de Jamba 1.5 Mini?
Las ventajas clave incluyen una inferencia hasta 2,5 veces más rápida, compatibilidad con contextos de hasta 256 000 tokens, capacidades multilingües y características centradas en el negocio, como llamada de funciones y salida JSON estructurada.
3. ¿Qué idiomas admite Jamba 1.5 Mini?
Admite numerosos idiomas, incluidos inglés, español, francés, portugués, italiano, holandés, alemán, árabe y hebreo.
4. ¿Cómo pueden los desarrolladores acceder e integrar Jamba 1.5 Mini?
Jamba 1.5 Mini está disponible a través de la plataforma API de IA/ML. Puede encontrar documentación detallada de la API y ejemplos de código en su portal de documentación oficial.
5. ¿Está permitido el uso comercial de Jamba 1.5 Mini?
Sí, Jamba 1.5 Mini se lanza bajo la Licencia de Modelo Abierto Jamba, que permite el uso tanto comercial como no comercial, cumpliendo pautas éticas específicas.
Patio de juegos de IA



Acceso