



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'DiscoResearch/DiscoLM-mixtral-8x7b-v2',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="DiscoResearch/DiscoLM-mixtral-8x7b-v2",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
💡 Comprensión de DiscoLM Mixtral 8x7b
DiscoLM Mixtral 8x7b, desarrollado por Investigación discográfica y liderado por Björn Plüster, es un modelo de lenguaje de vanguardia lanzado en 11 de diciembre de 2023. Como un V2 Mediante iteraciones, este modelo de generación de texto emplea una arquitectura de mezcla dispersa de expertos (MoE) altamente eficiente, lo que lo hace ideal para un amplio espectro de tareas avanzadas de procesamiento del lenguaje natural (PLN).
✨ Características principales de un vistazo
- ✓ Arquitectura de mezcla dispersa de expertos (MoE): Aprovecha 8 grupos de expertos, con un total sustancial de 46.700 millones de parámetros, pero optimizando la eficiencia con solo 12.900 millones de parámetros utilizados por token durante la inferencia.
- ✓ Rendimiento alto: Logra sistemáticamente los mejores resultados en diversas tareas de PLN, lo que garantiza resultados superiores.
- ✓ Competencia en varios idiomas: Funciona sin problemas en inglés, francés, español, italiano y alemán.
- ✓ Longitud de contexto extendida: Admite una impresionante ventana de contexto de hasta 32.768 tokens, lo que permite una comprensión y generación más profundas.
💬 Aplicaciones previstas
El DiscoLM Mixtral 8x7b está diseñado para ofrecer versatilidad y destaca en aplicaciones como:
- ● Generación y finalización de texto
- ● Desarrollo de IA conversacional
- ● Creación de contenido eficiente
- ● Traducción de idiomas de alta calidad
- ● Iniciativas de investigación avanzadas en PNL
🔧 Especificaciones técnicas
Desglose de la arquitectura
La principal fortaleza del modelo reside en su arquitectura de mezcla dispersa de expertos (MoE)Este diseño inteligente permite que el modelo active solo un subconjunto específico de sus numerosos parámetros para cada token, logrando un equilibrio óptimo entre eficiencia computacional y máximo rendimiento. Está construido sobre el robusto marco Mixtral, optimizado para el modelado causal del lenguaje.
Datos de formación y diversidad
DiscoLM Mixtral 8x7b se sometió a un ajuste fino en una colección rica y diversa de conjuntos de datos, que incluyen:
- ● Synthia: Un conjunto de datos sintéticos diseñado para tareas generales de procesamiento del lenguaje natural (PLN).
- ● MethaMathQA: Diseñado específicamente para la resolución de problemas matemáticos.
- ● Capibara: Un recurso integral para el desarrollo de IA conversacional.
Aunque el tamaño exacto no se ha revelado, los datos de entrenamiento provienen de una amplia gama de fuentes, lo que refuerza las capacidades de generalización del modelo. El conocimiento del modelo está actualizado a partir de Diciembre de 2023Se realizaron grandes esfuerzos para incorporar conjuntos de datos diversos con el fin de mitigar los sesgos; sin embargo, es posible que aún existan sesgos inherentes comunes a los modelos de lenguaje de gran tamaño.
📈 Rendimiento y puntos de referencia
Indicadores clave de rendimiento
- ● ARC (25 disparos): 67.32
- ● HellaSwag (10 disparos): 86,25
- ● MMLU (5 disparos): 70,72
- ● TruthfulQA (0 disparos): 54.17
- ● Winogrande (5 disparos): 80,72
- ● GSM8k (5 disparos): 25.09
Ventaja competitiva
DiscoLM Mixtral 8x7b consistentemente supera a muchos modelos contemporáneos., incluyendo el LLama 2 70B de Meta, en diversas pruebas comparativas, lo que pone de manifiesto sus capacidades superiores. Su arquitectura MoE también garantiza una velocidad de inferencia eficiente y una gran robustez ante diversos tipos de entrada, temas e idiomas.
📜 Uso y licencias
Ejemplos de código
Directrices éticas
Se recomienda a los usuarios que implementen DiscoLM Mixtral 8x7b de manera responsable, teniendo en cuenta los posibles sesgos y las implicaciones éticas. Este modelo está destinado principalmente a: fines de investigación y bajo ninguna circunstancia debe utilizarse para actividades perjudiciales.
Información sobre licencias
DiscoLM Mixtral 8x7b se lanza bajo el Licencia Apache 2.0, lo que permite tanto la utilización comercial como la no comercial.
ⓘ Preguntas frecuentes (FAQ)
- P: ¿Qué es DiscoLM Mixtral 8x7b?
- A: DiscoLM Mixtral 8x7b es un modelo de lenguaje de generación de texto de última generación desarrollado por DiscoResearch, que utiliza una arquitectura de mezcla dispersa de expertos (MoE) para lograr un alto rendimiento y eficiencia en diversas tareas de PLN.
- P: ¿Qué idiomas admite DiscoLM Mixtral 8x7b?
- R: Domina varios idiomas, entre ellos inglés, francés, español, italiano y alemán.
- P: ¿Cómo beneficia a los usuarios su arquitectura MoE?
- A: La arquitectura de mezcla dispersa de expertos permite que el modelo active solo un subconjunto de sus parámetros totales por token, lo que resulta en una eficiencia computacional optimizada sin comprometer el alto rendimiento.
- P: ¿Cuál es la longitud del contexto de este modelo?
- A: DiscoLM Mixtral 8x7b admite una longitud de contexto extendida de hasta 32.768 tokens.
- P: ¿Bajo qué licencia se publica DiscoLM Mixtral 8x7b?
- R: El modelo se publica bajo la licencia Apache 2.0, que permite tanto su uso comercial como no comercial.
Campo de juegos de IA



Acceso