



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'mistralai/mistral-tiny',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="mistralai/mistral-tiny",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
Presentamos Mistral Tiny: su modelo de lenguaje ligero para una IA eficiente
Mistral Tiny, desarrollado por Mistral AI y lanzado oficialmente en Octubre de 2024 (Versión 1.0) es un modelo de lenguaje ligero y de vanguardia, diseñado para una eficiencia excepcional en diversas tareas basadas en texto. Este modelo de tipo de texto está específicamente optimizado para funcionar eficazmente en entornos con recursos limitados, garantizando un alto rendimiento incluso con recursos computacionales limitados.
Información básica:
- ✨ Nombre del modelo: Mistral Tiny
- 👩💻 Desarrollador/creador: Mistral AI
- 🗓️ Fecha de lanzamiento: Octubre de 2024
- 🔄 Versión: 1.0
- 📝 Tipo de modelo: Texto
Capacidades y especificaciones clave
Características principales:
- 📏 Tamaño del modelo: Un compacto 106,6 millones de parámetros.
- 💾 VRAM requerida: Solo 0,4 GB, lo que lo hace increíblemente accesible para dispositivos con recursos limitados.
- 📖 Contexto Longitud: Admite una longitud de contexto máxima extensa de 131.072 tokens, lo que permite un manejo integral del contexto.
- ⚙️ Clase Tokenizadora: Utiliza el LlamaTokenizer con un tamaño de vocabulario de 32.000 tokens.
- 🛠️ Marco de formación: Construido sobre la arquitectura MistralForCausalLM, compatible con Transformers versión 4.39.1.
Aplicaciones previstas:
Mistral Tiny es ideal para aplicaciones que exigen respuestas rápidas y procesamiento de baja latencia, lo que lo hace ideal para:
- Chatbots
- Generación automatizada de contenido
- Herramientas educativas
- Resumen de texto eficiente
- Tareas de finalización de código confiables
Soporte multilingüe:
El modelo ofrece un sólido soporte lingüístico, que incluye: Inglés, francés, alemán, español e italiano, ampliando su aplicabilidad global.
Arquitectura técnica y formación
Descripción general de la arquitectura:
Mistral Tiny emplea un sofisticado Arquitectura del transformador, diseñado para un rendimiento óptimo:
- 🧱 Capas: 12 capas
- 🧠 Atención señores: 12 cabezas de atención por capa
- 📏 Tamaño oculto: 768 dimensiones
- ↔️ Tamaño intermedio: 3072 dimensiones
Esta arquitectura integra técnicas de atención avanzadas como Atención de ventana corrediza (SWA) para gestionar eficientemente secuencias largas y mantener la coherencia contextual.
Datos de formación y límite de conocimiento:
El modelo fue entrenado rigurosamente en un conjunto de datos diverso que comprendía más de 7 billones de tokens de diversos dominios. Este extenso corpus de entrenamiento garantiza una sólida comprensión del lenguaje y un conocimiento contextual. El nivel de conocimiento para Mistral Tiny es... Septiembre de 2023.
Diversidad y mitigación de sesgos:
Mistral AI ha priorizado la creación de un conjunto de datos de entrenamiento diverso para mitigar activamente los sesgos de género, raza e ideología. El diseño del modelo se centra en mejorar su aplicabilidad en una amplia gama de contextos y temas, promoviendo la equidad y la inclusión.
Puntos de referencia de rendimiento:
- 🎯 Exactitud: Logra una tasa de precisión superior 85% en tareas de comprensión del lenguaje.
- 📉 Puntuación de perplejidad: Demuestra un puntaje de perplejidad bajo, lo que indica fuertes capacidades predictivas y alta confianza en la generación de lenguaje natural.
- 🏆 Puntuación F1: Mantiene una puntuación F1 por encima de 0,75 en tareas de clasificación de textos.
Resultados de evaluación comparativa:
- 📈 MMLU (Comprensión del lenguaje multitarea masiva): muestra un alto desempeño en diversas tareas de comprensión del lenguaje.
- 💻 Punto de referencia HumanEval (para codificación): asegura clasificaciones competitivas entre modelos de tamaños similares, lo que demuestra su capacidad de generación y comprensión de código.
Mistral Tiny vs. Otros modelos Mistral
Mistral Tiny se destaca como un modelo de lenguaje compacto y eficiente, diseñado específicamente para ofrecer velocidad y rentabilidad en aplicaciones sencillas. Con Más del 85% de precisión en tareas sencillasOfrece un valor excepcional para casos de uso directo.
- ➡️ Mistral Pequeño: Este modelo es adecuado para tareas masivas con latencia moderada, logrando 72,2% de precisión en puntos de referencia, equilibrando el rendimiento con la utilización de recursos.
- ➡️ Mistral Grande: Se destaca en tareas complejas, ofreciendo capacidades de razonamiento avanzadas y soporte multilingüe integral con 84,0% de precisión, diseñado para escenarios altamente exigentes.
- ➡️ Para aplicaciones excepcionalmente exigentes que requieren una codificación superior y un razonamiento complejo, considere Mixtral 8x7B, que proporciona hasta Inferencia 6 veces más rápida.
(Referenciado de: Instrucción Mixtral 8x7B v0.1)
Cómo usar Mistral Tiny
Ejemplos de código y acceso a API:
Mistral Tiny está disponible en el Plataforma API de IA/ML bajo el identificador "mistralai/mistral-pequeño"Esta integración perfecta permite a los desarrolladores incorporar rápidamente Mistral Tiny en sus proyectos.
Para obtener una guía de implementación detallada, ejemplos de código completos y puntos finales de API, consulte la exhaustiva Documentación de la API de AI.cc.
Información ética y de licencias
Pautas éticas:
Mistral AI se adhiere a estrictas normas éticas, promoviendo el uso y desarrollo responsable de la IA. La organización prioriza la transparencia sobre las capacidades y limitaciones del modelo, animando activamente a los desarrolladores a considerar cuidadosamente las implicaciones éticas de implementar tecnologías de IA en aplicaciones del mundo real.
Licencia:
Mistral Tiny se estrena bajo la licencia permisiva Licencia Apache 2.0Este enfoque de código abierto otorga derechos de uso tanto comerciales como no comerciales, lo que fomenta significativamente la colaboración comunitaria, la innovación y la amplia adopción en diversas industrias.
¿Estás listo para aprovechar el poder de Mistral Tiny?
Acceda a la API Mistral Tiny y comience a crear sus aplicaciones innovadoras y eficientes hoy mismo.
¡Obtén Mistral Tiny API aquí!Preguntas frecuentes (FAQ)
P: ¿Para qué está diseñado principalmente Mistral Tiny?
R: Mistral Tiny es un modelo de lenguaje ligero optimizado para tareas eficientes de generación de texto, resumen y finalización de código. Es especialmente eficaz en entornos con recursos limitados que requieren respuestas rápidas y baja latencia, como chatbots y herramientas educativas.
P: ¿Cuáles son las especificaciones técnicas clave de Mistral Tiny?
R: Cuenta con 106,6 millones de parámetros, requiere solo 0,4 GB de VRAM, admite una extensa longitud de contexto de 131.072 tokens y utiliza LlamaTokenizer con un vocabulario de 32.000 tokens para un procesamiento de lenguaje sólido.
P: ¿Cómo se compara Mistral Tiny con Mistral Small o Mistral Large?
R: Mistral Tiny está diseñado para ofrecer velocidad y rentabilidad en tareas sencillas (más del 85 % de precisión). Mistral Small gestiona tareas masivas con una latencia moderada (72,2 % de precisión), mientras que Mistral Large destaca en tareas complejas, ofreciendo razonamiento avanzado y compatibilidad multilingüe (84,0 % de precisión).
P: ¿Bajo qué licencia se lanza Mistral Tiny?
R: Mistral Tiny se publica bajo la licencia Apache 2.0, que otorga amplios permisos tanto para uso comercial como no comercial, fomentando la colaboración abierta y la innovación.
P: ¿Qué idiomas admite Mistral Tiny?
R: El modelo admite varios idiomas, lo que lo hace versátil para un público global. Entre ellos se incluyen inglés, francés, alemán, español e italiano.
Patio de juegos de IA



Acceso