



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'mistralai/mistral-tiny',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="mistralai/mistral-tiny",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
Presentamos Mistral Tiny: tu modelo de lenguaje ligero para una IA eficiente.
Mistral Tiny, desarrollado por Mistral AI y lanzado oficialmente en Octubre de 2024 (Versión 1.0) es un modelo de lenguaje ligero y de vanguardia, diseñado para ofrecer una eficiencia excepcional en diversas tareas basadas en texto. Este modelo de tipo texto está optimizado específicamente para operar eficazmente en entornos con recursos limitados, lo que garantiza un alto rendimiento incluso con recursos computacionales reducidos.
Información básica:
- ✨ Nombre del modelo: Mistral Tiny
- 👩💻 Desarrollador/Creador: Mistral AI
- 🗓️ Fecha de lanzamiento: Octubre de 2024
- 🔄 Versión: 1.0
- 📝 Tipo de modelo: Texto
Capacidades y especificaciones clave
Características principales:
- 📏 Tamaño del modelo: Un compacto 106,6 millones de parámetros.
- 💾 Memoria VRAM requerida: Solo 0,4 GB, lo que lo hace increíblemente accesible para dispositivos con recursos limitados.
- 📖 Longitud del contexto: Admite una longitud de contexto máxima extensa de 131.072 tokens, lo que permite un manejo integral del contexto.
- ⚙️ Clase de tokenizador: Utiliza LlamaTokenizer con un tamaño de vocabulario de 32.000 tokens.
- 🛠️ Marco de formación: Construido sobre la arquitectura MistralForCausalLM, compatible con la versión 4.39.1 de Transformers.
Aplicaciones previstas:
Mistral Tiny es perfectamente adecuado para aplicaciones que exigen respuestas rápidas y procesamiento de baja latencia, lo que lo hace ideal para:
- Chatbots
- Generación automatizada de contenido
- Herramientas educativas
- Resumen de texto eficiente
- Tareas de autocompletado de código confiables
Soporte multilingüe:
El modelo ofrece un sólido soporte de idiomas, incluyendo: Inglés, francés, alemán, español e italianoampliando así su aplicabilidad global.
Arquitectura técnica y formación
Descripción general de la arquitectura:
Mistral Tiny emplea un sistema sofisticado Arquitectura de transformadoresDiseñado para un rendimiento óptimo:
- 🧱 Capas: 12 capas
- 🧠 Atención, jefes: 12 cabezas de atención por capa
- 📏 Tamaño oculto: 768 dimensiones
- ↔️ Tamaño intermedio: Dimensiones 3072
Esta arquitectura integra técnicas de atención avanzadas como Atención mediante ventana deslizante (SWA) para gestionar de forma eficiente secuencias largas y mantener la coherencia contextual.
Punto de corte de datos y conocimientos de capacitación:
El modelo fue entrenado rigurosamente en un conjunto de datos diverso que comprende más de 7 billones de tokens de diversos dominios. Este extenso corpus de entrenamiento garantiza una sólida comprensión del lenguaje y conciencia contextual. El umbral de conocimiento para Mistral Tiny es Septiembre de 2023.
Diversidad y mitigación de prejuicios:
Mistral AI ha priorizado la creación de un conjunto de datos de entrenamiento diverso para mitigar activamente los sesgos relacionados con el género, la raza y la ideología. El diseño del modelo se centra en mejorar su aplicabilidad en un amplio espectro de contextos y temas, promoviendo la equidad y la inclusión.
Parámetros de rendimiento:
- 🎯 Exactitud: Alcanza una tasa de precisión superior a 85% en tareas de comprensión del lenguaje.
- 📉 Puntuación de perplejidad: Presenta un bajo índice de perplejidad, lo que indica una gran capacidad predictiva y una alta confianza en la generación de lenguaje natural.
- 🏆 Puntuación de F1: Mantiene una puntuación F1 superior 0,75 en tareas de clasificación de texto.
Resultados de la evaluación comparativa:
- 📈 MMLU (Comprensión lingüística multitarea masiva): Demuestra un alto rendimiento en diversas tareas de comprensión lingüística.
- 💻 Referencia HumanEval (para codificación): Asegura clasificaciones competitivas entre modelos de tamaños similares, demostrando su capacidad en la generación y comprensión de código.
Mistral Tiny frente a otros modelos de Mistral
Mistral Tiny destaca como un modelo de lenguaje compacto y eficiente, diseñado específicamente para la velocidad y la rentabilidad en aplicaciones sencillas. Con Más del 85 % de precisión en tareas sencillas.Ofrece un valor excepcional para casos de uso directo.
- ➡️ Mistral Pequeño: Este modelo es adecuado para tareas masivas con latencia moderada, logrando 72,2% de precisión en puntos de referencia, equilibrando el rendimiento con la utilización de recursos.
- ➡️ Mistral Grande: Destaca en tareas complejas, ofreciendo capacidades de razonamiento avanzadas y soporte multilingüe integral con 84,0% de precisiónDiseñado para escenarios muy exigentes.
- ➡️ Para aplicaciones excepcionalmente exigentes que requieren una codificación superior y un razonamiento complejo, considere Mixtral 8x7B, que proporciona hasta Inferencia 6 veces más rápida.
(Referenciado desde: Instrucciones Mixtral 8x7B v0.1)
Cómo usar Mistral Tiny
Ejemplos de código y acceso a la API:
Mistral Tiny está fácilmente disponible en el Plataforma API de IA/ML bajo el identificador "mistralai/mistral-pequeño"Esta perfecta integración permite a los desarrolladores incorporar rápidamente Mistral Tiny a sus proyectos.
Para obtener instrucciones detalladas sobre la implementación, ejemplos de código completos y puntos finales de API, consulte la documentación exhaustiva. Documentación de la API de AI.cc.
Información ética y sobre licencias
Directrices éticas:
Mistral AI se rige por estrictas directrices éticas, promoviendo el uso y desarrollo responsable de la IA. La organización prioriza la transparencia respecto a las capacidades y limitaciones del modelo, e insta activamente a los desarrolladores a considerar detenidamente las implicaciones éticas de la implementación de tecnologías de IA en aplicaciones del mundo real.
Licencias:
Mistral Tiny se publica bajo el permiso Licencia Apache 2.0Este enfoque de código abierto otorga derechos de uso tanto comerciales como no comerciales, lo que fomenta significativamente la colaboración comunitaria, la innovación y la adopción generalizada en diversas industrias.
¿Listo para aprovechar el poder de Mistral Tiny?
Acceda a la API de Mistral Tiny y comience a crear hoy mismo sus aplicaciones innovadoras y eficientes.
¡Consigue la API de Mistral Tiny aquí!Preguntas frecuentes (FAQ)
P: ¿Para qué se diseñó principalmente Mistral Tiny?
A: Mistral Tiny es un modelo de lenguaje ligero optimizado para la generación eficiente de texto, la creación de resúmenes y la autocompletación de código. Es especialmente eficaz en entornos con recursos limitados que requieren respuestas rápidas y baja latencia, como los chatbots y las herramientas educativas.
P: ¿Cuáles son las especificaciones técnicas clave de Mistral Tiny?
A: Cuenta con 106,6 millones de parámetros, requiere solo 0,4 GB de VRAM, admite una longitud de contexto extensa de 131.072 tokens y utiliza LlamaTokenizer con un vocabulario de 32.000 tokens para un procesamiento de lenguaje robusto.
P: ¿Cómo se compara Mistral Tiny con Mistral Small o Mistral Large?
A: Mistral Tiny está diseñado para ofrecer velocidad y rentabilidad en tareas sencillas (más del 85 % de precisión). Mistral Small gestiona tareas de gran volumen con una latencia moderada (72,2 % de precisión), mientras que Mistral Large destaca en tareas complejas, ofreciendo razonamiento avanzado y soporte multilingüe (84,0 % de precisión).
P: ¿Bajo qué licencia se ha publicado Mistral Tiny?
A: Mistral Tiny se publica bajo la licencia Apache 2.0, que otorga amplios permisos tanto para uso comercial como no comercial, fomentando la colaboración abierta y la innovación.
P: ¿Qué idiomas admite Mistral Tiny?
A: El modelo admite varios idiomas, lo que lo hace versátil para una audiencia global. Estos incluyen inglés, francés, alemán, español e italiano.
Campo de juegos de IA



Acceso