



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'allenai/OLMo-7B-Twin-2T',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="allenai/OLMo-7B-Twin-2T",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
✨ OLMO TWIN-2T (7B) Descripción general: Un LLM transparente y de código abierto
El OLMO DOBLE-2T (7B) es un modelo de lenguaje grande (LLM) de código abierto y de vanguardia desarrollado por Instituto Allen de Inteligencia Artificial En colaboración con universidades líderes como la Universidad de Washington, Yale, la Universidad de Nueva York y Carnegie Mellon. Diseñado para una máxima transparencia, este modelo de 7 mil millones de parámetros fortalece a la comunidad investigadora de PLN al ofrecer una perspectiva inigualable sobre sus procesos de entrenamiento, diversidad de datos, opciones de arquitectura y métricas de rendimiento.
Se presenta como una herramienta crucial tanto para aplicaciones académicas como comerciales, en particular para aquellas enfocadas en estudiar y mejorar la sesgo, imparcialidad y solidez de modelos de lenguaje. Su enfoque abierto fomenta la innovación y el desarrollo responsable de la IA.
💡 Información clave
- Nombre del modelo: OLMO DOBLE-2T (7B)
- Revelador: Instituto Allen de Inteligencia Artificial y colaboradores
- Fecha de lanzamiento: Inferido después de 2023
- Versión: 7 mil millones de parámetros
- Tipo de modelo: Modelo de lenguaje grande basado en texto (arquitectura de transformador)
✅ Características distintivas y uso previsto
- Marcos de código abierto: Acceso a herramientas integrales de formación y evaluación.
- Alta transparencia: Visibilidad inigualable de datos de capacitación, procesos y rendimiento.
- Amplio soporte de aplicaciones: Facilita diversas tareas de PNL a través de amplios ajustes y adaptaciones.
- Puntos de control intermedios: Proporciona acceso a registros de entrenamiento cruciales y puntos de control del modelo.
Uso previsto: El OLMO TWIN-2T (7B) es ideal para investigación académica, especialmente en áreas de sesgo, imparcialidad y solidez en los LLM. También es ideal para desarrolladores Requieren capacidades de PNL altamente transparentes y adaptables para sus aplicaciones. Si bien no se detallan las capacidades específicas del lenguaje, su conjunto de datos de entrenamiento sugiere... soporte multilingüe.
⚙️ Análisis técnico profundo
- Arquitectura: Construido sobre una arquitectura de transformador solo con decodificador, incorpora mejoras de modelos como PaLM y LLaMA. Incorpora características innovadoras como normas de capa no paramétricas y Funciones de activación de SwiGLU para mejorar la estabilidad y el rendimiento.
- Datos de entrenamiento: Capacitado en la extensa Conjunto de datos 'Dolma'Este corpus integral comprende billones de tokens de diversas fuentes, como páginas web, redes sociales y artículos académicos, lo que garantiza una amplia cobertura lingüística y mitiga posibles sesgos.
- Nivel de conocimiento: El modelo incorpora conocimientos y estudios hasta el momento 2024.
- Diversidad y sesgo: Las evaluaciones rigurosas de la diversidad de datos son una parte fundamental de su régimen de capacitación, con controles integrados diseñados para fomentar una mayor diversidad de datos. modelo equilibrado y justoLa diversidad inherente del conjunto de datos de Dolma es fundamental para lograr este objetivo.
🚀 Puntos de referencia de rendimiento
- Rendimiento comparativo: Demuestra Resultados competitivos y a menudo superiores contra modelos establecidos como LLaMA y Falcon en varios puntos de referencia de PNL.
- Exactitud: Exposiciones gran precisión en un amplio espectro de tareas de PNL, incluidas impresionantes capacidades de disparo cero.
- Velocidad y robustez: Diseñado para Alto rendimiento y estabilidad excepcional, validado a través de pruebas de velocidad integrales y evaluaciones de robustez bajo diversas condiciones de entrada.
⚖️ Consideraciones éticas y licencias
El equipo de desarrollo detrás de OLMO TWIN-2T (7B) pone un gran énfasis en directrices éticas de IA y un uso responsable. Se adhieren a los estándares publicados y las mejores prácticas, lo que garantiza que la implementación del modelo contribuya positivamente al panorama de la IA.
Licencia: El modelo está disponible gratuitamente bajo la Licencia Apache 2.0, compatible con aplicaciones comerciales y no comerciales. Todos los materiales y herramientas asociados están disponibles en sin costo, promoviendo su adopción generalizada y una mayor investigación.
❓ Preguntas frecuentes (FAQ)
A1: Su naturaleza de código abierto proporciona una transparencia total en su entrenamiento, datos y arquitectura, lo que lo convierte en una herramienta invaluable para que los investigadores de PNL estudien y mejoren los modelos de lenguaje, especialmente en lo que respecta al sesgo y la imparcialidad.
A2: Fue desarrollado por el Instituto Allen de Inteligencia Artificial (AI2) en colaboración con varias universidades importantes, incluidas la Universidad de Washington, Yale, NYU y Carnegie Mellon.
A3: El modelo se entrenó en el conjunto de datos 'Dolma', un corpus completo y diverso que contiene billones de tokens provenientes de páginas web, redes sociales, artículos académicos y más.
A4: Sí, se publica bajo la licencia Apache 2.0, que permite aplicaciones comerciales y no comerciales sin coste.
A5: OLMO TWIN-2T (7B) demuestra un rendimiento competitivo y, a menudo, superior en comparación con modelos como LLaMA y Falcon en varios puntos de referencia de PNL, incluidas una gran precisión y capacidades de disparo cero.
Patio de juegos de IA



Acceso