



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'anthracite-org/magnum-v4-72b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="anthracite-org/magnum-v4-72b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
✨ Presentamos Magnum V4 72B: Inteligencia Artificial (IA) de lenguaje avanzado
Descubrir Magnum V4 72B, un modelo de lenguaje extenso (LLM) de vanguardia creado por la Organización Anthracite. Publicado el 20 de octubre de 2024Este modelo (versión 0.1) está diseñado para ofrecer una generación de texto inigualable, replicando fielmente la prosa sofisticada y la profundidad contextual de modelos avanzados como Claude 3 Sonnet y Opus. Está diseñado para diversas aplicaciones que requieren una producción lingüística rica, coherente y de alta calidad.
Detalles clave
- Nombre del modelo: Magnum V4 72B
- Desarrollador/creador: Organización Antracita
- Fecha de lanzamiento: 20 de octubre de 2024
- Versión: 0.1
- Tipo de modelo: Modelo de lenguaje grande (LLM)
🚀 Rendimiento y características
Magnum V4 72B es un potente LLM, meticulosamente afinado sobre Qwen2.5Su misión principal es proporcionar una prosa de excepcional calidad, imitando la elegancia estilística y la riqueza contextual de la familia Claude 3. Esto la convierte en la opción ideal para aplicaciones que exigen una generación de lenguaje de alta fidelidad y una comprensión detallada.
Funciones avanzadas
- ✓ 72 mil millones de parámetros: Permite capacidades sofisticadas de comprensión y generación de lenguaje.
- ✓ Contexto extenso Longitud: Admite hasta 32.768 tokens, lo que facilita diálogos prolongados y contextualmente ricos y análisis de documentos complejos.
- ✓ Instrucciones adaptadas: Optimizado para un mejor rendimiento en una amplia gama de tareas específicas y formatos de indicaciones.
- ✓ Tokenización avanzada: Cuenta con un vocabulario completo de 152.064 palabras, que captura matices lingüísticos complejos.
- ✓ Soporte multilingüe: Ofrece soporte sólido para inglés, francés, alemán, español, italiano, portugués, ruso, chino y japonés, atendiendo a aplicaciones globales.
Casos de uso ideales
Magnum V4 72B es muy versátil y se adapta perfectamente a un amplio espectro de aplicaciones, que incluyen:
- ✍ Creación, resumen y generación de contenido avanzado
- 💬 Sistemas automatizados inteligentes de atención al cliente y chatbots
- 📚 Experiencias de juego y narración interactivas y dinámicas
- 💬 Cualquier escenario que exija una IA conversacional matizada y de alta calidad
⚙️ Especificaciones técnicas y capacitación
Arquitectura subyacente
Magnum V4 está diseñado según el estándar de la industria Arquitectura del transformador, aprovechando específicamente la Marco Qwen2ForCausalLM Por sus robustas capacidades. Los detalles arquitectónicos clave incluyen:
- Capas: 40
- Dimensión oculta: 14.336
- Número de cabezas: 32
- Función de activación: afeitar
- Tipo de datos: bfloat16 (garantizando un uso eficiente de la memoria y el cálculo)
Metodología de formación
El modelo se entrenó con un conjunto de datos extenso y diverso, cuidadosamente seleccionado para mejorar sus capacidades de diálogo y su comprensión general del lenguaje.
- Fuentes de datos: Una rica compilación de registros de chat y textos instructivos, diseñados para mejorar la efectividad de la conversación.
- Nivel de conocimiento: La base de conocimientos del modelo está actualizada a partir de Septiembre de 2024.
- Diversidad y mitigación de sesgos: Los datos de entrenamiento fueron seleccionados rigurosamente para maximizar la diversidad de temas y estilos de diálogo y, al mismo tiempo, minimizar activamente los sesgos inherentes, asegurando una aplicabilidad justa y amplia.
Aspectos destacados del rendimiento
Magnum V4 demuestra consistentemente un rendimiento competitivo en varios puntos de referencia lingüísticos:
- Exactitud: Logra una alta precisión al generar respuestas contextualmente relevantes y precisas.
- Coherencia: Demuestra una gran capacidad para mantener la coherencia lógica y el flujo narrativo en diálogos extensos y complejos.
💻 Acceso a Magnum V4 72B
El modelo Magnum V4 72B está convenientemente disponible para su integración en el Plataforma API de IA/ML.
Ejemplos de código para la integración
Integre fácilmente el Magnum V4 72B en sus aplicaciones. El modelo figura como "Magnum v4 72B" En la plataforma. A continuación, se muestra un ejemplo conceptual de Python que muestra la interacción con la API:
Solicitudes de importación URL = "https://api.ai.cc/v1/chat/completions" encabezados = { "Autorización": "Portador YOUR_API_KEY", "Tipo-de-contenido": "application/json" } datos = { "modelo": "anthracite-org/magnum-v4-72b", "mensajes": [ {"rol": "sistema", "contenido": "Eres un útil asistente de IA."}, {"rol": "usuario", "contenido": "Explica las características clave de Magnum V4 72B de forma concisa."} ], "máx_tokens": 150 } respuesta = solicitudes.post(url, encabezados=encabezados, json=datos) imprimir(respuesta.json()) Documentación completa de la API
Para obtener guías de integración detalladas, especificaciones técnicas y puntos finales de API, consulte el sitio web oficial. Documentación de la API de Magnum V4 72B.
¿Estás listo para mejorar tus aplicaciones?
➤ Obtenga acceso a la API de Magnum V4 72B aquí🔒 Uso ético de la IA y licencias
Pautas éticas y uso responsable
La Organización Antracita está profundamente comprometida con el desarrollo responsable de IA. Promovemos la transparencia total sobre las capacidades de Magnum V4 y sus limitaciones inherentes. Se recomienda encarecidamente a los usuarios que cumplan con pautas de uso responsable para evitar cualquier posible mal uso o aplicación dañina de la tecnología.
Información de licencia
Magnum V4 72B se distribuye bajo una licencia personalizadaEsta licencia permite explícitamente el uso no comercial. Para cualquier aplicación o implementación comercial, se requiere la autorización expresa de la Organización Anthracite.
❓ Preguntas frecuentes (FAQ)
P: ¿Qué es Magnum V4 72B y quién lo desarrolló?
R: Magnum V4 72B es un sofisticado Modelo de Lenguaje Grande (LLM) desarrollado por la Organización Anthracite. Está optimizado para Qwen 2.5 y busca igualar la calidad de la prosa de los modelos de Claude 3.
P: ¿Qué hace que Magnum V4 72B sea único?
R: Su ajuste único en Qwen2.5 para replicar la calidad de prosa de Claude 3, junto con 72 mil millones de parámetros y una longitud de contexto de 32,768 tokens, permite una generación de texto excepcionalmente coherente y de alta calidad en varios idiomas.
P: ¿Qué idiomas admite Magnum V4 72B?
R: Admite una amplia gama de idiomas, incluidos inglés, francés, alemán, español, italiano, portugués, ruso, chino y japonés.
P: ¿Se puede utilizar Magnum V4 72B para proyectos comerciales?
R: El Magnum V4 72B cuenta con una licencia personalizada que permite su uso no comercial. Las aplicaciones comerciales requieren la autorización expresa de la Organización Antracita.
P: ¿Dónde puedo encontrar la documentación de la API y acceder al modelo?
A: La documentación detallada de la API está disponible en el sitio oficial Página de documentación de la API de IA/MLPuedes obtener acceso a la API aquí.
Patio de juegos de IA



Acceso