



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dolly-v2-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dolly-v2-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
🌟 Dolly v2 (7B): Un LLM de seguimiento de instrucciones de código abierto
Dolly v2 (7B) es una innovadora modelo de lenguaje amplio de seguimiento de instrucciones desarrollado por Bloques de datosLanzado el 12 de abril de 2023, este modelo se basa en la arquitectura Pythia-6.9b y se ha perfeccionado con un conjunto de datos considerable de aproximadamente 15 000 pares de instrucciones/respuestas. Cabe destacar que Dolly v2 (7B) es con licencia para uso comercial, lo que lo convierte en una herramienta potente y accesible para una amplia gama de tareas de procesamiento del lenguaje natural.
💡 Información clave
- Nombre del modelo: Muñeca v2 (7B)
- Desarrollador/creador: Bloques de datos
- Fecha de lanzamiento: 12 de abril de 2023
- Versión: 2.0
- Tipo de modelo: Modelo de lenguaje amplio de seguimiento de instrucciones
✅ Capacidades y características principales
Este modelo destaca por varias razones:
- • Seguimiento de instrucciones: Se destaca por comprender y ejecutar instrucciones explícitas.
- • Código abierto: Promueve la transparencia y el desarrollo impulsado por la comunidad.
- • Con licencia comercial: Permitido para su uso en aplicaciones comerciales bajo la licencia Apache 2.0.
- • Formación de alta calidad: Ajustado a un conjunto de datos seleccionados para lograr una adherencia superior a las instrucciones.
- • Tamaño compacto: Con aproximadamente 6,9 mil millones de parámetros, ofrece un buen equilibrio entre rendimiento y eficiencia de recursos.
🛠️ Aplicaciones previstas
Dolly v2 (7B) es versátil y se puede aplicar a una variedad de tareas de procesamiento del lenguaje natural, que incluyen:
- ▪️ Lluvia de ideas y generación de ideas
- ▪️ Clasificación de textos
- ▪️ Responder preguntas cerradas y abiertas
- ▪️ Generación de textos creativos y factuales
- ▪️ Extracción de información de documentos
- ▪️ Resumen de textos extensos
Soporte de idiomas: El modelo admite principalmente tareas en idioma inglés.
⚙️ Especificaciones técnicas
Arquitectura
Dolly v2 (7B) está construido sobre la robusta Arquitectura de Pythia-6.9b, un modelo basado en transformador muy valorado, conocido por su escalabilidad y rendimiento.
Datos de entrenamiento
Fuente de datos y tamaño: El modelo se ha perfeccionado utilizando el programa propietario conjunto de datos databricks-dolly-15kEste conjunto de datos de alta calidad comprende aproximadamente 15.000 pares de instrucciones/respuestas, generados meticulosamente por los empleados de Databricks.
Nivel de conocimiento: El conocimiento fundamental de Dolly v2 (7B) se deriva de la fase de preentrenamiento de Pythia-6.9b, mejorada significativamente por las capacidades de seguimiento de instrucciones desarrolladas durante el proceso de ajuste.
Métricas de rendimiento
Si bien Dolly v2 (7B) no está diseñado para lograr puntajes de referencia de última generación contra modelos más grandes y complejos, demuestra constantemente comportamiento de seguimiento de instrucciones sorprendentemente de alta calidadA continuación se muestran algunos resultados de referencia:
| Punto de referencia | Puntaje |
|---|---|
| ARC (25 disparos) | 0.392 |
| HellaSwag (10 disparos) | 0.633838 |
| MMLU (5 disparos) | 0.406997 |
| Control de calidad veraz (0 disparos) | 0.444444 |
Comparación con otros modelos
Si bien Dolly v2 (7B) puede no superar a modelos significativamente más grandes como GPT-3 (parámetros 175B) en puntajes de referencia brutos, ofrece una equilibrio entre un rendimiento sólido y requisitos de recursos manejables, lo que lo hace muy práctico para muchas aplicaciones.
🚀 Instrucciones de uso
Ejemplo de código
⚖️ Consideraciones éticas
El desarrollo de Dolly v2 (7B) incorporó sólidas consideraciones éticas. Los datos de entrenamiento utilizados no contienen obscenidades, propiedad intelectual protegida ni información de identificación personal perteneciente a figuras no públicas. Sin embargo, es importante reconocer que el modelo puede reflejar sesgos presente en los datos generados por los empleados de Databricks. Se recomienda a los usuarios ser precavidos y estar atentos a posibles sesgos en los resultados del modelo.
Información sobre licencias
Dolly v2 (7B) se lanza bajo la Licencia Apache 2.0Esta licencia permisiva otorga a los usuarios flexibilidad tanto para la investigación como para aplicaciones comerciales, lo que fomenta una amplia adopción e innovación. Para más detalles sobre los orígenes de Dolly v2, puede consultar... Anuncio de Databricks Dolly v2.
⚠️ Limitaciones de Dolly v2 (7B)
Si bien es potente, Dolly v2 (7B) tiene ciertas limitaciones que debemos tener en cuenta:
- • No es de vanguardia: No está diseñado para competir con el rendimiento de arquitecturas de modelos más modernos o significativamente más grandes.
- • Indicaciones complejas: Puede tener dificultades con indicaciones que sean sintácticamente muy complejas.
- • Tareas especializadas: Tiene capacidades limitadas en problemas de programación y operaciones matemáticas avanzadas.
- • Exactitud factual: Puede producir errores fácticos o exhibir alucinaciones, requiriendo supervisión humana.
- • Sesgos de datos: Refleja posibles sesgos inherentes a los datos de capacitación generados por los empleados de Databricks.
❓ Preguntas frecuentes (FAQ)
P1: ¿Qué es Dolly v2 (7B)?
A1: Dolly v2 (7B) es un modelo de lenguaje grande que sigue instrucciones desarrollado por Databricks, basado en el modelo Pythia-6.9b y ajustado en 15.000 pares instrucción/respuesta.
P2: ¿Se puede utilizar Dolly v2 (7B) para proyectos comerciales?
A2: Sí, Dolly v2 (7B) se publica bajo la licencia Apache 2.0, que permite tanto la investigación como el uso comercial.
P3: ¿Cuáles son las principales aplicaciones de Dolly v2 (7B)?
A3: Está diseñado para diversas tareas de PNL, incluyendo lluvia de ideas, clasificación, respuesta a preguntas (cerradas y abiertas), generación de texto, extracción de información y resumen.
P4: ¿Cómo se compara Dolly v2 (7B) con modelos más grandes como GPT-3?
A4: Si bien puede que no supere a modelos como GPT-3 en puntos de referencia brutos, Dolly v2 (7B) ofrece un sólido equilibrio de rendimiento y requisitos de recursos significativamente menores, lo que lo convierte en una opción práctica para muchas aplicaciones.
P5: ¿Existen preocupaciones éticas con Dolly v2 (7B)?
A5: El modelo se desarrolló con consideraciones éticas, excluyendo la obscenidad, la propiedad intelectual y la información personal identificable no pública de sus datos de entrenamiento. Sin embargo, aún podría reflejar sesgos de los empleados de Databricks que generaron los datos de ajuste.
Patio de juegos de IA



Acceso