



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dolly-v2-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dolly-v2-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalles del producto
🌟 Dolly v2 (7B): Un LLM de código abierto para el seguimiento de instrucciones
Dolly v2 (7B) es una innovadora modelo de lenguaje grande que sigue instrucciones desarrollado por DatabricksLanzado el 12 de abril de 2023, este modelo se basa en la arquitectura Pythia-6.9b y se ha ajustado con precisión en un conjunto de datos sustancial de aproximadamente 15.000 pares de instrucciones/respuestas. Cabe destacar que Dolly v2 (7B) es Licenciado para uso comerciallo que la convierte en una herramienta potente y accesible para una amplia gama de tareas de procesamiento del lenguaje natural.
💡 Información clave
- Nombre del modelo: Dolly v2 (7B)
- Desarrollador/Creador: Databricks
- Fecha de lanzamiento: 12 de abril de 2023
- Versión: 2.0
- Tipo de modelo: Modelo de lenguaje extenso que sigue instrucciones
✅ Capacidades y características principales
Este modelo destaca por varias razones:
- • Seguimiento de instrucciones: Destaca por su capacidad para comprender y ejecutar instrucciones explícitas.
- • Código abierto: Promueve la transparencia y el desarrollo impulsado por la comunidad.
- • Con licencia comercial: Se permite su uso en aplicaciones comerciales bajo la licencia Apache 2.0.
- • Formación de alta calidad: Optimizado con un conjunto de datos seleccionado para lograr una adherencia superior a las instrucciones.
- • Tamaño compacto: Con aproximadamente 6.900 millones de parámetros, ofrece un buen equilibrio entre rendimiento y eficiencia de recursos.
🛠️ Aplicaciones previstas
Dolly v2 (7B) es versátil y se puede aplicar a diversas tareas de procesamiento del lenguaje natural, entre las que se incluyen:
- ▪️ Lluvia de ideas y generación de ideas
- ▪️ Clasificación de texto
- ▪️ Responder tanto a preguntas cerradas como abiertas.
- ▪️ Generación de textos creativos y objetivos
- ▪️ Extracción de información de documentos
- ▪️ Resumen de textos extensos
Soporte de idiomas: El modelo admite principalmente tareas en inglés.
⚙️ Especificaciones técnicas
Arquitectura
Dolly v2 (7B) está construido sobre la robustez Arquitectura Pythia-6.9b, un modelo basado en transformadores muy valorado, conocido por su escalabilidad y rendimiento.
Datos de entrenamiento
Fuente y tamaño de los datos: El modelo se sometió a un ajuste fino utilizando el software propietario. conjunto de datos databricks-dolly-15kEste conjunto de datos de alta calidad comprende aproximadamente 15.000 pares de instrucciones/respuestas, generados meticulosamente por empleados de Databricks.
Punto de corte de conocimiento: El conocimiento fundamental de Dolly v2 (7B) se deriva de la fase de preentrenamiento de Pythia-6.9b, mejorada significativamente por las capacidades de seguimiento de instrucciones desarrolladas durante el proceso de ajuste fino.
Métricas de rendimiento
Aunque Dolly v2 (7B) no está diseñado para lograr puntuaciones de referencia de última generación frente a modelos más grandes y complejos, demuestra de forma consistente comportamiento de seguimiento de instrucciones sorprendentemente de alta calidadA continuación se muestran algunos resultados de referencia:
| Punto de referencia | Puntaje |
|---|---|
| ARC (25 disparos) | 0,392 |
| HellaSwag (10 disparos) | 0,633838 |
| MMLU (5 disparos) | 0,406997 |
| TruthfulQA (0 disparos) | 0,444444 |
Comparación con otros modelos
Aunque Dolly v2 (7B) puede que no supere a modelos significativamente más grandes como GPT-3 (175B parámetros) en puntuaciones de referencia brutas, ofrece una alternativa convincente. equilibrio entre un alto rendimiento y requisitos de recursos manejables, lo que lo hace muy práctico para muchas aplicaciones.
🚀 Guía de uso
Ejemplo de código
⚖️ Consideraciones éticas
El desarrollo de Dolly v2 (7B) incorporó fuertes consideraciones éticas. Los datos de entrenamiento utilizados no contienen obscenidad, propiedad intelectual protegida ni información de identificación personal relacionada con figuras no públicas. Sin embargo, es importante reconocer que el modelo pueden reflejar sesgos Presente en los datos generados por los empleados de Databricks. Los usuarios deben tener precaución y ser conscientes de los posibles sesgos en los resultados del modelo.
📄 Información sobre licencias
Dolly v2 (7B) se lanza bajo el Licencia Apache 2.0Esta licencia permisiva otorga a los usuarios flexibilidad tanto para aplicaciones de investigación como comerciales, fomentando una amplia adopción e innovación. Para obtener más detalles sobre los orígenes de Dolly v2, puede consultar la Anuncio de Databricks Dolly v2.
⚠️ Limitaciones de Dolly v2 (7B)
Si bien es potente, Dolly v2 (7B) tiene ciertas limitaciones que conviene tener en cuenta:
- • No es tecnología de punta: No está diseñado para competir con el rendimiento de arquitecturas de modelos más modernos o significativamente más grandes.
- • Indicaciones complejas: Puede tener dificultades con indicaciones que sean sintácticamente muy complejas.
- • Tareas especializadas: Tiene capacidades limitadas para resolver problemas de programación y realizar operaciones matemáticas avanzadas.
- • Precisión fáctica: Puede producir errores de hecho o presentar alucinaciones, lo que requiere supervisión humana.
- • Sesgos en los datos: Refleja posibles sesgos inherentes a los datos de entrenamiento generados por los empleados de Databricks.
❓ Preguntas frecuentes (FAQ)
P1: ¿Qué es Dolly v2 (7B)?
A1: Dolly v2 (7B) es un modelo de lenguaje grande que sigue instrucciones, desarrollado por Databricks, basado en el modelo Pythia-6.9b y ajustado con precisión en 15.000 pares de instrucciones/respuestas.
P2: ¿Se puede utilizar Dolly v2 (7B) para proyectos comerciales?
A2: Sí, Dolly v2 (7B) se publica bajo la licencia Apache 2.0, que permite tanto la investigación como el uso comercial.
P3: ¿Cuáles son las principales aplicaciones de Dolly v2 (7B)?
A3: Está diseñado para diversas tareas de PLN, incluyendo lluvia de ideas, clasificación, respuesta a preguntas (cerradas y abiertas), generación de texto, extracción de información y resumen.
P4: ¿Cómo se compara Dolly v2 (7B) con modelos más grandes como GPT-3?
A4: Si bien puede que no supere a modelos como GPT-3 en pruebas de rendimiento brutas, Dolly v2 (7B) ofrece un buen equilibrio entre rendimiento y requisitos de recursos significativamente menores, lo que lo convierte en una opción práctica para muchas aplicaciones.
P5: ¿Existen preocupaciones éticas con Dolly v2 (7B)?
A5: El modelo se desarrolló teniendo en cuenta consideraciones éticas, excluyendo la obscenidad, la propiedad intelectual y la información personal identificable no pública de sus datos de entrenamiento. Sin embargo, aún podría reflejar sesgos por parte de los empleados de Databricks que generaron los datos de ajuste fino.
Campo de juegos de IA



Acceso