qwen-bg
max-ico04
2K
En
Afuera
max-ico02
Charlar
max-ico03
desactivar
Muñeca v2 (7B)
Explore la API de Dolly v2 (7B), un modelo de lenguaje grande de código abierto con capacidades de seguimiento de instrucciones, adecuado para diversas tareas de PNL y aplicaciones comerciales.
Tokens gratis de $1 para nuevos miembros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'databricks/dolly-v2-7b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="databricks/dolly-v2-7b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Una API con más de 300 modelos de IA

Ahorre un 20% en costos y $1 en tokens gratis
qwenmax-bg
imagen
Muñeca v2 (7B)

Detalle del producto

🌟 Dolly v2 (7B): Un LLM de seguimiento de instrucciones de código abierto

Dolly v2 (7B) es una innovadora modelo de lenguaje amplio de seguimiento de instrucciones desarrollado por Bloques de datosLanzado el 12 de abril de 2023, este modelo se basa en la arquitectura Pythia-6.9b y se ha perfeccionado con un conjunto de datos considerable de aproximadamente 15 000 pares de instrucciones/respuestas. Cabe destacar que Dolly v2 (7B) es con licencia para uso comercial, lo que lo convierte en una herramienta potente y accesible para una amplia gama de tareas de procesamiento del lenguaje natural.

💡 Información clave

  • Nombre del modelo: Muñeca v2 (7B)
  • Desarrollador/creador: Bloques de datos
  • Fecha de lanzamiento: 12 de abril de 2023
  • Versión: 2.0
  • Tipo de modelo: Modelo de lenguaje amplio de seguimiento de instrucciones

✅ Capacidades y características principales

Este modelo destaca por varias razones:

  • • Seguimiento de instrucciones: Se destaca por comprender y ejecutar instrucciones explícitas.
  • • Código abierto: Promueve la transparencia y el desarrollo impulsado por la comunidad.
  • • Con licencia comercial: Permitido para su uso en aplicaciones comerciales bajo la licencia Apache 2.0.
  • • Formación de alta calidad: Ajustado a un conjunto de datos seleccionados para lograr una adherencia superior a las instrucciones.
  • • Tamaño compacto: Con aproximadamente 6,9 ​​mil millones de parámetros, ofrece un buen equilibrio entre rendimiento y eficiencia de recursos.

🛠️ Aplicaciones previstas

Dolly v2 (7B) es versátil y se puede aplicar a una variedad de tareas de procesamiento del lenguaje natural, que incluyen:

  • ▪️ Lluvia de ideas y generación de ideas
  • ▪️ Clasificación de textos
  • ▪️ Responder preguntas cerradas y abiertas
  • ▪️ Generación de textos creativos y factuales
  • ▪️ Extracción de información de documentos
  • ▪️ Resumen de textos extensos

Soporte de idiomas: El modelo admite principalmente tareas en idioma inglés.

⚙️ Especificaciones técnicas

Arquitectura

Dolly v2 (7B) está construido sobre la robusta Arquitectura de Pythia-6.9b, un modelo basado en transformador muy valorado, conocido por su escalabilidad y rendimiento.

Datos de entrenamiento

Fuente de datos y tamaño: El modelo se ha perfeccionado utilizando el programa propietario conjunto de datos databricks-dolly-15kEste conjunto de datos de alta calidad comprende aproximadamente 15.000 pares de instrucciones/respuestas, generados meticulosamente por los empleados de Databricks.

Nivel de conocimiento: El conocimiento fundamental de Dolly v2 (7B) se deriva de la fase de preentrenamiento de Pythia-6.9b, mejorada significativamente por las capacidades de seguimiento de instrucciones desarrolladas durante el proceso de ajuste.

Métricas de rendimiento

Si bien Dolly v2 (7B) no está diseñado para lograr puntajes de referencia de última generación contra modelos más grandes y complejos, demuestra constantemente comportamiento de seguimiento de instrucciones sorprendentemente de alta calidadA continuación se muestran algunos resultados de referencia:

Punto de referencia Puntaje
ARC (25 disparos) 0.392
HellaSwag (10 disparos) 0.633838
MMLU (5 disparos) 0.406997
Control de calidad veraz (0 disparos) 0.444444

Comparación con otros modelos

Si bien Dolly v2 (7B) puede no superar a modelos significativamente más grandes como GPT-3 (parámetros 175B) en puntajes de referencia brutos, ofrece una equilibrio entre un rendimiento sólido y requisitos de recursos manejables, lo que lo hace muy práctico para muchas aplicaciones.

🚀 Instrucciones de uso

Ejemplo de código

⚖️ Consideraciones éticas

El desarrollo de Dolly v2 (7B) incorporó sólidas consideraciones éticas. Los datos de entrenamiento utilizados no contienen obscenidades, propiedad intelectual protegida ni información de identificación personal perteneciente a figuras no públicas. Sin embargo, es importante reconocer que el modelo puede reflejar sesgos presente en los datos generados por los empleados de Databricks. Se recomienda a los usuarios ser precavidos y estar atentos a posibles sesgos en los resultados del modelo.

Información sobre licencias

Dolly v2 (7B) se lanza bajo la Licencia Apache 2.0Esta licencia permisiva otorga a los usuarios flexibilidad tanto para la investigación como para aplicaciones comerciales, lo que fomenta una amplia adopción e innovación. Para más detalles sobre los orígenes de Dolly v2, puede consultar... Anuncio de Databricks Dolly v2.

⚠️ Limitaciones de Dolly v2 (7B)

Si bien es potente, Dolly v2 (7B) tiene ciertas limitaciones que debemos tener en cuenta:

  • • No es de vanguardia: No está diseñado para competir con el rendimiento de arquitecturas de modelos más modernos o significativamente más grandes.
  • • Indicaciones complejas: Puede tener dificultades con indicaciones que sean sintácticamente muy complejas.
  • • Tareas especializadas: Tiene capacidades limitadas en problemas de programación y operaciones matemáticas avanzadas.
  • • Exactitud factual: Puede producir errores fácticos o exhibir alucinaciones, requiriendo supervisión humana.
  • • Sesgos de datos: Refleja posibles sesgos inherentes a los datos de capacitación generados por los empleados de Databricks.

❓ Preguntas frecuentes (FAQ)

P1: ¿Qué es Dolly v2 (7B)?
A1: Dolly v2 (7B) es un modelo de lenguaje grande que sigue instrucciones desarrollado por Databricks, basado en el modelo Pythia-6.9b y ajustado en 15.000 pares instrucción/respuesta.

P2: ¿Se puede utilizar Dolly v2 (7B) para proyectos comerciales?
A2: Sí, Dolly v2 (7B) se publica bajo la licencia Apache 2.0, que permite tanto la investigación como el uso comercial.

P3: ¿Cuáles son las principales aplicaciones de Dolly v2 (7B)?
A3: Está diseñado para diversas tareas de PNL, incluyendo lluvia de ideas, clasificación, respuesta a preguntas (cerradas y abiertas), generación de texto, extracción de información y resumen.

P4: ¿Cómo se compara Dolly v2 (7B) con modelos más grandes como GPT-3?
A4: Si bien puede que no supere a modelos como GPT-3 en puntos de referencia brutos, Dolly v2 (7B) ofrece un sólido equilibrio de rendimiento y requisitos de recursos significativamente menores, lo que lo convierte en una opción práctica para muchas aplicaciones.

P5: ¿Existen preocupaciones éticas con Dolly v2 (7B)?
A5: El modelo se desarrolló con consideraciones éticas, excluyendo la obscenidad, la propiedad intelectual y la información personal identificable no pública de sus datos de entrenamiento. Sin embargo, aún podría reflejar sesgos de los empleados de Databricks que generaron los datos de ajuste.

Patio de juegos de IA

Pruebe todos los modelos de API en el entorno de pruebas antes de integrarlos. Ofrecemos más de 300 modelos para integrar en su aplicación.
Pruébalo gratis
api-right-1
modelo-bg02-1

Una API
Más de 300 modelos de IA

Ahorre un 20% en costos