



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'lmsys/vicuna-7b-v1.5',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="lmsys/vicuna-7b-v1.5",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalle del producto
Descripción general de Vicuna v1.5 (7B)
Información básica
- Nombre del modelo: Vicuña v1.5 (7B)
- Desarrollador/creador: Sistema de gestión de licencias (LMSYS)
- Fecha de lanzamiento: Investigación inicial presentada en Diciembre de 2023
- Versión: 1.5
- Tipo de modelo: Un modelo de lenguaje autorregresivo basado en el arquitectura del transformador
Descripción general
Vicuna v1.5 es un modelo de lenguaje extenso (LLM) avanzado diseñado para mejorar las capacidades conversacionales de los asistentes de chat. Aprovecha Ajuste fino de la instrucción supervisada y aprendizaje de refuerzo con retroalimentación humana (RLHF) Para lograr un desempeño superior en el seguimiento de instrucciones y diálogo.
Características principales
- 🗣️ Habilidades de conversación mejoradas: Manejo mejorado de diálogos multiturno para interacciones naturales.
- ✅ Instrucciones precisas a continuación: Ajustado para un cumplimiento preciso y matizado de las instrucciones.
- 👤 Alineación de preferencias humanas: Demuestra un alto acuerdo con las evaluaciones humanas, lo que garantiza la satisfacción del usuario.
- 💪 Rendimiento robusto: Logra resultados competitivos y consistentes en varios puntos de referencia.
Uso previsto
Vicuna v1.5 es ideal para asistentes de chat interactivos, agentes virtuales de servicio al cliente y cualquier aplicación que demande IA conversacional sofisticadaSe destaca especialmente en escenarios que requieren una comprensión matizada y la generación de respuestas similares a las humanas.
Soporte de idiomas
El modelo apoya principalmente Inglés pero ofrece flexibilidad para realizar ajustes o adaptaciones a otros idiomas según sea necesario.
Detalles técnicos
Arquitectura
Vicuna v1.5 se basa en el sólido arquitectura del transformador, específicamente afinado desde el LLaMA-13B modelEl modelo de transformador es reconocido por su mecanismos de autoatención, que permiten un procesamiento y generación de texto eficiente.
Datos de entrenamiento
Como una versión perfeccionada de Llama 2Vicuna v1.5 se benefició del ajuste de la instrucción supervisada. El conjunto completo de datos de entrenamiento incluye aproximadamente 125.000 conversaciones procedente principalmente de ShareGPT.com.
Este conjunto de datos abarca una mezcla diversa de diálogos, lo que garantiza un amplio espectro de temas y estilos de conversación.
Nivel de conocimiento: El conocimiento del modelo está actualizado hasta Septiembre de 2021.
Diversidad y sesgo: Si bien se realizan esfuerzos para minimizar el sesgo mediante diversas fuentes de datos, aún pueden existir sesgos inherentes a los datos de entrenamiento originales. Se están realizando esfuerzos continuos de mitigación.
Métricas de rendimiento
Vicuna v1.5 demuestra un rendimiento sólido y sólido en varios puntos de referencia clave:
- 📊 MMLU (5 disparos): 52.1
- 🎯 TruthfulQA (0 disparos): 0,35
- ⭐ Puntuación MT-Bench (evaluada en GPT-4): 6.39
- ✔️ Exactitud: Evaluado utilizando métricas como perplejidad y alineación de preferencias humanas.
- ⚡ Velocidad: Optimizado para inferencia en tiempo real, fundamental para aplicaciones interactivas receptivas.
- 🛡️ Robustez: Maneja eficazmente una amplia gama de entradas y generaliza bien en diversos temas.
Uso
Ejemplos de código
Los desarrolladores pueden integrar Vicuna v1.5 en sus aplicaciones mediante llamadas API estándar. A continuación, se muestra un ejemplo de un posible fragmento de API (los detalles de implementación pueden variar según la plataforma):
Consideraciones éticas
Vicuna v1.5 se desarrolló con un fuerte énfasis en minimizando sesgos y garantizar un uso justo y responsable. Se recomienda encarecidamente a los desarrolladores que utilicen el modelo de forma ética y sean conscientes de los posibles sesgos inherentes a cualquier contenido generado por IA.
Licencias
El modelo Vicuna v1.5 está disponible para tanto para uso comercial como no comercialLos acuerdos de licencia específicos se detallan en su repositorio oficial y los usuarios deben revisarlos para verificar su cumplimiento.
Conclusión
Vicuña v1.5 (7B) Surge como un modelo de lenguaje potente y perfeccionado, diseñado específicamente para impulsar las aplicaciones de IA conversacional. Su robusta arquitectura de transformador, su amplio entrenamiento en diversos conjuntos de datos y su sólida alineación con las preferencias humanas lo posicionan como un herramienta versátil y eficaz para desarrolladores que buscan integrar capacidades de lenguaje sofisticadas en sus proyectos.
Preguntas frecuentes (FAQ)
P1: ¿Qué es Vicuna v1.5 (7B)?
A1: Vicuna v1.5 (7B) es un modelo de lenguaje grande (LLM) avanzado desarrollado por LMSYS, basado en la arquitectura del transformador y perfeccionado a partir de LLaMA-13B, diseñado para mejorar las aplicaciones de IA conversacional.
P2: ¿Cuáles son las características clave de Vicuna v1.5?
A2: Las características principales incluyen capacidades de conversación mejoradas, seguimiento preciso de instrucciones, fuerte alineación con las preferencias humanas y un rendimiento sólido en varios puntos de referencia.
P3: ¿De dónde obtiene Vicuna v1.5 sus datos de entrenamiento?
A3: Está optimizado a partir de Llama 2 y entrenado con aproximadamente 125 000 conversaciones provenientes principalmente de ShareGPT.com, cubriendo diversos temas y estilos de conversación.
P4: ¿Vicuna v1.5 es adecuado para uso comercial?
A4: Sí, Vicuna v1.5 está disponible para uso comercial y no comercial. Los usuarios deben consultar los acuerdos de licencia específicos disponibles en su repositorio oficial.
Q5: ¿Cuál es el nivel de corte de conocimiento para Vicuna v1.5?
A5: Los conocimientos del modelo están actualizados hasta septiembre de 2021.
Patio de juegos de IA



Acceso