qwen-bg
ico máximo04
2K
En
Afuera
ico-máximo02
Charlar
ico-máximo03
desactivar
Guanaco (65B)
Acceda a la API de Guanaco-65B. Guanaco 65B es un modelo de chatbot de código abierto que compite con ChatGPT 3.5 Turbo, desarrollado mediante el ajuste fino QLoRA de 4 bits.
Fichas de $1 gratis para nuevos miembros
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'togethercomputer/guanaco-65b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="togethercomputer/guanaco-65b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Más de 300 modelos de IA para OpenClaw y agentes de IA

Ahorra un 20% en costes y obtén fichas gratis de 1 $.
qwenmax-bg
imagen
Guanaco (65B)

Detalles del producto

💡 Guanaco-65B: un chatbot LLM de código abierto líder

El Guanaco-65B es un sofisticado, 65 mil millones de parámetros Modelo de chatbot de código abierto. Lanzado en 2023 por Tim DettmersEste modelo de lenguaje a gran escala (LLM) avanzado, basado en texto, es una prueba de la eficacia de las técnicas de ajuste fino. Se desarrolló aplicando el ajuste fino QLoRA de 4 bits al modelo base LLaMA, utilizando el conjunto de datos OASST1.

Guanaco-65B destaca por su rendimiento excepcional, logrando capacidades comparables a las de los chatbots comerciales de primer nivel, como ChatGPT y BARDOEsto hace que la IA conversacional de alto rendimiento sea más accesible y rentable para una amplia gama de aplicaciones.

✅ Características y ventajas principales

  • Rendimiento competitivo: Demuestra un rendimiento comparable al de ChatGPT y BARD en pruebas de rendimiento destacadas como Vicuna y OpenAssistant.
  • Disponibilidad de código abierto: De libre acceso para experimentación e implementación local, democratizando el acceso a una potente IA.
  • Entrenamiento eficiente de QLoRA de 4 bits: Basado en un proceso de ajuste fino QLoRA de 4 bits, replicable y altamente eficiente.
  • Pesos adaptadores ligeros: Utiliza contrapesos adaptadores compactos que se integran a la perfección con los modelos base de LLaMA.

🎯 Casos de uso previstos

El Guanaco-65B está diseñado para facilitar a desarrolladores e investigadores la implementación y experimentación con sistemas de IA conversacional de vanguardia. Su versatilidad lo convierte en una opción ideal para diversas aplicaciones, entre las que se incluyen:

  • Desarrollo de chatbots robustos de dominio abierto
  • Creación de sistemas de diálogo orientados a tareas
  • Mejorar las funcionalidades de respuesta a preguntas
  • Automatización de tareas de resumen de texto
  • Generación de contenido textual diverso y creativo.

🌐 Capacidades multilingües

Si bien Guanaco-65B es inherentemente un modelo multilingüeSu entrenamiento en el conjunto de datos OASST1, que está fuertemente sesgado hacia lenguas con muchos recursos, sugiere un rendimiento óptimo. Por lo tanto, se espera que el modelo tenga el mejor rendimiento en Inglés y otros idiomas con amplios recursos.

⚙️ Especificaciones técnicas

Arquitectura:

El Guanaco-65B aprovecha un Arquitectura LoRA (Adaptación de bajo rango)Esto implica añadir ponderaciones específicas a todas las capas del modelo base LLaMA. Este diseño permite un ajuste fino altamente eficiente, posibilitando una amplia personalización a la vez que preserva las capacidades esenciales del modelo base.

Datos de entrenamiento:

El modelo fue entrenado utilizando el Conjunto de datos OASST1Este conjunto de datos se caracteriza por su carácter multilingüe, aunque presenta una mayor proporción de idiomas con abundantes recursos. No se divulgan públicamente detalles específicos sobre el tamaño exacto ni la diversidad del conjunto de datos.

Punto de corte de conocimiento:

La fecha límite de conocimiento precisa para Guanaco-65B es no especificado públicamenteEn general, se entiende que su base de conocimientos refleja la información disponible hasta la fecha de finalización del conjunto de datos OASST1 utilizado para su ajuste fino.

Métricas de rendimiento:

Según informes documentados, Guanaco-65B demuestra un rendimiento notable, logrando 99,3 por ciento del rendimiento de ChatGPT-3.5 Turbo En las exigentes pruebas de referencia de Vicuña, esta impresionante evaluación fue corroborada tanto por la valoración humana como por el análisis de GPT-4.

🚀 Ejemplo de uso de la API

La integración de Guanaco-65B en tus aplicaciones está diseñada para facilitar su uso. Aquí tienes un ejemplo común de uso de la API que ilustra cómo interactuar con el modelo para completar conversaciones en el chat:

# Ejemplo de llamada a la API para completar el chat import openai client = openai. OpenAI ( api_key= "YOUR_API_KEY" , base_url= "https://api.together.xyz/v1" , ) chat_completion = client.chat.completions.create( model= "togethercomputer/guanaco-65b" , messages=[ { "role" : "system" , "content" : "Eres un asistente útil." , }, { "role" : "user" , "content" : "¿Cuál es la capital de Francia?" , }, ], temperature=0.7, max_tokens=512, ) print(chat_completion.choices[0].message.content)

Nota: Este fragmento ilustrativo asume la compatibilidad con los estándares de la API de OpenAI, a menudo compatibles con plataformas como Together AI. Para obtener más detalles sobre la integración de la API, puede consultar la Entrada de blog de Together AI sobre Guanaco-65B.

⚖️ Información sobre uso ético y licencias

Directrices éticas:

Como modelo de código abierto, No se emiten formalmente directrices éticas específicas. para Guanaco-65B por parte de su desarrollador. Por lo tanto, la responsabilidad de su despliegue responsable, la consideración del posible mal uso y la adhesión a prácticas éticas de IA recae sobre él. recae exclusivamente en los desarrolladores. y usuarios finales.

Tipo de licencia:

El Pesos adaptadores Guanaco están autorizados bajo la permisiva Licencia Apache 2.0Sin embargo, es fundamental comprender que la utilización completa del modelo Guanaco-65B requiere acceso a la información subyacente. pesos del modelo base LLaMA, que se rigen por términos de licencia más restrictivosLos usuarios deben garantizar el cumplimiento total de ambos conjuntos de acuerdos de licencia.

✨ Conclusión

En esencia, Guanaco-65B representa un modelo de chatbot de código abierto potente y accesible que compite eficazmente con soluciones de IA comerciales consolidadas como ChatGPT. No solo pone de manifiesto el notable potencial y la eficiencia del ajuste fino QLoRA de 4 bits, sino que también proporciona una vía asequible y reproducible para desarrollar e implementar soluciones de IA conversacional de alto rendimiento. Su introducción contribuye significativamente a una mayor accesibilidad de la tecnología LLM avanzada.

❓ Preguntas frecuentes (FAQ)

¿Qué es Guanaco-65B?

Guanaco-65B es un modelo de chatbot de código abierto con 65 mil millones de parámetros, desarrollado por Tim Dettmers. Está basado en el modelo LLaMA y optimizado mediante la técnica QLoRA de 4 bits, ofreciendo un rendimiento comparable al de los principales chatbots de IA comerciales.

¿Cómo se compara el rendimiento de Guanaco-65B con el de ChatGPT?

Según la documentación y las pruebas de referencia, Guanaco-65B alcanza el 99,3 % del rendimiento de ChatGPT-3.5 Turbo en las pruebas de referencia de Vicuna, según la evaluación tanto de evaluadores humanos como de GPT-4, lo que demuestra su naturaleza altamente competitiva.

¿Qué es el ajuste fino de QLoRA?

QLoRA (Quantized Low-Rank Adaptation) es un método de cuantización de 4 bits eficiente para el ajuste fino de grandes modelos de lenguaje. Reduce significativamente el consumo de memoria manteniendo un alto rendimiento, lo que permite entrenar e implementar modelos masivos en hardware más accesible.

¿Puede utilizarse Guanaco-65B con fines comerciales?

Las pesas del adaptador Guanaco se rigen por la licencia Apache 2.0, que generalmente permite su uso comercial. Sin embargo, las pesas del modelo base LLaMA tienen términos de licencia más restrictivos. Los usuarios deben garantizar el cumplimiento de ambas licencias para cualquier aplicación comercial.

¿Qué idiomas son los que mejor soporta Guanaco-65B?

Si bien se trata de un modelo multilingüe, el conjunto de datos OASST1 con el que fue entrenado presenta un marcado sesgo hacia los idiomas con abundantes recursos. Por consiguiente, se espera que Guanaco-65B tenga un rendimiento óptimo con el inglés y otros idiomas similares con amplios recursos.

Campo de juegos de IA

Pruebe todos los modelos de API en el entorno de pruebas antes de integrarlos. Ofrecemos más de 300 modelos para integrar en su aplicación.
Pruébalo gratis
api-right-1
modelo-bg02-1

Más de 300 modelos de IA para
OpenClaw y agentes de IA

Ahorre un 20% en costos