qwen-bg
max-ico04
2K
Dans
Dehors
max-ico02
Chat
max-ico03
désactiver
Guanaco (65B)
Accédez à l'API de Guanaco-65B. Guanaco 65B est un modèle de chatbot open-source qui rivalise avec ChatGPT 3.5 Turbo, développé à l'aide d'un réglage fin QLoRA 4 bits efficace.
Jetons gratuits de 1 $ pour les nouveaux membres
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'togethercomputer/guanaco-65b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="togethercomputer/guanaco-65b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

Une seule API pour plus de 300 modèles d'IA

Économisez 20 % sur les coûts et recevez des jetons gratuits d'une valeur de 1 $.
qwenmax-bg
image
Guanaco (65B)

Détails du produit

💡 Guanaco-65B : un chatbot LLM open source de premier plan

Le Guanaco-65B est sophistiqué, 65 milliards de paramètres Modèle de chatbot open-source. Publié en 2023 par Tim DettmersCe modèle de langage étendu (LLM) avancé, basé sur du texte, témoigne de l'efficacité des techniques d'ajustement fin. Il a été développé en appliquant un ajustement fin QLoRA 4 bits au modèle de base LLaMA, en utilisant l'ensemble de données complet OASST1.

Guanaco-65B se distingue par ses performances exceptionnelles, atteignant des capacités comparables à celles des chatbots commerciaux haut de gamme tels que ChatGPT et BARDECela rend l'IA conversationnelle haute performance plus accessible et plus rentable pour un large éventail d'applications.

✅ Principales caractéristiques et avantages

  • Performance concurrentielle : Affiche des performances comparables à celles de ChatGPT et BARD sur des benchmarks reconnus comme Vicuna et OpenAssistant.
  • Disponibilité en open source : Librement accessible pour l'expérimentation et le déploiement locaux, démocratisant ainsi l'accès à une IA puissante.
  • Entraînement QLoRA 4 bits efficace : Construit sur un processus de réglage fin QLoRA 4 bits reproductible et très efficace.
  • Poids des adaptateurs légers : Utilise des poids adaptateurs compacts qui s'intègrent parfaitement aux modèles de base LLaMA.

🎯 Cas d'utilisation prévus

Le Guanaco-65B est conçu pour permettre aux développeurs et aux chercheurs de déployer et d'expérimenter des systèmes d'IA conversationnelle de pointe. Sa polyvalence en fait un choix idéal pour diverses applications, notamment :

  • Développement de chatbots robustes à domaine ouvert
  • Conception de systèmes de dialogue orientés tâches
  • Amélioration des fonctionnalités de réponse aux questions
  • Automatisation des tâches de résumé de texte
  • Générer du contenu textuel diversifié et créatif

🌐 Capacités multilingues

Bien que le Guanaco-65B soit intrinsèquement un modèle multilingueSon entraînement sur l'ensemble de données OASST1, fortement biaisé en faveur des langues disposant de ressources importantes, suggère des performances optimales. Par conséquent, on s'attend à ce que le modèle soit le plus performant dans Anglais et d'autres langues disposant de ressources importantes.

⚙️ Spécifications techniques

Architecture:

Le Guanaco-65B exploite un Architecture LoRA (Low-Rank Adaptation)Cela implique l'ajout de pondérations d'adaptateur spécifiques à toutes les couches du modèle de base LLaMA sous-jacent. Cette conception permet un réglage fin très efficace, autorisant une personnalisation poussée tout en préservant scrupuleusement les fonctionnalités essentielles du modèle de base.

Données d'entraînement :

Le modèle a été entraîné à l'aide de Ensemble de données OASST1Cet ensemble de données est connu pour son caractère multilingue, mais il est surreprésenté dans les langues disposant de nombreuses ressources. Les détails précis concernant sa taille exacte et sa diversité globale ne sont pas divulgués publiquement.

Seuil de connaissances :

La date limite précise de connaissance pour Guanaco-65B est non spécifié publiquementIl est généralement admis que sa base de connaissances reflète les informations disponibles jusqu'à la date de finalisation de l'ensemble de données OASST1 utilisé pour son réglage fin.

Indicateurs de performance :

Selon des rapports documentés, le Guanaco-65B démontre des performances remarquables, atteignant 99,3 % des performances de ChatGPT-3.5 Turbo sur les bancs d'essai exigeants de Vicuna. Cette évaluation impressionnante a été corroborée à la fois par une évaluation humaine et par une analyse réalisée par GPT-4.

🚀 Exemple d'utilisation de l'API

L'intégration de Guanaco-65B à vos applications est conçue pour une utilisation simplifiée. Voici un exemple d'utilisation courante de l'API, illustrant comment interagir avec le modèle pour la complétion automatique des conversations :

# Exemple d'appel API pour la complétion de chat import openai client = openai.OpenAI ( api_key= "VOTRE_CLÉ_API" , base_url= "https://api.together.xyz/v1" ) chat_completion = client.chat.completions.create(model= "togethercomputer/guanaco-65b" , messages=[{ "role" : "system" , "content" : "Vous êtes un assistant utile." ,}, { "role" : "user" , "content" : "Quelle est la capitale de la France ?" ,}], temperature=0.7, max_tokens=512) print(chat_completion.choices[0].message.content)

Remarque : Cet extrait de code illustratif suppose la compatibilité avec les normes de l’API OpenAI, souvent prises en charge par des plateformes comme Together AI. Pour plus de détails sur l’intégration de l’API, veuillez consulter la documentation. Article de blog de Together AI sur le Guanaco-65B.

⚖️ Informations sur l'utilisation éthique et les licences

Principes éthiques :

En tant que modèle open source, Aucune directive éthique spécifique n'est officiellement publiée. pour Guanaco-65B par son développeur. Par conséquent, la responsabilité de son déploiement responsable, la prise en compte des utilisations abusives potentielles et le respect des pratiques éthiques en matière d'IA Cela dépend entièrement des développeurs et les utilisateurs finaux.

Type de licence :

Le Poids adaptateurs Guanaco sont autorisés sous licence permissive Licence Apache 2.0Il est toutefois essentiel de comprendre que l'utilisation complète du modèle Guanaco-65B nécessite l'accès aux données sous-jacentes. Poids du modèle de base LLaMA, qui sont régis par conditions de licence plus restrictivesLes utilisateurs doivent veiller à respecter intégralement les deux ensembles d'accords de licence.

✨ Conclusion

En résumé, Guanaco-65B est un modèle de chatbot open source puissant et accessible, capable de rivaliser efficacement avec des solutions d'IA commerciales établies comme ChatGPT. Il met en lumière le potentiel et l'efficacité remarquables du réglage fin QLoRA 4 bits et offre une méthode abordable et reproductible pour développer et déployer des solutions d'IA conversationnelle performantes. Son introduction contribue significativement à une plus large accessibilité des technologies LLM avancées.

❓ Foire aux questions (FAQ)

Qu'est-ce que le Guanaco-65B ?

Guanaco-65B est un modèle de chatbot open source à 65 milliards de paramètres, développé par Tim Dettmers. Basé sur le modèle LLaMA et optimisé grâce à la technique QLoRA 4 bits, il offre des performances comparables à celles des principaux chatbots IA commerciaux.

Comment les performances de Guanaco-65B se comparent-elles à celles de ChatGPT ?

Selon la documentation et les benchmarks, Guanaco-65B atteint 99,3 % des performances de ChatGPT-3.5 Turbo sur les benchmarks Vicuna, évalués à la fois par des évaluateurs humains et par GPT-4, démontrant ainsi sa nature hautement compétitive.

Qu'est-ce que le réglage fin QLoRA ?

QLoRA (Quantized Low-Rank Adaptation) est une méthode de quantification 4 bits efficace pour l'ajustement fin des grands modèles de langage. Elle réduit considérablement la consommation de mémoire tout en maintenant des performances élevées, permettant ainsi d'entraîner et de déployer des modèles massifs sur du matériel plus accessible.

Le Guanaco-65B peut-il être utilisé à des fins commerciales ?

Les poids de l'adaptateur Guanaco sont distribués sous licence Apache 2.0, qui autorise généralement leur utilisation commerciale. Cependant, les poids du modèle de base LLaMA sont soumis à des conditions de licence plus restrictives. Les utilisateurs doivent s'assurer du respect des deux licences pour toute application commerciale.

Quelles sont les langues les mieux prises en charge par Guanaco-65B ?

Bien qu'il s'agisse d'un modèle multilingue, le jeu de données OASST1 sur lequel il a été entraîné est fortement biaisé en faveur des langues disposant de nombreuses ressources. Par conséquent, on s'attend à ce que Guanaco-65B fonctionne de manière optimale avec l'anglais et d'autres langues similaires disposant de ressources importantes.

Terrain de jeu de l'IA

Testez tous les modèles d'API dans l'environnement de test avant de les intégrer. Nous proposons plus de 300 modèles à intégrer à votre application.
Essai gratuit
api-droite-1
modèle-bg02-1

Une API
Plus de 300 modèles d'IA

Économisez 20 % sur vos coûts