



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'lmsys/vicuna-7b-v1.5',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="lmsys/vicuna-7b-v1.5",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
Aperçu de Vicuna v1.5 (7B)
Informations de base
- Nom du modèle : Vicuna v1.5 (7B)
- Développeur/Créateur : LMSYS
- Date de sortie : Recherches initiales présentées dans Décembre 2023
- Version: 1.5
- Type de modèle : Un modèle de langage autorégressif basé sur architecture de transformateur
Aperçu
Vicuna v1.5 est un modèle de langage étendu (LLM) avancé conçu pour améliorer les capacités conversationnelles des assistants vocaux. Il exploite mise au point de l'instruction supervisée et Apprentissage par renforcement avec retour d'information humain (RLHF) pour atteindre une performance supérieure en matière de suivi des instructions et de dialogue.
Caractéristiques principales
- 🗣️ Capacités conversationnelles améliorées : Gestion améliorée des dialogues à plusieurs tours pour des interactions plus naturelles.
- ✅ Instructions précises à suivre : Conçu pour un respect précis et nuancé des instructions.
- 👤 Alignement des préférences humaines : Démontre une forte concordance avec les évaluations humaines, garantissant la satisfaction des utilisateurs.
- 💪 Performances robustes : Obtient des résultats compétitifs et constants sur différents indicateurs.
Utilisation prévue
Vicuna v1.5 est idéal pour les assistants de chat interactifs, les agents de service client virtuels et toute application exigeant une telle fonctionnalité. IA conversationnelle sophistiquéeIl excelle particulièrement dans les scénarios nécessitant une compréhension nuancée et la génération de réponses semblables à celles des humains.
Assistance linguistique
Le modèle prend principalement en charge Anglais mais offre la possibilité d'effectuer des ajustements ou une adaptation à d'autres langues selon les besoins.
Détails techniques
Architecture
Vicuna v1.5 est construit sur une base robuste architecture de transformateur, spécifiquement affiné à partir du Modèle LLaMA-13BLe modèle de transformateur est réputé pour son mécanismes d'auto-attention, qui permettent un traitement et une génération de texte efficaces.
Données d'entraînement
En tant que version peaufinée de Appel 2Vicuna v1.5 a bénéficié d'un réglage fin supervisé. L'ensemble de données d'entraînement complet comprend environ 125 000 conversations principalement issu de PartagerGPT.com.
Cet ensemble de données comprend un mélange diversifié de dialogues, garantissant un large éventail de sujets et de styles conversationnels.
Seuil de connaissances : Les connaissances du modèle sont à jour jusqu'à Septembre 2021.
Diversité et préjugés : Malgré les efforts déployés pour minimiser les biais grâce à la diversification des sources de données, des biais inhérents aux données d'entraînement initiales peuvent subsister. Des mesures d'atténuation continues sont mises en œuvre.
Indicateurs de performance
Vicuna v1.5 démontre des performances solides et robustes sur plusieurs benchmarks clés :
- 📊 MMLU (5 coups) : 52.1
- 🎯 TruthfulQA (0-shot) : 0,35
- ⭐ Score MT-Bench (évalué par GPT-4) : 6,39
- ✔️ Précision: Évalué à l'aide de métriques telles que la perplexité et l'alignement sur les préférences humaines.
- ⚡ Vitesse: Optimisé pour l'inférence en temps réel, essentiel pour les applications interactives réactives.
- 🛡️ Robustesse : Il traite efficacement un large éventail d'informations et sait bien généraliser à divers sujets.
Usage
Exemples de code
Les développeurs peuvent intégrer Vicuna v1.5 à leurs applications via des appels d'API standard. Voici un exemple d'extrait d'API (les détails d'implémentation peuvent varier selon la plateforme) :
Considérations éthiques
Vicuna v1.5 est développé en mettant fortement l'accent sur minimiser les biais et en garantissant une utilisation équitable et responsable. Les développeurs sont fortement encouragés à utiliser le modèle de manière éthique et à rester conscients des biais potentiels inhérents à tout contenu généré par l'IA.
Licence
Le modèle Vicuna v1.5 est disponible pour utilisation commerciale et non commercialeLes accords de licence spécifiques sont détaillés dans son dépôt officiel, et les utilisateurs doivent les consulter pour s'assurer de leur conformité.
Conclusion
Vicuna v1.5 (7B) se révèle être un modèle de langage puissant et précis, conçu spécifiquement pour optimiser les applications d'IA conversationnelle. Son architecture de transformateur robuste, son entraînement approfondi sur divers ensembles de données et sa forte adéquation aux préférences humaines le positionnent comme un outil polyvalent et efficace pour les développeurs souhaitant intégrer des fonctionnalités linguistiques sophistiquées à leurs projets.
Foire aux questions (FAQ)
Q1 : Qu'est-ce que Vicuna v1.5 (7B) ?
A1 : Vicuna v1.5 (7B) est un modèle de langage étendu avancé (LLM) développé par LMSYS, basé sur l'architecture transformeur et affiné à partir de LLaMA-13B, conçu pour améliorer les applications d'IA conversationnelle.
Q2 : Quelles sont les principales caractéristiques de Vicuna v1.5 ?
A2 : Les principales caractéristiques comprennent des capacités conversationnelles améliorées, un suivi précis des instructions, une forte adéquation aux préférences humaines et des performances robustes sur divers points de référence.
Q3 : D’où Vicuna v1.5 tire-t-elle ses données d’entraînement ?
A3 : Il s’agit d’une version améliorée de Llama 2, entraînée sur environ 125 000 conversations provenant principalement de PartagerGPT.com, abordant des sujets variés et des styles de conversation divers.
Q4 : La version 1.5 de Vicuna est-elle adaptée à un usage commercial ?
A4 : Oui, Vicuna v1.5 est disponible pour une utilisation commerciale et non commerciale. Les utilisateurs sont invités à consulter les accords de licence spécifiques fournis dans son dépôt officiel.
Q5 : Quel est le seuil de connaissances requis pour Vicuna v1.5 ?
A5 : Les connaissances du modèle sont à jour jusqu'en septembre 2021.
Terrain de jeu de l'IA



Se connecter