



const { OpenAI } = require('openai');
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const main = async () => {
const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
const response = await api.completions.create({
prompt,
model: 'Qwen/Qwen1.5-1.8B',
});
const text = response.choices[0].text;
console.log('Completion:', text);
};
main();
from openai import OpenAI
client = OpenAI(
api_key="",
base_url="https://api.ai.cc/v1",
)
def main():
response = client.completions.create(
model="Qwen/Qwen1.5-1.8B",
prompt="""
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
""",
)
completion = response.choices[0].text
print(f"Completion: {completion}")
main()

Détails du produit
Découvrez le puissant Qwen 1.5 (1.8B)Qwen 1.5 représente la dernière avancée de la série Qwen d'Alibaba Cloud, une gamme de modèles de langage de pointe. Cette série impressionnante offre une grande diversité de modèles, allant de 0,5 milliard à 72 milliards de paramètres. Conçue pour surpasser ses concurrents, Qwen 1.5 apporte des améliorations significatives en termes de performances brutes et d'adéquation aux préférences humaines, établissant ainsi une nouvelle norme pour une IA accessible et robuste.
✨ Déballage de Qwen 1.5 (1,8B) : Description du noyau
Le Qwen 1.5 (1.8B) Le modèle Qwen 1.5, une des premières versions de la série Qwen2, est un modèle de langage sophistiqué basé sur l'architecture Transformer et composé uniquement de décodeurs. Il a fait l'objet d'un pré-entraînement intensif sur un vaste corpus de données, garantissant ainsi une connaissance approfondie et de solides capacités de génération. La famille Qwen 1.5 comprend des modèles de différentes tailles : 0,5 B, 1,8B, 4B, 7B, 14B et 72B. Chaque taille est disponible à la fois comme modèle de langage de base et comme modèle de chat aligné sur les instructions, répondant ainsi à divers besoins d'application.
Son architecture fondamentale repose sur la conception avancée du transformateur, intégrant des innovations clés telles que :
- ✅ Activation de SwiGLU : Améliore la non-linéarité et les performances du modèle.
- ✅ Attention aux biais QKV : Améliore la stabilité et l'efficacité des mécanismes d'attention.
- ✅ Requête de groupe Attention : Optimise l'efficacité des modèles de plus grande taille.
- ✅ Attention hybride : Une combinaison d'attention par fenêtre glissante et d'attention totale pour gérer efficacement le contexte.
💡 Longueur du contexte : Qwen 1.5 prend en charge une fonctionnalité impressionnante longueur du contexte du jeton de 32 Ko, ce qui lui permet de traiter et de générer des séquences de texte nettement plus longues et plus complexes, essentielles pour les applications avancées.
🌐 Capacités multilingues : L'un de ses principaux atouts est sa prise en charge multilingue améliorée, grâce à un tokenizer perfectionné, spécialement adapté pour gérer avec une grande précision un large éventail de langues naturelles et de codes de programmation.
🚀 Qwen 1.5 Face à la concurrence
Dans le paysage en évolution rapide des grands modèles de langage, Qwen 1.5 représente une concurrence redoutable. Lorsqu'on la compare à des leaders du secteur tels que Claude 2.1, GPT-3.5-Turbo, et Mixtral, Qwen 1.5 démontre de manière constante performances supérieures selon divers indicateurs.
Sur les tests de performance traditionnels évaluant des capacités fondamentales telles que la compréhension du langage et le raisonnement, Qwen 1.5 fait preuve d'une efficacité exceptionnelle. De plus, ses modèles de conversation ont obtenu des scores impressionnants sur des benchmarks largement reconnus, tels que : Banc MT et AlpacaEval, ce qui indique un haut degré d'adéquation avec les préférences humaines et la qualité de la conversation.

Illustration des performances de réglage fin de Qwen 1.5.
Les performances multilingues du modèle sont également remarquables, avec d'excellents résultats dans un large éventail de langues. Il a été rigoureusement évalué sur de nombreux critères d'évaluation, notamment les examens, les tâches de compréhension, la traduction et la résolution de problèmes mathématiques, ce qui confirme sa polyvalence pour des applications internationales.
🛠️ Conseils d'utilisation essentiels pour Qwen 1.5
- ⚙️ Installation : Pour garantir un fonctionnement optimal et éviter les erreurs courantes, il est fortement recommandé d'installer
transformateurs>=4.37.0. - ⚠️ Attention concernant le modèle de base : Pour une qualité optimale de génération de texte, il est généralement conseillé ne pas utiliser directement les modèles de langage de base.
- 💡 Techniques post-entraînement : Pour exploiter pleinement le potentiel de Qwen 1.5, envisagez d'appliquer des techniques de post-entraînement telles que le réglage fin supervisé (SFT), l'apprentissage par renforcement à partir de commentaires humains (RLHF) ou un pré-entraînement continu sur le modèle pour des tâches ou des domaines spécifiques.
⚖️ Contrat de licence pour Qwen 1.5
Chaque modèle de la série Qwen 1.5 possède sa propre licence, détaillée dans son répertoire Hugging Face. Il est important de noter que vous devez… PAS Il est nécessaire de soumettre une demande spéciale pour une utilisation commerciale, ce qui simplifie le déploiement pour les entreprises et les développeurs.
🌟 Conclusion : L'avenir des LLM avec Qwen 1.5
Le Qwen 1.5 (1.8B) Ce modèle représente une avancée majeure dans le domaine des grands modèles de langage. Ses capacités impressionnantes, associées à des performances compétitives et à une prise en charge multilingue robuste, en font un outil très prometteur pour un large éventail d'applications d'IA. À mesure que ce modèle évolue, nous pouvons anticiper des fonctionnalités encore plus avancées et des améliorations de performances supplémentaires, ce qui en fera un atout essentiel pour l'innovation.
❓ Foire aux questions (FAQ)
Q : Qu'est-ce que Qwen 1.5 (1.8B) ?
A: Qwen 1.5 (1.8B) est la version bêta de Qwen2, un modèle de langage étendu basé sur un transformateur et un décodeur uniquement, développé par Alibaba Cloud, remarquable pour son équilibre entre performance et efficacité.
Q : Quelles sont les principales caractéristiques architecturales de Qwen 1.5 ?
A: Il utilise une architecture Transformer avec activation SwiGLU, biais d'attention QKV, attention de requête de groupe et un mélange de fenêtre glissante et d'attention complète, prenant en charge une longueur de contexte de jetons de 32K.
Q : Comment Qwen 1.5 se compare-t-il à d'autres LLM comme GPT-3.5-Turbo ou Mixtral ?
A: Qwen 1.5 démontre des performances supérieures en matière de capacités de base, de compréhension du langage, de raisonnement et d'alignement avec les préférences humaines sur divers points de référence.
Q : Puis-je utiliser Qwen 1.5 à des fins commerciales ?
R : Oui, c'est possible. Aucune demande spéciale n'est requise pour une utilisation commerciale. Veuillez consulter la licence spécifique de chaque modèle dans le dépôt Hugging Face.
Q : Existe-t-il des recommandations pour utiliser efficacement Qwen 1.5 ?
A: Il est recommandé d'installer transformateurs>=4.37.0 et d’appliquer des techniques de post-entraînement comme SFT ou RLHF plutôt que d’utiliser directement les modèles de base pour la génération de texte.
Terrain de jeu de l'IA



Se connecter