



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/Qwen2.5-Coder-32B-Instruct',
messages: [
{
role: 'system',
content: 'You are SQL code assistant.',
},
{
role: 'user',
content: 'Could you please provide me with an example of a database structure that I could use for a project in MySQL?'
}
],
});
const message = result.choices[0].message.content;
console.log(\`Assistant: \${message}\`);
};
main();
import os
from openai import OpenAI
def main():
client = OpenAI(
api_key="",
base_url="https://api.ai.cc/v1",
)
response = client.chat.completions.create(
model="Qwen/Qwen2.5-Coder-32B-Instruct",
messages=[
{
"role": "system",
"content": "You are SQL code assistant.",
},
{
"role": "user",
"content": "Could you please provide me with an example of a database structure that I could use for a project in MySQL?",
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
if __name__ == "__main__":
main()

Détails du produit
Découvrez Qwen2.5 Coder 32B Instruct : Votre IA de programmation avancée
Le Instructions du codeur Qwen2.5 32B modèle, développé par L'équipe Qwen d'Alibaba Cloud et publié le 12 novembre 2024Ce modèle représente une avancée significative dans le domaine des modèles de langage à grande échelle pour le code open source (CodeLLM). Composant clé de la série Qwen2.5, ce modèle de langage causal est conçu pour améliorer la productivité des développeurs et faciliter l'apprentissage continu en programmation.
✨ Aperçu du modèle :
- • Nom du modèle : Instructions du codeur Qwen2.5 32B
- • Promoteur: L'équipe Qwen d'Alibaba Cloud
- • Version: Qwen2.5
- • Type de modèle : Modèle de langage causal
⭐ Caractéristiques principales et utilisation prévue
Le Qwen2.5 Coder 32B Instruct se distingue par ses capacités exceptionnelles, ce qui en fait un atout inestimable pour les développeurs :
- Excellence du code : Excelle dans génération, réparation et raisonnement du code.
- Large prise en charge linguistique : Supports plus de 40 langages de programmation, y compris les langages grand public et de niche comme Haskell et Racket.
- Contexte détaillé : Fournit Prise en charge des contextes longs jusqu'à 131 072 jetons, facilitant les tâches de codage complexes.
- Alignement humain : Fonctionnalités alignées sur les préférences humaines pour des interactions plus intuitives et efficaces.
- Application polyvalente : Idéal pour les tâches basées sur des instructions, la complétion de code, la correction d'erreurs et l'intégration dans les assistants de programmation.
⚙️ Analyse technique approfondie
Sous le capot, Qwen2.5 Coder 32B Instruct repose sur une architecture robuste garantissant ses hautes performances :
Points forts de l'architecture :
- • Architecture de transformateur dense
- • Intégration de position rotative (RoPE)
- • fonctions d'activation SwiGLU
- • Normalisation RMSNorm et biais QKV d'attention
- • 32,5 milliards de paramètres
- • 64 couches
- • Longueur du contexte : jusqu'à 131 072 jetons
- • Attention aux chefs : 40 pour Q, 8 pour KV
Données d'entraînement : Le modèle a été entraîné sur un vaste ensemble de données de 5,5 billions de jetonsCe corpus diversifié comprend du code source, des données d'ancrage texte-code et des données synthétiques, ce qui lui permet d'offrir des performances robustes pour une multitude de tâches de codage et de langages de programmation.
Seuil de connaissances : Les questions d'évaluation de LiveCodeBench proviennent de Juillet à novembre 2024, garantissant une évaluation des performances à jour.
🚀 Performances et analyses comparatives inégalées
Le modèle Qwen2.5 Coder 32B Instruct offre systématiquement des performances optimales. performances de haut niveau, rivalisant même avec des modèles propriétaires comme GPT-4o en compétences de codage.
Indicateurs clés de performance :
- Évaluation humaine : 92,7
- MBPP : 90,2
- LiveCodeBench : 31.4
- Aider: 73,7
- Araignée: 85.1
- CodeArena : 68,9
Points saillants de la comparaison :
- Précision: Réalise performances de pointe parmi les modèles open-source, ils concurrencent directement les solutions propriétaires comme GPT-4o.
- Vitesse: Offre une vitesse de sortie impressionnante de 83,2 jetons par seconde.
- Robustesse : Ses stratégies méticuleuses de nettoyage et d'équilibrage des données garantissent performances exceptionnelles dans divers langages de programmation et une identification efficace des erreurs.

Performances comparatives des modèles de codeur Qwen2.5.
💡 Instructions d'utilisation du codeur Qwen2.5 32B
Intégrez facilement Qwen2.5 Coder 32B Instruct à vos projets :
Exemples de code :
// Exemple de structure d'appel API (espace réservé) import openai client = openai.OpenAI(api_key="VOTRE_CLÉ_API") response = client.chat.completions.create( model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=[ {"role": "system", "content": "Vous êtes un assistant de code utile."}, {"role": "user", "content": "Écrivez une fonction Python pour inverser une chaîne de caractères."} ] ) print(response.choices[0].message.content) Le modèle est accessible sur le Plateforme API IA/ML sous le nom "Qwen2.5-Coder-32B-Instruction"Commencez ici.
Documentation de l'API :
Pour plus de détails et des guides d'intégration, veuillez consulter le site officiel. Documentation de l'API.
⚖️ Lignes directrices éthiques et agrément
Alibaba Cloud garantit le développement et le déploiement responsables de Qwen2.5 Coder 32B Instruct :
Alignement éthique : L'adéquation du modèle aux préférences humaines est évaluée en continu à l'aide du système interne Référence de Code Arena, en veillant à ce que les solutions de code générées répondent aux attentes des utilisateurs de manière responsable.
Licences : Qwen Plus opère sous des conditions de licence spécifiques fournies par Alibaba CloudIl est fortement conseillé aux utilisateurs de consulter les informations officielles relatives à la licence afin de comprendre les autorisations et les restrictions liées à son utilisation.
Accédez à l'API Qwen 2.5 Coder 32B Instruct et à ses détails de licence. ici.
❓ Foire aux questions (FAQ)
Q1 : Qu'est-ce que l'instruction Qwen2.5 Coder 32B ?
A1 : Il s'agit d'un modèle de langage de code large open-source de pointe (CodeLLM) d'Alibaba Cloud, conçu pour la génération, la réparation et le raisonnement de code avancés, prenant en charge plus de 40 langages de programmation.
Q2 : Quels langages de programmation prend-il en charge ?
A2 : Qwen2.5 Coder 32B Instruct maîtrise plus de 40 langages de programmation, couvrant à la fois les langages courants et les langages spécialisés comme Haskell et Racket.
Q3 : Comment ses performances se comparent-elles à celles des autres modèles ?
A3 : Il atteint des performances de pointe parmi les modèles open-source et rivalise avec des modèles propriétaires comme GPT-4o en termes de capacités de codage, avec une vitesse de sortie de 83,2 jetons par seconde.
Q4 : Quelle est la longueur de contexte maximale qu'il prend en charge ?
A4 : Le modèle offre une prise en charge étendue des contextes longs, capable de traiter jusqu'à 131 072 jetons.
Q5 : Où puis-je accéder à l’API pour Qwen2.5 Coder 32B Instruct ?
A5 : Vous pouvez accéder à l’API sur la plateforme d’API IA/ML, disponible ici, où une documentation détaillée est également fournie.
Terrain de jeu de l'IA



Se connecter