qwen-bg
max-ico04
32K
Dans
Dehors
max-ico02
Chat
max-ico03
désactiver
Qwen 1.5 (72B)
Qwen 1.5-72B : Modèle de langage basé sur Transformer avec prise en charge multilingue, 32K contexte et de fortes performances en matière de complétion de texte et de raisonnement.
Jetons gratuits de 1 $ pour les nouveaux membres
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });

const main = async () => {
  const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
  const response = await api.completions.create({
    prompt,
    model: 'Qwen/Qwen1.5-72B',
  });
  const text = response.choices[0].text;

  console.log('Completion:', text);
};

main();

                                
                                        from openai import OpenAI

client = OpenAI(
    api_key="",
    base_url="https://api.ai.cc/v1",
)


def main():
    response = client.completions.create(
        model="Qwen/Qwen1.5-72B",
        prompt="""
  All of the states in the USA:
  - Alabama, Mongomery;
  - Arkansas, Little Rock;
  """,
    )

    completion = response.choices[0].text
    print(f"Completion: {completion}")


main()
Docs

Une seule API pour plus de 300 modèles d'IA

Économisez 20 % sur les coûts et recevez des jetons gratuits d'une valeur de 1 $.
qwenmax-bg
image
Qwen 1.5 (72B)

Détails du produit

✨ Découvrez Qwen 1.5 (72B) : un modèle de langage IA avancé

Modèle de langage de base Qwen1.5-72B Il s'agit de la version bêta de Qwen2, un modèle de langage avancé basé sur l'architecture Transformer. Pré-entraîné sur un vaste corpus de données, il offre des améliorations significatives par rapport à son prédécesseur, Qwen.

Les principales améliorations comprennent assistance multilingue pour les modèles de base et de chat, des performances stables avec un longueur du contexte de 32 Koet la suppression du besoin de code_de_confiance_à_distance, rationalisant ainsi son déploiement et son utilisation.

🧠 Comprendre l'architecture du modèle Qwen 1.5 (72B)

Qwen1.5-72B est le modèle phare de la série Qwen1.5, qui comprend des modèles de langage de décodeur répartis en six tailles, de 0,5 octet à 72 octets. Modèle de base le plus volumineux de cette série, il repose sur une architecture robuste. Architecture Transformer.

Parmi ses caractéristiques notables, on peut citer : Activation de SwiGLUIl intègre une attention biaisée QKV et un tokenizer amélioré, adaptable à de multiples langues naturelles et encodages. Il combine également l'attention par requête de groupe et une attention par fenêtre glissante avec une attention complète pour des performances accrues.

💡 Remarque : Pour cette version bêta, Attention aux requêtes de groupe (GQA) et le mélange de Attention aux fenêtres coulissantes (SWA) et toute l'attention est actuellement omise.

⭐ Qwen 1.5 (72B) Performance et avantage concurrentiel

Qwen1.5-72B démontre constamment performances solides selon divers critères d'évaluationElle fait preuve de capacités exceptionnelles en matière de compréhension du langage, de raisonnement et de tâches mathématiques complexes.

Il est important de noter que surpasse Llama2-70B dans tous les tests de performance, consolidant ainsi sa position de modèle de langage de premier plan dans sa catégorie. Sa capacité à gérer de manière fiable un longueur du contexte de 32 Ko Ce qui la distingue constamment, c'est qu'elle assure des performances stables dans divers scénarios sans compromettre l'efficacité.

De plus, Qwen1.5-72B se révèle très compétitif par rapport à d'autres modèles de pointe du marché, tels que Mixtral 8x7bLes résultats des tests de référence confirment son aptitude à traiter des tâches linguistiques complexes avec précision et efficacité, ce qui en fait un acteur important dans le paysage des modèles de langage basés sur les transformeurs.

💡 Conseils d'utilisation pratiques pour Qwen 1.5 (72B)

Bien qu'il soit généralement conseillé d'utiliser versions de chat pour la génération de texteLe modèle de base Qwen1.5-72B est précieux pour diverses expériences et évaluations, notamment grâce à son faible biais lors des tâches de complétion de texte.

Vous pouvez facilement accéder à ce modèle performant via notre API IA/ML en vous inscrivant sur ce site web.

Pour ceux qui déploient le modèle localement, il est possible d'appliquer des techniques de post-entraînement avancées afin d'améliorer encore ses performances. Envisagez d'utiliser SFT (Réglage fin parcimonieux), RLHF (Apprentissage par renforcement avec retour d'information humain)ou un pré-entraînement continu pour adapter les résultats aux exigences spécifiques et optimiser les performances du modèle.

📜 Contrat de licence Qwen 1.5 (72B)

Le modèle Qwen1.5-72B est régi par le Contrat de licence Tongyi QianwenVous trouverez tous les détails de la licence sur le dépôt du modèle. GitHub ou Visage câlin.

Une demande d'autorisation d'utilisation commerciale n'est pas requise, sauf si votre produit ou service touche plus de [nombre manquant] personnes. 100 millions d'utilisateurs actifs mensuels.

🚀 Conclusion : Faire progresser les LLM avec Qwen 1.5 (72B)

En conclusion, Qwen1.5-72B représente un progrès significatif Il s'appuie sur des modèles de langage fondamentaux open source. Il offre des fonctionnalités avancées de saisie semi-automatique, une prise en charge multilingue robuste et une gestion contextuelle supérieure, ce qui en fait un outil essentiel pour les chercheurs et les développeurs souhaitant repousser les limites de l'IA.

❓ Foire aux questions (FAQ)

Q: Qu'est-ce que Qwen 1.5 (72B) ?

A: Qwen 1.5 (72B) est l'itération bêta de Qwen2, un modèle de langage avancé basé sur un transformateur de 72 milliards de paramètres, avec prise en charge multilingue et une longueur de contexte stable de 32K.

Q : Comment Qwen 1.5 (72B) se compare-t-il à ses concurrents ?

A: Il surpasse constamment le Llama2-70B sur divers benchmarks et est très compétitif avec des modèles comme le Mixtral 8x7b, particulièrement reconnu pour sa gestion fiable du contexte 32K.

Q : Le Qwen 1.5 (72B) est-il adapté à un usage commercial ?

R : Oui, son utilisation est soumise à la licence Tongyi Qianwen. Une demande d'autorisation d'utilisation commerciale spécifique n'est requise que si votre produit ou service compte plus de 100 millions d'utilisateurs actifs mensuels.

Q : Quelles sont les principales applications du modèle de base Qwen 1.5 (72B) ?

A: Bien que les versions de chat soient recommandées pour la génération directe de texte, le modèle de base est idéal pour les expériences, les évaluations et peut être amélioré avec des techniques de post-entraînement comme SFT ou RLHF pour personnaliser les résultats.

Q : Où puis-je trouver les détails de la licence et le référentiel de modèles ?

A: L'accord de licence et les détails du modèle Tongyi Qianwen sont disponibles sur ses plateformes officielles. GitHub et Visage câlin.

Terrain de jeu de l'IA

Testez tous les modèles d'API dans l'environnement de test avant de les intégrer. Nous proposons plus de 300 modèles à intégrer à votre application.
Essai gratuit
api-droite-1
modèle-bg02-1

Une API
Plus de 300 modèles d'IA

Économisez 20 % sur vos coûts