



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'qwen/qvq-72b-preview',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="qwen/qvq-72b-preview",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
✨ QVQ-72B-Aperçu : Déploiement d’une IA multimodale avancée
Présentation Aperçu du QVQ-72B, un modèle de recherche expérimental issu de l'innovation Équipe Qwen, officiellement publié le 25 décembre 2024Ce système de pointe Modèle de langage multimodal Conçu pour améliorer considérablement les capacités de raisonnement visuel, ce logiciel intègre de manière transparente un traitement avancé des entrées textuelles et visuelles. Il excelle dans la résolution de problèmes complexes exigeant une compréhension approfondie du contenu visuel.
Informations de base :
- Nom du modèle : Aperçu du QVQ-72B
- Développeur/Créateur : Équipe Qwen
- Date de sortie : 25 décembre 2024
- Version: 1.0
- Type de modèle : Modèle de langage multimodal
🚀 Principales caractéristiques et fonctionnalités
- ✅ Raisonnement multimodal : Analyser et raisonner à l'aide de textes et d'images pour une compréhension et une interaction optimales.
- 🧠 Nombre élevé de paramètres : Avec 72 milliards de paramètresIl fournit des réponses détaillées et nuancées pour des tâches diverses.
- 📊 Indicateurs de performance : J'ai réalisé une performance impressionnante 70,3 % sur le banc d'essai MMMU (Multimodal Massive Multi-task Understanding)., démontrant ainsi des performances robustes dans des contextes multidisciplinaires.
- 🔄 Gestion dynamique des entrées : Il prend en charge différents types d'entrées, notamment des images uniques, des invites textuelles et des problèmes mathématiques avec des composantes visuelles, permettant ainsi des applications diverses.
- 📈 Compréhension visuelle améliorée : Elle excelle dans l'interprétation de données visuelles complexes telles que les graphiques, les diagrammes et les équations, ce qui la rend idéale pour les domaines éducatifs et scientifiques.
💡 Cas d'utilisation prévus
Aperçu du QVQ-72B est spécialement conçu pour développeurs et chercheurs ils visent à intégrer des capacités d'IA de pointe à leurs projets. Parmi les applications potentielles :
- 📚 Outils pédagogiques : Créez des environnements d'apprentissage dynamiques et des tuteurs intelligents.
- 🗣️ Apprentissage interactif : Créez des expériences interactives de nouvelle génération.
- ❓ Systèmes de réponse visuelle aux questions : Développer des systèmes sophistiqués capables de répondre à des questions à partir d'entrées visuelles.
- ✍️ Génération automatisée de contenu : Améliorez la création de contenu grâce à une IA visuellement intelligente.
🌍 Assistance linguistique
Le Aperçu du QVQ-72B le modèle offre un support robuste pour plusieurs langues, y compris Anglais et chinois, élargissant considérablement son champ d'application à divers contextes linguistiques et mondiaux.
⚙️ Détails techniques
Architecture:
Aperçu du QVQ-72B utilise un système hautement optimisé architecture basée sur les transformateursConçu spécifiquement pour le traitement efficace de données multimodales complexes, ce système permet une intégration et une analyse fluides des données visuelles et textuelles.
Données d'entraînement :
Le modèle a été rigoureusement entraîné sur un ensemble de données complet prenant en charge un large éventail de formats de texte et d'image, il garantit des performances robustes dans divers scénarios réels.
- Source et taille des données : L'ensemble de données d'entraînement couvre un large éventail de sujets et de genres, soigneusement sélectionnés pour garantir la diversité des réponses générées.
- Diversité et atténuation des préjugés : La curation des données s'est concentrée sur la minimisation des biais tout en maximisant la diversité thématique et stylistique, améliorant considérablement la polyvalence et la solidité éthique du modèle.
📈 Indicateurs de performance et comparaisons
Afin de donner une compréhension claire de Aperçu du QVQ-72B Les performances de ce modèle ont été rigoureusement évaluées. Vous trouverez ci-dessous une représentation visuelle de son positionnement par rapport à d'autres modèles.

Ce graphique illustre Aperçu du QVQ-72B un avantage concurrentiel, soulignant notamment sa capacité à réaliser des tâches complexes de compréhension multimodale.
💻 Comment utiliser l'aperçu du QVQ-72B
Exemples de code :
Intégration Aperçu du QVQ-72B L'intégration dans vos applications est simple. Le modèle est accessible sur le Plateforme API IA/ML sous l'identifiant «Aperçu du QVQ-72B".
Documentation de l'API :
Pour plus de détails sur l'intégration, les points de terminaison et les paramètres disponibles, veuillez consulter le Documentation API détaillée:
Accédez à la documentation de l'API ici.
🛡️ Principes éthiques et IA responsable
Le Équipe Qwen est profondément attaché aux considérations éthiques dans le développement de l'IA. Nous défendons transparence concernant Aperçu du QVQ-72B capacités et limitations inhérentes.
Important: Nous encourageons fortement utilisation responsable afin de prévenir toute utilisation abusive ou tout déploiement potentiel du contenu généré dans des applications malveillantes.
📄 Informations sur les licences
Aperçu du QVQ-72B est mis à disposition sous une licence licence open-sourceCette licence accorde à la fois droits de recherche et d'utilisation commerciale, tout en garantissant le strict respect des normes éthiques et des droits des créateurs.
Prêt à intégrer Aperçu du QVQ-72B dans vos projets ?
🔗 Téléchargez l'API QVQ-72B-Preview ici❓ Foire aux questions (FAQ)
Q1 : Qu'est-ce que QVQ-72B-Preview ?
UN: QVQ-72B-Preview est un modèle de langage multimodal expérimental développé par l'équipe Qwen. Il est conçu pour améliorer le raisonnement visuel en traitant à la fois les entrées textuelles et visuelles afin de générer des réponses complètes, et excelle particulièrement dans les problèmes nécessitant une compréhension visuelle.
Q2 : Quelles sont les principales capacités de ce modèle ?
UN: Ses principales caractéristiques comprennent le raisonnement multimodal (texte + images), un nombre élevé de paramètres (72 milliards) pour des réponses nuancées, de solides performances sur le benchmark MMMU (70,3 %), une gestion dynamique des entrées pour différents types de données et une compréhension visuelle améliorée pour les graphiques, les diagrammes et les équations.
Q3 : Comment les développeurs peuvent-ils accéder à QVQ-72B-Preview ?
UN: Les développeurs peuvent accéder au modèle via le Plateforme API IA/ML, répertorié sous le nom « QVQ-72B-Preview ». Une documentation API détaillée et des exemples de code sont disponibles pour faciliter l'intégration.
Q4 : Quelles langues prend-il en charge ?
UN: Le modèle prend en charge plusieurs langues, notamment Anglais et chinoisce qui le rend polyvalent pour des applications mondiales.
Q5 : QVQ-72B-Preview est-il un logiciel libre ?
UN: Oui, QVQ-72B-Preview est publié sous une licence licence open-source, autorisant à la fois la recherche et l'utilisation commerciale tout en respectant les normes éthiques et les droits des créateurs.
Terrain de jeu de l'IA



Se connecter