



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'eva-unit-01/eva-qwen-2.5-14b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="eva-unit-01/eva-qwen-2.5-14b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
📚 EVA Qwen2.5 14B : Un modèle de langage spécialisé pour la narration créative
Informations de base
- ✨ Nom du modèle : EVA Qwen2.5 14B
- 💻 Développeur/Créateur : EVA-UNIT-01
- 📅 Date de sortie : 31 octobre 2024
- 🔄 Version : 0,1
- 📖 Type de modèle : Génération de texte (jeux de rôle et écriture de récits)
Aperçu
EVA Qwen2.5 14B est un modèle de langage spécialisé Conçu avec précision pour les scénarios de jeu de rôle avancés et les tâches d'écriture créative complexes, ce modèle représente une optimisation complète des paramètres du modèle de base robuste Qwen2.5 14B. Il exploite un mélange diversifié d'ensembles de données synthétiques et naturelles afin d'améliorer considérablement ses capacités créatives et génératives.
Caractéristiques principales
- 🔢 Nombre de paramètres : 14 milliards de paramètres garantissant une compréhension et une génération du langage robustes.
- 📑 Longueur du contexte : Prend en charge une longueur de contexte maximale étendue de 128 000 jetons, facilitant un développement narratif étendu et cohérent.
- 🔧 Réglages fins : Optimisé pour une créativité et une polyvalence supérieures grâce à un entraînement rigoureux sur les ensembles de données.
- ⚙️ Configurations d'échantillonnage : Offre de multiples options d'échantillonnage, notamment l'échantillonnage de température et de top-k, pour adapter précisément le style et la créativité de la production.
Utilisation prévue
Ce modèle est principalement conçu pour scénarios de jeux de rôle, création d'histoires captivantes et projets d'écriture créative variésC'est un outil idéal pour les développeurs de jeux, les rédacteurs professionnels et les créateurs de contenu à la recherche d'une assistance avancée en matière d'IA.
Assistance linguistique
Actuellement, EVA Qwen2.5 14B offre une prise en charge robuste pour Anglais génération de langage.
🔧 Détails techniques
Architecture
L'EVA Qwen2.5 14B est architecturalement conçue sur la base de technologies avancées. Architecture Qwen2, qui est spécifiquement optimisé pour les tâches de modélisation causale du langage. Il utilise le 'Qwen2ForCausalLM' architecture et fonctionne avec un « Qwen2Tokenizer » pour un traitement de texte efficace.
Données d'entraînement
Le modèle a été entraîné sur un ensemble de données méticuleusement sélectionné et diversifié, qui comprend :
- 📄 Mélange de données Celeste 70B (à l'exclusion du sous-ensemble Opus Instruct).
- 📖 Jeu de données Opus_Instruct_25k de Kalomaze, soigneusement filtrées pour éliminer les réponses de refus.
- 🖼️ Sous-ensembles sélectionnés à partir de suggestions d'écriture et de nouvelles de haute qualité proposées par ChatGPT.
Les données d'entraînement totales comprennent environ 1,5 million de jetons dérivées de données de jeux de rôle, combinées à des données synthétiques spécifiquement conçues pour amplifier ses capacités narratives.
Source et taille des données
Les données d'entraînement intègrent un large éventail de sources, toutes visant à améliorer la capacité du modèle à générer des récits cohérents et captivants. Ce judicieux mélange de données synthétiques et naturelles contribue significativement à sa robustesse face à diverses consignes d'écriture.
Seuil de connaissances
Le modèle possède une date limite de connaissance de Octobre 2023.
Diversité et préjugés
La diversité inhérente au sein de l'ensemble de données d'entraînement est cruciale dans atténuer les biais potentielsCe qui rend le modèle plus adaptable et équitable selon les contextes et les styles narratifs. Des efforts continus sont déployés pour affiner l'ensemble de données afin d'améliorer durablement ses performances et de garantir une production éthique.
📊 Indicateurs de performance
- 🚀 Vitesse d'inférence : Le modèle atteint environ 15,63 jetons/seconde dans des conditions optimales avec un seul GPU.
- ⏱️ Latence : La latence moyenne est d'environ 3,03 secondes par requête, garantissant des interactions réactives.
- 💻 Configuration VRAM requise : Nécessite environ 29,6 Go de VRAM pour un fonctionnement efficace et sans accroc.
- ☔️ Débit : Capable de traiter plusieurs requêtes simultanément, tout en maintenant ses performances même en cas de forte charge.
🔄 Comparaison avec d'autres modèles
Avantages
- ✅ Haute performance, taille modérée : L'EVA Qwen2.5 14B offre un excellent compromis, alliant de puissantes capacités de traitement du langage naturel à une efficacité énergétique supérieure. Tandis que les modèles plus grands, comme Appel 3 (70B) Elles fournissent des analyses plus approfondies, mais nécessitent des ressources informatiques nettement supérieures.
- 🌍 Précision multilingue : Idéale pour les missions globales, l'EVA Qwen2.5 14B gère avec brio les contextes nuancés. GPT-4 Bien qu'elle prenne en charge les tâches multilingues, elle engendre des coûts opérationnels nettement plus élevés.
- 💾 Efficacité de la mémoire : Optimisé pour des performances plus fluides, notamment dans les configurations aux ressources limitées. Des modèles tels que Falcon 40B Elles offrent une puissance immense, mais nécessitent une mémoire considérablement plus importante.
- 🧩 Polyvalence : EVA Qwen excelle dans un large éventail de tâches sans nécessiter de réglages poussés. FLAN-T5 Elle démontre également son adaptabilité, mais peut nécessiter davantage d'ajustements pour des applications hautement spécialisées.
Limites
- ⚠️ Profondeur du paramètre inférieur : Il lui manque la puissance d'analyse complexe des modèles ultra-larges comme Llama 3.2 90B Vision Instruct Turbo, qui sont mieux adaptées au traitement d'ensembles de données vastes et complexes.
- ⚠️ Puissance moins spécialisée : Pour des tâches très spécifiques ou de niche, des modèles tels que Claude 3.5 Sonnet et GPT-4o peuvent offrir des performances supérieures grâce à leurs ensembles de données et à un nombre de paramètres nettement plus importants.
- ⚠️ Précision vs. Ressources : Bien que l'EVA Qwen soit très efficace pour les applications générales, pour des exigences de précision maximale, des modèles à paramètres plus élevés comme Gemini 1.5 Pro sont généralement plus adaptés.
📦 Utilisation et intégration
Exemples de code
Le modèle EVA Qwen2.5 14B est facilement accessible sur le Plateforme API IA/ML sous l'identifiant "eva-unit-01/eva-qwen-2.5-14b".
import openai client = openai.OpenAI( api_key="VOTRE_CLÉ_API", base_url="https://api.ai.cc/v1", ) chat_completion = client.chat.completions.create( messages=[ { "role": "utilisateur", "content": "Racontez-moi une courte histoire sur un brave chevalier et un sage dragon.", } ], model="eva-unit-01/eva-qwen-2.5-14b", max_tokens=200, temperature=0.7, ) print(chat_completion.choices[0].message.content) Documentation de l'API
Complet Documentation de l'API est disponible pour guider les développeurs tout au long d'une intégration et d'une utilisation transparentes.
💡 Principes éthiques
Le développement d'EVA Qwen2.5 respecte des considérations éthiques rigoureuses concernant le contenu généré par l'IA. Cela inclut une forte emphase sur transparence dans l'utilisation et l’identification et l’atténuation proactives des biais potentiels dans les récits produits. Les créateurs préconisent une application responsable et éthique du modèle dans tous les contextes créatifs.
📃 Licences
EVA Qwen2.5 14B est distribué sous la licence Licence Apache 2.0Cette licence permissive accorde des droits d'utilisation à la fois commerciaux et non commerciaux, permettant aux développeurs d'intégrer le modèle dans un large éventail d'applications sans limitations restrictives.
🚀 Accédez dès aujourd'hui à l'API EVA Qwen2.5 : Inscrivez-vous maintenant !
❓ Foire aux questions (FAQ)
Q1 : À quoi sert principalement l'EVA Qwen2.5 14B ?
UN: EVA Qwen2.5 14B est un modèle de langage spécialisé, optimisé pour scénarios de jeux de rôle, création d'histoires originales et diverses tâches d'écriture créativece qui le rend idéal pour les écrivains, les développeurs de jeux et les créateurs de contenu.
Q2 : Quelle est la longueur de contexte maximale prise en charge par ce modèle ?
UN: Le modèle prend en charge une longueur de contexte maximale impressionnante de 128 000 jetons, permettant une contribution exhaustive et détaillée pour des récits complexes.
Q3 : Comment l'EVA Qwen2.5 14B se compare-t-elle aux modèles plus grands comme le Llama 3 ou le GPT-4 ?
UN: EVA Qwen2.5 14B offre un équilibre optimal entre hautes performances et efficacité modérée des ressourcesAlors que les modèles plus grands peuvent offrir une puissance d'analyse plus poussée ou des capacités multilingues plus étendues, EVA Qwen est optimisé pour les tâches créatives avec une meilleure efficacité de mémoire et des coûts de calcul réduits.
Q4 : Quelle est la licence pour EVA Qwen2.5 14B ?
UN: Le modèle est commercialisé sous la licence Licence Apache 2.0, qui autorise une utilisation à la fois commerciale et non commerciale, offrant ainsi une grande flexibilité aux développeurs.
Q5 : Comment puis-je accéder à EVA Qwen2.5 14B et l'utiliser ?
UN: Vous pouvez accéder au modèle via le Plateforme API IA/ML en utilisant l'identifiant du modèle "eva-unit-01/eva-qwen-2.5-14b"Une documentation API détaillée et des exemples de code sont fournis pour une intégration facile.
Terrain de jeu de l'IA



Se connecter