



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'deepseek/deepseek-r1',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="deepseek/deepseek-r1",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
DeepSeek R1 : Le modèle de raisonnement IA de nouvelle génération
DeepSeek R1, développé par IA DeepSeek, représente une avancée significative dans la technologie des modèles de langage de grande taille (LLM). Lancé le 21 janvier 2025Ce modèle version 1.0 est conçu avec soin pour exceller dans la résolution de problèmes complexes, le raisonnement mathématique avancé et l'assistance complète à la programmation.
✨ Informations essentielles :
- Nom du modèle : DeepSeek R1
- Développeur/Créateur : IA DeepSeek
- Date de sortie : 21 janvier 2025
- Version: 1.0
- Type de modèle : Modèle de langage étendu (LLM) fortement axé sur les capacités de raisonnement.
🚀 Des fonctionnalités et des performances inégalées
DeepSeek R1 se distingue par son architecture innovante et son approche d'entraînement, offrant des performances exceptionnelles pour un large éventail d'applications exigeantes.
- 🧠 Architecture mixte d'experts (MoE) : Ce système optimise les ressources de calcul en n'activant que 37 milliards de paramètres sur 671 milliards par jeton. Cette conception intelligente garantit l'efficacité sans compromettre les hautes performances.
- 💡 Raisonnement logique avancé : Permet au modèle de décomposer les problèmes complexes en étapes plus petites et gérables, améliorant considérablement la clarté et la précision de sa résolution de problèmes.
- 📈 Performances de référence supérieures : Obtient des scores impressionnants à divers tests de référence, notamment un remarquable 91,6 % au test de référence en mathématiques et des résultats compétitifs aux concours de programmation.
- 🧪 Formation par apprentissage par renforcement pur : Utilise une méthodologie d'entraînement unique basée sur l'apprentissage par renforcement pur, contournant un réglage fin supervisé extensif pour améliorer organiquement ses capacités de raisonnement de base.
- 📜 Licence MIT Open Source : Disponible sous licence MIT, permettant une utilisation et une modification sans restriction à des fins de recherche et commerciales.
💰 Structure tarifaire de DeepSeek R1
Coût des intrants : 0,0006064 $ pour 1000 jetons
Coût de production : 0,0024145 $ pour 1000 jetons
Veuillez noter : ces prix de lancement spéciaux sont valables jusqu’au 15 févrierLes prix seront ajustés ultérieurement.
🎯 Qui peut bénéficier de DeepSeek R1 ?
DeepSeek R1 est conçu pour les professionnels exigeant des capacités de raisonnement avancées, ce qui en fait un atout inestimable pour développeurs de logiciels, scientifiques des données et chercheursLes principales applications comprennent :
- Calculs mathématiques : Résoudre des équations complexes et effectuer des calculs complexes.
- Défis de programmation : Assistance dans diverses tâches de programmation, notamment le débogage et la génération de code efficace.
- Résolution logique de problèmes : Résoudre des problèmes logiques complexes et permettre une prise de décision éclairée.
Bien que DeepSeek R1 prenne principalement en charge AnglaisIl offre une adaptabilité à plusieurs langues en fonction des besoins spécifiques des utilisateurs.
⚙️ Analyse technique approfondie
Architecture
Le point fort du DeepSeek R1 réside dans ses fonctionnalités avancées. Architecture de mélange d'experts (MoE)Cette conception intelligente garantit que seule une fraction de ses nombreux paramètres est activée à chaque passage, réduisant considérablement les coûts de calcul tout en maintenant des niveaux de performance optimaux pour diverses tâches.
Données d'entraînement
Le modèle a été entraîné sur un ensemble de données vaste et très diversifié afin de garantir des performances robustes et polyvalentes.
- Source et taille des données : L'ensemble de données d'entraînement comprend une quantité impressionnante 14,8 billions de jetons, méticuleusement sélectionnés à partir d'un large éventail de dépôts de code accessibles au public et de textes mathématiques complets.
- Diversité et préjugés : Des efforts considérables ont été déployés lors de la constitution des ensembles de données afin de minimiser les biais et de maximiser la diversité des sujets et des styles, garantissant ainsi des performances hautement fiables et adaptables dans différents scénarios.
Indicateurs de performance
Un aperçu visuel illustrant les performances robustes de DeepSeek R1 sur les principaux benchmarks :

💻 Intégrer DeepSeek R1 à vos projets
DeepSeek R1 est facilement accessible sur le Plateforme API IA/MLVous pouvez identifier et utiliser le modèle grâce à son nom désigné : "DeepSeek R1".
Exemples de code
Voici une méthode typique pour référencer DeepSeek R1 via l'API :
// Exemple d'extrait de code pour l'intégration d'API
Documentation API complète
Pour obtenir des instructions détaillées sur l'intégration, les points de terminaison disponibles et les bonnes pratiques, veuillez consulter le site officiel. Documentation de l'API DeepSeek R1.
📜 Cadre éthique et licences
Lignes directrices éthiques
DeepSeek AI s'engage pleinement en faveur d'un développement éthique de l'IA et prône la transparence concernant les capacités et les limitations inhérentes à DeepSeek R1. Les utilisateurs sont vivement encouragés à adopter une utilisation responsable afin de limiter tout risque d'utilisation abusive ou d'application nuisible du contenu généré par le modèle.
Licence
DeepSeek R1 est distribué sous une licence licence open-source MITCette licence permissive accorde des droits d'utilisation étendus pour la recherche universitaire et les projets commerciaux, garantissant le respect des normes éthiques et des droits des créateurs.
Obtenez dès aujourd'hui un accès à l'API DeepSeek R1 !
❓ Foire aux questions (FAQ)
Q : Qu'est-ce que DeepSeek R1 et quelles sont ses principales capacités ?
A: DeepSeek R1 est un modèle de langage étendu (LLM) de pointe développé par DeepSeek AI, spécialisé dans le raisonnement avancé, la résolution de problèmes mathématiques complexes et une assistance robuste à la programmation. Il utilise une architecture Mixture-of-Experts (MoE) très performante.
Q : Qu’est-ce qui distingue DeepSeek R1 des autres LLM ?
A: Son architecture unique Mixture-of-Experts (MoE) permet une activation efficace des paramètres, et son entraînement via un apprentissage par renforcement pur (sans réglage fin supervisé extensif) contribue à ses performances exceptionnelles sur les benchmarks de raisonnement, comme 91,6 % sur MATH.
Q : Quel est l'utilisateur idéal pour DeepSeek R1 ?
A: DeepSeek R1 est parfaitement adapté aux développeurs de logiciels, aux data scientists et aux chercheurs qui ont besoin de capacités d'IA sophistiquées pour les calculs mathématiques, la résolution des problèmes de codage et la résolution de problèmes logiques complexes au sein de leurs applications.
Q : Quelles sont les conditions de licence de DeepSeek R1 ?
A: DeepSeek R1 est distribué sous licence open source MIT, qui autorise à la fois la recherche et l'utilisation commerciale. Cela garantit une grande flexibilité aux développeurs tout en respectant les principes éthiques et les droits des créateurs.
Q : Comment puis-je accéder à DeepSeek R1 pour mes projets ?
A : Vous pouvez accéder à DeepSeek R1 via le Plateforme API IA/MLPour des informations techniques complètes et des instructions d'intégration, veuillez consulter la documentation dédiée. Documentation de l'API.
Terrain de jeu de l'IA



Se connecter