



const { OpenAI } = require('openai');
const main = async () => {
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const text = 'Your text string goes here';
const response = await api.embeddings.create({
input: text,
model: 'text-embedding-3-large',
});
const embedding = response.data[0].embedding;
console.log(embedding);
};
main();
import json
from openai import OpenAI
def main():
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
text = "Your text string goes here"
response = client.embeddings.create(input=text, model="text-embedding-3-large")
embedding = response.data[0].embedding
print(json.dumps(embedding, indent=2))
main()

Détails du produit
✨ Dévoilement text-embedding-3-largeLe modèle d'intégration révolutionnaire d'OpenAI
Lancé par OpenAI sur 25 janvier 2024, text-embedding-3-large Ce modèle représente une avancée significative dans le domaine de la représentation de données textuelles. Ce modèle de nouvelle génération excelle dans la conversion de données textuelles complexes en représentations numériques multidimensionnelles hautement efficaces, essentielles pour une large gamme de tâches d'apprentissage automatique modernes.
Informations de base sur le modèle :
- ► Nom du modèle : text-embedding-3-large
- ► Promoteur: OpenAI
- ► Date de sortie : 25 janvier 2024
- ► Type de modèle : Intégration de texte
🚀 Principaux avantages et fonctionnalités clés
text-embedding-3-large se distingue par des fonctionnalités innovantes conçues pour une performance et une flexibilité supérieures :
-
✓ Performances de haut niveau : Ce modèle offre les plus performants Les intégrations réalisées à ce jour présentent des améliorations remarquables par rapport à leurs prédécesseurs et établissent de nouvelles références dans le secteur.
-
✓ Taille d'intégration flexible : Les développeurs bénéficient d'un contrôle sans précédent grâce à la prise en charge des dimensions d'intégration allant de 256 à 3072Cette flexibilité permet un compromis optimal entre les exigences de performance et la consommation de ressources.
-
✓ Prise en charge native du raccourcissement des embeddings : Une fonctionnalité unique qui permet aux développeurs de raccourcir les vecteurs d'intégration sans perte significative de leur représentation conceptuelle, idéale pour optimiser le stockage et réduire la charge de calcul.
💡 Cas d'utilisation idéaux pour text-embedding-3-large
Les performances robustes de ce modèle le rendent parfaitement adapté à un large éventail d'applications avancées :
- ▷ Recherche haute performance : Obtenez des résultats de recherche précis et ultra-rapides dans de vastes bases de données.
- ▷ Clustering avancé : Faciliter l'analyse et le regroupement sophistiqués des données pour une compréhension plus approfondie des ensembles de données complexes.
- ▷ Recommandations améliorées : Des moteurs de recommandation ultra-précis et contextuellement pertinents.
- ▷ Détection robuste des anomalies : Identifier efficacement les valeurs aberrantes et les schémas inhabituels au sein de grands flux de données.
- ▷ Mesure détaillée de la diversité : Analyser avec une grande précision l'étendue et la variété de vastes corpus textuels.
- ▷ Classification précise : Excellente capacité à catégoriser des données textuelles complexes, même dans des domaines exigeants.
- ▷ Assistance multilingue mondiale : Grâce à sa prise en charge améliorée de plusieurs langues, il est particulièrement bien adapté aux applications linguistiques internationales et diversifiées.
⚙️ Excellence en architecture technique et en formation
Informations détaillées :
-
● Architecture : Construit sur une technologie de pointe architecture basée sur les transformateurs, spécialement conçu pour générer des plongements de haute dimension avec des caractéristiques de performance supérieures.
-
● Données d'entraînement : Formé sur un ensemble de données vaste et très diversifié, méticuleusement sélectionnées pour saisir un vaste éventail de nuances linguistiques, de sémantiques et de complexités contextuelles.
-
● Source et taille des données : La formation du modèle comprenait milliards d'entrées de texte, garantissant une compréhension globale et approfondie du langage humain.
-
● Diversité et atténuation des préjugés : Des efforts considérables ont été déployés pour garantir une grande diversité dans les données d'entraînement afin de favoriser activement atténuer les biais, améliorant ainsi l'équité, la robustesse et la fiabilité du modèle pour différentes applications et groupes d'utilisateurs.
📈 Des indicateurs de performance inégalés
text-embedding-3-large démontre des améliorations significatives et offre des performances de premier ordre sur les principaux indicateurs de performance :
-
⚡ Score MIRACL : Une augmentation substantielle par rapport à 31,4% (réalisé par ada-002) à un résultat impressionnant 54,9%, mettant en évidence des capacités de récupération supérieures.
-
⚡ Score MTEB : Amélioré par rapport à 61,0% (avec ada-002) à un robuste 64,6%, confirmant ainsi l'amélioration de sa qualité d'intégration globale.
-
⚡ Précision: Fournit systématiquement précision de premier ordre sur un large éventail de critères de référence multiples, garantissant des résultats extrêmement fiables pour les tâches critiques.
-
⚡ Vitesse: Optimisé pour temps de traitement plus rapides, en conservant son efficacité même en utilisant ses options de dimensionnalité plus étendues.
-
⚡ Robustesse : Expositions stabilité de haute performance et ce, pour une grande variété de types d'entrées et dans des scénarios contextuels complexes, garantissant ainsi un fonctionnement fiable.
❓ Foire aux questions (FAQ) concernant text-embedding-3-large
Q1 : Qu'est-ce que text-embedding-3-large et quand a-t-il été publié ?
A1 : text-embedding-3-large est le modèle d'intégration de texte le plus récent et le plus avancé d'OpenAI. Il est conçu pour convertir du texte en vecteurs numériques de haute dimension qui capturent le sens sémantique. Il a été officiellement publié le 25 janvier 2024.
Q2 : Dans quelle mesure ses performances s'améliorent-elles par rapport aux modèles précédents comme l'ada-002 ?
A2 : Elle offre des améliorations significatives, notamment une augmentation du score MIRACL de 31,4 % (ada-002) à 54,9 % et du score MTEB de 61,0 % (ada-002) à 64,6 %. Ces indicateurs soulignent sa précision supérieure et la qualité globale de son intégration.
Q3 : Est-ce que text-embedding-3-large prend en charge des dimensions d'intégration personnalisables ?
A3 : Oui, il offre des tailles d'intégration flexibles, permettant aux développeurs de choisir parmi les dimensions suivantes : 256 à 3072Cela permet un réglage précis entre performances optimales et utilisation efficace des ressources.
Q4 : Quelles sont les principales applications où ce modèle excelle ?
A4 : Il est idéal pour la recherche haute performance, le clustering avancé, les systèmes de recommandation améliorés, la détection robuste des anomalies, la mesure détaillée de la diversité et la classification précise des textes, notamment dans les environnements nécessitant une prise en charge multilingue.
Q5 : Ce modèle est-il adapté au traitement de plusieurs langues ?
A5 : Absolument. text-embedding-3-large offre une prise en charge nettement améliorée de plusieurs langues, ce qui en fait une solution très efficace pour les applications globales et les ensembles de données linguistiques diversifiés.
Terrain de jeu de l'IA



Se connecter