



const { OpenAI } = require('openai');
const main = async () => {
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const text = 'Your text string goes here';
const response = await api.embeddings.create({
input: text,
model: 'text-embedding-3-large',
});
const embedding = response.data[0].embedding;
console.log(embedding);
};
main();
import json
from openai import OpenAI
def main():
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
text = "Your text string goes here"
response = client.embeddings.create(input=text, model="text-embedding-3-large")
embedding = response.data[0].embedding
print(json.dumps(embedding, indent=2))
main()

Détails du produit
Présentation text-embedding-3-smallLa dernière innovation d'OpenAI en matière d'intégration de texte
Publié par OpenAI le 25 janvier 2024, text-embedding-3-small est un modèle d'intégration de texte de pointe, conçu pour des performances et une efficacité supérieures. Ce modèle représente une avancée significative, transformant des entrées textuelles diverses en représentations numériques compactes (intégrations) très efficaces pour diverses applications d'apprentissage automatique. Il constitue un successeur performant à text-embedding-ada-002, offrant des capacités améliorées dans tous les domaines.
🌟 Principales caractéristiques et avantages
- ✅ Performances améliorées : Réalise des améliorations remarquables dans la recherche multilingue (MIRACL) et les tâches spécifiques à l'anglais (MTEB), ce qui la rend plus robuste et plus précise.
- 💰 Rentabilité : Vivez une expérience substantielle Coût réduit de 5 fois par rapport à son prédécesseur, text-embedding-ada-002, offrant des économies importantes aux promoteurs et aux entreprises.
- 📏 Format compact : Avec une taille d'intégration de 512 dimensionsCe modèle est idéal pour les environnements où la mémoire et le stockage sont limités, garantissant un fonctionnement efficace sans compromettre la qualité.
🚀 Applications polyvalentes
Le text-embedding-3-small Ce modèle est conçu pour un large éventail d'applications, permettant une analyse et une intégration intelligentes du texte :
- Recherche intelligente : Améliorez les algorithmes de recherche en classant précisément les résultats en fonction de leur pertinence sémantique.
- Regroupement de textes : Regroupez les documents ou chaînes de caractères similaires pour une analyse et une organisation avancées des données.
- Systèmes de recommandation : Alimentez des moteurs de recommandation sophistiqués en suggérant des articles connexes en fonction de la similarité textuelle.
- Détection des anomalies : Identifiez avec une plus grande précision les schémas inhabituels ou les valeurs aberrantes au sein de grands ensembles de données.
- Mesure de la diversité : Analysez l'étendue et la variété des données textuelles pour obtenir des informations plus approfondies.
- Classification du contenu : Classer les chaînes de caractères en les associant à leurs étiquettes sémantiquement les plus similaires.
🌐 Assistance linguistique étendue
Conçu pour un public mondial, text-embedding-3-small offre un soutien robuste pour plusieurs langues, améliorant considérablement son accessibilité et son utilité à travers divers ensembles de données linguistiques et applications internationales.
⚙️ Spécifications techniques
- Architecture: Le modèle exploite une technologie de pointe architecture basée sur les transformateurs, méticuleusement optimisé pour l'efficacité de calcul et la génération d'embeddings haute performance.
- Données d'entraînement : Formé sur un vaste et diversifiée collection de sources textuelles, ce qui lui permet de saisir un large éventail de schémas linguistiques et de nuances sémantiques. Cette formation complète minimise les biais et garantit des performances robustes pour des publics et des cas d'utilisation variés.
- Source et taille des données : Elle englobe des millions de documents textuels, offrant au modèle une compréhension approfondie des complexités et des contextes linguistiques.
📊 Indicateurs de performance
Le text-embedding-3-small Ce modèle établit de nouvelles normes en matière de performances d'intégration :
- ⭐ Améliorations significatives par rapport à text-embedding-ada-002:
- Score MIRACL : Augmentation de 31,4 % à 44,0 % (une amélioration notable de 12,6 %).
- Score MTEB : Amélioration de 61,0 % à 62,3 %.
- 🎯 Précision accrue : Démontre une précision supérieure sur les benchmarks multilingues et spécifiques à l'anglais, fournissant des représentations plus précises et plus fiables.
- ⚡ Vitesse accrue : Fonctionne avec une efficacité accrue par rapport aux modèles précédents, ce qui permet de réduire la latence et les besoins en ressources de calcul.
- 🛡️ Robustesse : Capable de traiter efficacement divers types d'entrées, garantissant des performances constantes et fiables pour une large gamme d'applications et de complexités de données.
❓ Foire aux questions (FAQ)
Q1 : Qu'est-ce que text-embedding-3-small ?
A1 : Il s'agit du dernier modèle d'intégration de texte d'OpenAI, publié le 25 janvier 2024, conçu pour convertir le texte en représentations numériques efficaces (intégrations) pour les tâches d'apprentissage automatique, offrant des performances et une rentabilité améliorées par rapport à ses prédécesseurs.
Q2 : Comment se compare-t-il à text-embedding-ada-002 ?
A2 : text-embedding-3-small offre des performances nettement améliorées (par exemple, des scores MIRACL et MTEB plus élevés) et est 5 fois plus rentable que text-embedding-ada-002, tout en conservant une taille d'intégration compacte.
Q3 : Quels sont les principaux cas d'utilisation de ce modèle ?
A3 : Il est idéal pour un large éventail d’applications, notamment la recherche intelligente, le regroupement de textes, les systèmes de recommandation, la détection d’anomalies, la mesure de la diversité et la classification de textes dans différentes langues.
Q4 : Est-ce que text-embedding-3-small convient aux applications multilingues ?
A4 : Oui, il bénéficie d'une prise en charge multilingue étendue et présente des améliorations significatives des performances sur les benchmarks de recherche multilingue (MIRACL), ce qui le rend très adapté à divers ensembles de données linguistiques.
Q5 : Quelle est la dimension d'intégration de text-embedding-3-small ?
A5 : Le modèle génère des plongements de taille compacte. 512 dimensions, ce qui le rend efficace pour les environnements où la mémoire et le stockage sont limités.
Terrain de jeu de l'IA



Se connecter