



const { OpenAI } = require('openai');
const main = async () => {
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const text = 'Your text string goes here';
const response = await api.embeddings.create({
input: text,
model: 'text-embedding-3-large',
});
const embedding = response.data[0].embedding;
console.log(embedding);
};
main();
import json
from openai import OpenAI
def main():
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
text = "Your text string goes here"
response = client.embeddings.create(input=text, model="text-embedding-3-large")
embedding = response.data[0].embedding
print(json.dumps(embedding, indent=2))
main()

Detalle del producto
✨ Revelación incrustación de texto 3-grande:El innovador modelo de integración de OpenAI
Lanzado por OpenAI en 25 de enero de 2024, incrustación de texto 3-grande Marca un avance significativo en la tecnología de incrustación de texto. Este modelo de nueva generación destaca por convertir datos textuales complejos en representaciones numéricas altamente efectivas y de alta dimensión, cruciales para diversas tareas modernas de aprendizaje automático.
Información básica del modelo:
- ► Nombre del modelo: incrustación de texto 3-grande
- ► Revelador: OpenAI
- ► Fecha de lanzamiento: 25 de enero de 2024
- ► Tipo de modelo: Incrustación de texto
🚀 Ventajas principales y características clave
incrustación de texto 3-grande Se destaca por sus características innovadoras diseñadas para un rendimiento y una flexibilidad superiores:
-
✓ Rendimiento de primer nivel: Este modelo ofrece la de mayor rendimiento integraciones hasta la fecha, mostrando mejoras notables respecto de sus predecesores y estableciendo nuevos puntos de referencia en la industria.
-
✓ Tamaño de incrustación flexible: Los desarrolladores obtienen un control sin precedentes con soporte para incrustar dimensiones que van desde 256 hasta 3072Esta flexibilidad permite un equilibrio óptimo entre los requisitos de rendimiento y el consumo de recursos.
-
✓ Soporte nativo para acortar incrustaciones: Una capacidad única que permite a los desarrolladores acortar vectores de incrustación sin una pérdida significativa en su representación conceptual, ideal para optimizar el almacenamiento y reducir la sobrecarga computacional.
💡 Casos de uso ideales para incrustación de texto 3-grande
Las robustas capacidades de este modelo lo hacen perfectamente adecuado para una amplia gama de aplicaciones avanzadas:
- ▷ Búsqueda de alto rendimiento: Obtenga resultados de búsqueda precisos y ultrarrápidos en grandes repositorios de información.
- ▷ Agrupación avanzada: Facilite el análisis y la agrupación de datos sofisticados para obtener conocimientos más profundos sobre conjuntos de datos complejos.
- ▷ Recomendaciones mejoradas: Potencie motores de recomendación altamente precisos y contextualmente relevantes.
- ▷ Detección robusta de anomalías: Identifique de manera eficiente valores atípicos y patrones inusuales dentro de grandes flujos de datos.
- ▷ Medición detallada de la diversidad: Analizar la amplitud y variedad de corpus textuales extensos con alta precisión.
- ▷ Clasificación precisa: Sobresalga en la categorización de datos de texto complejos, incluso en dominios desafiantes.
- ▷ Soporte multilingüe global: Con soporte mejorado para múltiples idiomas, es excepcionalmente adecuado para aplicaciones lingüísticas internacionales y diversas.
⚙️ Arquitectura Técnica y Excelencia en Formación
Información detallada:
-
● Arquitectura: Construido sobre una base de vanguardia arquitectura basada en transformadores, diseñado específicamente para generar incrustaciones de alta dimensión con características de rendimiento superiores.
-
● Datos de entrenamiento: Entrenado en un conjunto de datos extenso y muy diverso, meticulosamente seleccionado para capturar una amplia gama de matices lingüísticos, semántica y complejidades contextuales.
-
● Fuente de datos y tamaño: El entrenamiento del modelo implicó miles de millones de entradas de texto, garantizando una comprensión integral y profunda del lenguaje humano.
-
● Diversidad y mitigación de sesgos: Se hizo un esfuerzo significativo para garantizar una alta diversidad en los datos de capacitación para participar activamente. mitigar sesgos, mejorando así la imparcialidad, solidez y confiabilidad del modelo en diferentes aplicaciones y grupos de usuarios.
📈 Métricas de rendimiento inigualables
incrustación de texto 3-grande demuestra mejoras significativas y ofrece un rendimiento de primer nivel en los puntos de referencia clave:
-
⚡ Puntuación MIRACL: Un aumento sustancial de 31,4% (logrado por ada-002) a un impresionante 54,9%, destacando las capacidades de recuperación superiores.
-
⚡ Puntuación MTEB: Mejorado de 61,0% (con ada-002) a un robusto 64,6%, afirmando su calidad de incrustación general mejorada.
-
⚡ Exactitud: Entrega consistentemente precisión de primer nivel en una amplia gama de puntos de referencia múltiples, lo que garantiza resultados altamente confiables para tareas críticas.
-
⚡ Velocidad: Optimizado para tiempos de procesamiento más rápidos, manteniendo la eficiencia incluso al utilizar sus opciones de mayor dimensionalidad.
-
⚡ Robustez: Exposiciones estabilidad de alto rendimiento en una variedad diversa de tipos de entrada y escenarios contextuales complejos, lo que garantiza un funcionamiento confiable.
❓ Preguntas frecuentes (FAQ) sobre text-embedding-3-large
Pregunta 1: ¿Qué es text-embedding-3-large y cuándo se lanzó?
A1: text-embedding-3-large es el modelo de incrustación de texto más reciente y avanzado de OpenAI, diseñado para convertir texto en vectores numéricos de alta dimensión que capturan el significado semántico. Se lanzó oficialmente el 25 de enero de 2024.
Pregunta 2: ¿Qué tan significativas son sus mejoras de rendimiento con respecto a modelos anteriores como ada-002?
A2: Ofrece mejoras significativas, en particular un aumento de la puntuación MIRACL del 31,4 % (ada-002) al 54,9 % y de la puntuación MTEB del 61,0 % (ada-002) al 64,6 %. Estas métricas destacan su precisión superior y la calidad general de la incrustación.
Pregunta 3: ¿Text-embedding-3-large admite dimensiones de incrustación personalizables?
A3: Sí, cuenta con tamaños de incrustación flexibles, lo que permite a los desarrolladores elegir dimensiones de 256 hasta 3072Esto permite un ajuste preciso entre el rendimiento óptimo y la utilización eficiente de los recursos.
Pregunta 4: ¿Cuáles son las principales aplicaciones en las que este modelo destaca?
A4: Es ideal para búsquedas de alto rendimiento, agrupamiento avanzado, sistemas de recomendación mejorados, detección robusta de anomalías, medición detallada de diversidad y clasificación de texto precisa, especialmente en entornos que requieren soporte multilingüe.
Pregunta 5: ¿El modelo es adecuado para procesar múltiples idiomas?
A5: Por supuesto. text-embedding-3-large ofrece un soporte significativamente mejorado para múltiples idiomas, lo que lo convierte en una solución altamente efectiva para aplicaciones globales y diversos conjuntos de datos lingüísticos.
Patio de juegos de IA



Acceso