



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'allenai/OLMo-7B-Twin-2T',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="allenai/OLMo-7B-Twin-2T",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Détails du produit
✨ Présentation d'OLMO TWIN-2T (7B) : Un LLM transparent et open source
Le OLMO TWIN-2T (7B) est un modèle de langage étendu (LLM) open source de pointe développé par le Institut Allen pour l'intelligence artificielle En collaboration avec des universités de renom telles que l'Université de Washington, Yale, l'Université de New York et Carnegie Mellon, ce modèle à 7 milliards de paramètres, conçu pour une transparence maximale, offre à la communauté de recherche en traitement automatique du langage naturel (TALN) une vision sans précédent de ses processus d'entraînement, de la diversité de ses données, de ses choix architecturaux et de ses indicateurs de performance.
Il constitue un outil essentiel pour les applications académiques et commerciales, en particulier pour celles qui visent à étudier et à améliorer partialité, équité et robustesse des modèles de langage. Son approche ouverte favorise l'innovation et un développement responsable de l'IA.
💡 Informations clés
- Nom du modèle : OLMO TWIN-2T (7B)
- Promoteur: Institut Allen pour l'intelligence artificielle et collaborateurs
- Date de sortie : Inféré après 2023
- Version: 7 milliards de paramètres
- Type de modèle : Modèle de langage étendu basé sur le texte (architecture de transformateur)
✅ Caractéristiques distinctives et usage prévu
- Cadres open source : Accès à des outils complets de formation et d'évaluation.
- Haute transparence : Visibilité inégalée sur les données, les processus et les performances de formation.
- Prise en charge étendue des applications : Facilite diverses tâches de traitement automatique du langage naturel grâce à des réglages et des adaptations poussés.
- Points de contrôle intermédiaires : Permet d'accéder aux journaux d'entraînement essentiels et aux points de contrôle des modèles.
Utilisation prévue : L'OLMO TWIN-2T (7B) est idéal pour recherche universitaire, notamment en ce qui concerne les biais, l'équité et la rigueur des études de maîtrise en droit. Il est également parfaitement adapté à développeurs exigeant des capacités de traitement automatique du langage naturel (TALN) hautement transparentes et adaptables pour leurs applications. Bien que les capacités linguistiques spécifiques ne soient pas détaillées, son ensemble de données d'entraînement suggère assistance multilingue.
⚙️ Analyse technique approfondie
- Architecture: Construit sur un architecture de transformateur uniquement décodeur, s'inspirant d'améliorations apportées à des modèles comme PaLM et LLaMA. Il intègre des fonctionnalités innovantes telles que : normes de couches non paramétriques et fonctions d'activation SwiGLU pour améliorer la stabilité et les performances.
- Données d'entraînement : Formé sur le vaste Ensemble de données 'Dolma'Ce corpus exhaustif comprend des milliards de jetons provenant de sources diverses, notamment des pages Web, des médias sociaux et des articles scientifiques, assurant une large couverture linguistique et atténuant les biais potentiels.
- Seuil de connaissances : Le modèle intègre des connaissances et des études jusqu'à et y compris 2024.
- Diversité et préjugés : L'évaluation rigoureuse de la diversité des données est un élément essentiel de son programme de formation, avec des contrôles intégrés conçus pour favoriser une plus grande diversité. modèle équilibré et justeLa diversité inhérente à l'ensemble de données Dolma est fondamentale pour atteindre cet objectif.
🚀 Indicateurs de performance
- Performances comparatives : Démontre résultats compétitifs et souvent supérieurs par rapport à des modèles établis comme LLaMA et Falcon sur divers benchmarks NLP.
- Précision: Expositions grande précision sur un large éventail de tâches de traitement automatique du langage naturel, y compris d'impressionnantes capacités d'apprentissage zéro-shot.
- Vitesse et robustesse : Conçu pour débit élevé et stabilité exceptionnelle, validées par des tests de vitesse complets et des évaluations de robustesse dans diverses conditions d'entrée.
⚖️ Considérations éthiques et licences
L'équipe de développement d'OLMO TWIN-2T (7B) met fortement l'accent sur lignes directrices éthiques en matière d'IA et une utilisation responsable. Ils respectent les normes et les meilleures pratiques publiées, garantissant ainsi que le déploiement du modèle contribue positivement au paysage de l'IA.
Licences : Le modèle est disponible gratuitement sous licence Licence Apache 2.0, prenant en charge les applications commerciales et non commerciales. Tous les documents et outils associés sont accessibles à l'adresse suivante : sans frais, favorisant une adoption généralisée et la poursuite des recherches.
❓ Foire aux questions (FAQ)
A1 : Sa nature open-source offre une transparence totale sur son entraînement, ses données et son architecture, ce qui en fait un outil précieux pour les chercheurs en NLP pour étudier et améliorer les modèles de langage, notamment en ce qui concerne les biais et l'équité.
A2 : Il a été développé par l'Allen Institute for Artificial Intelligence (AI2) en collaboration avec plusieurs universités prestigieuses, dont l'Université de Washington, Yale, NYU et Carnegie Mellon.
A3 : Le modèle a été entraîné sur l'ensemble de données « Dolma », un corpus complet et diversifié contenant des billions de jetons provenant de pages Web, de médias sociaux, d'articles scientifiques, et plus encore.
A4 : Oui, il est distribué sous la licence Apache 2.0, qui autorise les applications commerciales et non commerciales sans frais.
A5 : OLMO TWIN-2T (7B) démontre des performances compétitives, et souvent supérieures, par rapport à des modèles comme LLaMA et Falcon sur divers benchmarks NLP, y compris une forte précision et des capacités de zéro tir.
Terrain de jeu de l'IA



Se connecter