



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'DiscoResearch/DiscoLM-mixtral-8x7b-v2',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="DiscoResearch/DiscoLM-mixtral-8x7b-v2",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Подробная информация о товаре
💡 Понимание DiscoLM Mixtral 8x7b
DiscoLM Mixtral 8x7bразработано DiscoResearch Разработанная под руководством Бьорна Плюстера, эта передовая языковая модель выпущена в 11 декабря 2023 г.Как V2 В рамках итерационного подхода эта модель генерации текста использует высокоэффективную архитектуру разреженного смешения экспертов (MoE), что делает ее идеальной для широкого спектра сложных задач обработки естественного языка (NLP).
✨ Краткий обзор основных характеристик
- ✓ Архитектура разреженной смешанной выборки экспертов (MoE): В работе задействовано 8 групп экспертов, обрабатывающих в общей сложности 46,7 миллиарда параметров, при этом оптимизация эффективности достигается за счет использования всего 12,9 миллиарда параметров на каждый токен во время вывода.
- ✓ Высокая производительность: Последовательно демонстрирует высочайший уровень точности в решении разнообразных задач обработки естественного языка, обеспечивая превосходные результаты.
- ✓ Владение несколькими языками: Бесперебойно работает на английском, французском, испанском, итальянском и немецком языках.
- ✓ Расширенная длина контекста: Поддерживает впечатляющее контекстное окно, включающее до 32 768 токенов, что позволяет глубже понимать и генерировать информацию.
💬 Предполагаемые области применения
Акустическая система DiscoLM Mixtral 8x7b разработана для универсального использования и превосходно подходит для таких задач, как:
- ● Генерация и завершение текста
- ● Разработка разговорного ИИ
- ● Эффективное создание контента
- ● Высококачественный языковой перевод
- ● Передовые исследовательские инициативы в области НЛП (обработки естественного языка).
🔧 Технические характеристики
Архитектурный анализ
Главное преимущество модели заключается в её архитектура с редким сочетанием экспертов (MoE)Эта продуманная конструкция позволяет модели активировать только определённое подмножество своих многочисленных параметров для каждого токена, обеспечивая оптимальный баланс между вычислительной эффективностью и максимальной производительностью. Она построена на основе надёжной платформы Mixtral, точно настроенной для причинно-следственного моделирования языка.
Данные об обучении и разнообразие
DiscoLM Mixtral 8x7b прошел тонкую настройку на обширном и разнообразном наборе данных, включая:
- ● Синтия: Синтетический набор данных, созданный для решения общих задач обработки естественного языка.
- ● MethaMathQA: Специально разработан для решения математических задач.
- ● Капибара: Комплексный ресурс для разработки разговорного искусственного интеллекта.
Хотя точный размер пока не разглашается, обучающие данные получены из широкого спектра источников, что повышает обобщающие возможности модели. Информация, используемая моделью, актуальна на данный момент. Декабрь 2023 г.Были предприняты значительные усилия для включения разнообразных наборов данных с целью уменьшения предвзятости; однако присущие большим языковым моделям предвзятости всё ещё могут присутствовать.
📈 Производительность и сравнительные тесты
Ключевые показатели эффективности
- ● ARC (25 выстрелов): 67.32
- ● HellaSwag (10 выстрелов): 86.25
- ● MMLU (5 кадров): 70.72
- ● TruthfulQA (0-shot): 54.17
- ● Виногранд (5 выстрелов): 80.72
- ● GSM8k (5 снимков): 25.09
Конкурентное преимущество
DiscoLM Mixtral 8x7b consistently превосходит многие современные модели.В том числе и с помощью Meta LLama 2 70B, результаты различных тестов подтверждают его превосходные возможности. Архитектура MoE также обеспечивает высокую скорость вывода и устойчивость к различным входным данным, темам и языкам.
📜 Использование и лицензирование
Примеры кода
Этические принципы
Пользователям рекомендуется ответственно использовать DiscoLM Mixtral 8x7b, учитывая потенциальные предвзятости и этические последствия. Данная модель в первую очередь предназначена для цели исследования и категорически не должен использоваться для каких-либо вредных действий.
Информация о лицензировании
DiscoLM Mixtral 8x7b выпущен под лейблом Лицензия Apache 2.0, что допускает как коммерческое, так и некоммерческое использование.
ⓘ Часто задаваемые вопросы (FAQ)
- В: Что такое DiscoLM Mixtral 8x7b?
- A: DiscoLM Mixtral 8x7b — это передовая языковая модель для генерации текста от DiscoResearch, использующая архитектуру разреженного смешения экспертов (MoE) для обеспечения высокой производительности и эффективности в различных задачах обработки естественного языка.
- В: Какие языки поддерживает DiscoLM Mixtral 8x7b?
- А: Он владеет несколькими языками, включая английский, французский, испанский, итальянский и немецкий.
- В: Какую пользу приносит пользователям архитектура MoE?
- A: Архитектура Sparse Mixture of Experts позволяет модели активировать только подмножество своих общих параметров для каждого токена, что приводит к оптимизации вычислительной эффективности без ущерба для высокой производительности.
- В: Какова длина контекста этой модели?
- A: DiscoLM Mixtral 8x7b поддерживает расширенную длину контекста до 32 768 токенов.
- В: Под какой лицензией выпущен DiscoLM Mixtral 8x7b?
- A: Модель распространяется под лицензией Apache 2.0, разрешающей как коммерческое, так и некоммерческое использование.
Игровая площадка для ИИ



Авторизоваться