



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dbrx-instruct',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dbrx-instruct",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
💻隆重推出DBRX Instruct:开放式LLM的新时代
DBRX Instruct 由 数据砖Instruct 是一款突破性的大型语言模型 (LLM),旨在树立性能和效率的新标杆。该模型于 2023 年发布,版本 1.0 采用先进的架构,可在广泛的自然语言处理任务中提供卓越的性能。
- ● 型号名称: DBRX
- ● 开发者/创建者: 数据砖
- ● 发布日期: 2023
- ● 版本: 1.0 指令
- ● 型号类型: 大型语言模型(LLM)
🔥 主要架构和性能亮点
DBRX Instruct 的核心是利用 细粒度混合专首页(MoE)架构这项创新设计包含了 1320 亿个参数,对于任何给定的输入,都会动态激活 360 亿个参数,从而确保最佳的效率和性能。
✨ 核心功能:
- ✓ 先进的MoE系统: 具备 16 位专首页,可从中选择 4 位,提供的专首页组合可能性是其他主要开放式 MoE 模型的 65 倍。
- ✓ 大量训练数据: 使用令人印象深刻的 12 万亿个精心整理的文本和代码数据进行预训练。
- ✓ 基准优势: 在包括常识、常识推理、编程和数学推理在内的关键基准测试中表现出色。
- ✓ 业绩优于同行: 在各种评估中,始终超越 Mixtral Instruct 和 Code Llama (70B) 等领先的开放模型。
📜 预期用途和多语言支持
DBRX Instruct 被设计为 通用LLM这使得它在众多自然语言处理 (NLP) 应用中具有极高的通用性。
💬 理想用途:
- ✍ 文本生成: 撰写连贯且与上下文相关的文本。
- ❓ 问答环节: 对咨询提供准确且有见地的答复。
- 💻 代码生成: 生成高质量的代码片段并解决编程难题。
- 🔢 数学推理: 擅长完成需要复杂数学理解的任务。
此外,DBRX Instruct 还以其独特的优势脱颖而出。 多语言模型能够处理和生成多种语言的内容,增强了其全球适用性。
🔗 深度解析:技术规格与性能
建筑学
DBRX Instruct 构建于 基于Transformer的仅解码器LLM架构该模型采用下一个词元预测目标进行训练。其细粒度的 MoE 设置包含 16 位不同的专首页,针对每个输入查询动态选择 4 位专首页以优化处理。
训练数据质量
该模型强大的功能源于其预训练。 12万亿个精心整理的文本和代码数据令牌该数据集的最大上下文长度为 32,000 个标记,据估计其质量至少是 MPT 系列模型所用数据的两倍,从而确保了丰富的理解和生成能力。
📈 性能指标与领先模型对比:
DBRX Instruct 在标准基准测试中始终表现出优于其他领先开源模型的优异性能:
- MMLU: 73.7%(DBRX 指令)对比 71.4%(混合指导)
- HellaSwag 10 发装: 89.0%(DBRX 指令)对比 87.6%(混合指导)
- WinoGrande: 81.8%(DBRX 指令)对比 81.1%(混合指导)
- Databricks挑战赛: 66.8%(DBRX 指令)对比 60.7%(混合指导)
- 人类评估: 70.1%(DBRX 指令)对比 54.8%(混合指导)
- GSM8k: 66.9%(DBRX 指令)对比 61.1%(混合指导)
💡 DBRX入门指南
API 访问
DBRX Instruct 旨在通过 API 轻松集成。一个示例 API 代码片段(例如,`open-ai.chat-completion` 与 `databricks/dbrx-instruct` 的集成)展示了其对开发人员的简便易用性。
📝 许可信息
DBRX Instruct 可在以下情况下使用: Databricks 开放模型许可促进广泛获取和创新。
💬 常见问题解答 (FAQ)
-
问:DBRX Instruct 模型是什么?
答:DBRX Instruct 是由 Databricks 开发的一款功能强大的开源大型语言模型 (LLM),以其细粒度的混合专首页 (MoE) 架构和在各种 NLP 任务中的出色性能而闻名。
-
问:DBRX Instruct 与其他 LLM 有何不同?
答:它采用独特的 MoE 架构,拥有 16 位专首页(每个输入选择 4 位),提供了更多的专首页组合,并在关键基准测试中超越了 Mixtral Instruct 和 Code Llama (70B) 等领先的开放模型。
-
问:DBRX Instruct 的主要应用有哪些?
答:它是一款通用型 LLM,非常适合文本生成、问答、代码生成以及需要强大的编程和数学推理能力的任务。
-
问:DBRX Instruct 是否支持多语言?
答:是的,DBRX Instruct 支持多种语言,使其适用于全球应用。
-
问:DBRX Instruct 采用何种许可证?
答:DBRX Instruct 是根据 Databricks 开放模型许可发布的。



登录