qwen-bg
max-ico04
32K
出去
max-ico02
聊天
max-ico03
禁用
DiscoLM Mixtral 8x7b (46.7B)
DiscoLM Mixtral 8x7b API:一个功能强大的文本生成模型,具有 467 亿个参数,针对效率和性能进行了优化。
新会员可获赠价值 1 美元的免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'DiscoResearch/DiscoLM-mixtral-8x7b-v2',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="DiscoResearch/DiscoLM-mixtral-8x7b-v2",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

一个 API 包含 300 多个 AI 模型

节省20%费用并获赠价值1美元的Tokens
qwenmax-bg
图片
DiscoLM Mixtral 8x7b (46.7B)

产品详情

💡 了解 DiscoLM Mixtral 8x7b

DiscoLM Mixtral 8x7b由……开发 迪斯科研究 由 Björn Plüster 领导开发的尖端语言模型于 [日期缺失] 发布 2023年12月11日作为一个 V2 迭代中,该文本生成模型采用了一种高效的稀疏专家混合(MoE)架构,使其成为各种高级自然语言处理(NLP)任务的理想选择。

✨ 主要功能概览

  • 稀疏混合专家(MoE)架构: 它利用 8 个专家组,总共有 467 亿个参数,但通过优化效率,在推理过程中每个标记仅使用 129 亿个参数。
  • 高性能: 在各种自然语言处理任务中始终达到顶级水平,确保取得优异成果。
  • 多语言能力: 可无缝运行于英语、法语、西班牙语、意大利语和德语。
  • 扩展上下文长度: 支持高达 32,768 个标记的强大上下文窗口,从而实现更深入的理解和生成。

💬 预期用途

DiscoLM Mixtral 8x7b 专为多功能性而设计,尤其适用于以下应用:

  • 文本生成和完成
  • 对话式人工智能开发
  • 高效的内容创作
  • 高质量语言翻译
  • 高级自然语言处理研究计划

🔧 技术规格

架构分解

该模型的核心优势在于其 稀疏混合专家(MoE)架构这种智能设计使得模型能够针对每个词元仅激活其庞大参数集中的特定子集,从而在计算效率和峰值性能之间取得最佳平衡。它基于强大的 Mixtral 框架构建,并针对因果语言建模进行了精细调整。

培训数据与多样性

DiscoLM Mixtral 8x7b 在一系列丰富多样的数据集上进行了微调,其中包括:

  • 辛西娅: 一个专为通用自然语言处理任务而设计的合成数据集。
  • MethaMathQA: 专为解决数学问题而设计。
  • 水豚: 对话式人工智能开发的综合资源。

虽然具体规模尚未公开,但训练数据来自广泛的来源,从而增强了模型的泛化能力。截至目前,模型的知识库是最新的。 2023年12月为了减轻偏差,我们做出了广泛的努力,纳入了各种不同的数据集;然而,大型语言模型中常见的固有偏差可能仍然存在。

📈 性能与基准测试

关键绩效指标

  • ARC(25发): 67.32
  • HellaSwag(10 发): 86.25
  • MMLU(5 发): 70.72
  • TruthfulQA(0 次拍摄): 54.17
  • 维诺格兰德(5 杯): 80.72
  • GSM8k(5张照片): 25.09

竞争优势

DiscoLM Mixtral 8x7b 始终如一 性能优于许多同类车型包括 Meta 的 LLama 2 70B 在内的多个基准测试都展现了其卓越的性能。其 MoE 架构也确保了高效的推理速度和强大的鲁棒性,能够应对各种输入、主题和语言。

📜 使用与许可

代码示例

伦理准则

我们鼓励用户负责任地部署 DiscoLM Mixtral 8x7b,并注意潜在的偏见和伦理影响。此模型主要用于…… 研究目的 严禁用于任何有害活动。

许可信息

DiscoLM Mixtral 8x7b 以以下名义发行: Apache 2.0 许可证允许商业和非商业用途。

ⓘ 常见问题解答 (FAQ)

问:什么是 DiscoLM Mixtral 8x7b?
答:DiscoLM Mixtral 8x7b 是 DiscoResearch 开发的最先进的文本生成语言模型,它利用稀疏混合专家 (MoE) 架构,在各种 NLP 任务中实现高性能和高效率。
问:DiscoLM Mixtral 8x7b 支持哪些语言?
答:它精通多种语言,包括英语、法语、西班牙语、意大利语和德语。
问:其 MoE 架构如何使用户受益?
答:稀疏混合专家架构允许模型仅激活每个标记的全部参数的一个子集,从而在不影响高性能的情况下优化计算效率。
问:该模型的上下文长度是多少?
答:DiscoLM Mixtral 8x7b 支持最多 32,768 个标记的扩展上下文长度。
问:DiscoLM Mixtral 8x7b 是以何种许可证发布的?
答:该模型以 Apache 2.0 许可证发布,允许商业和非商业用途。

API 操练场(Playground)

集成前,请在沙盒环境中测试所有 API 模型。我们提供 300 多个模型供您集成到应用中。
免费试用
api-right-1
模型-bg02-1

一个 API
300多个人工智能模型

节省20%的费用