qwen-bg
max-ico04
2K
出去
max-ico02
聊天
max-ico03
禁用
Dolly v2 (7B)
探索 Dolly v2 (7B) API,这是一个具有指令跟随功能的开源大型语言模型,适用于各种 NLP 任务和商业应用。
新会员可获赠价值 1 美元的免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'databricks/dolly-v2-7b',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="databricks/dolly-v2-7b",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

一个 API 包含 300 多个 AI 模型

节省20%费用并获赠价值1美元的Tokens
qwenmax-bg
图片
Dolly v2 (7B)

产品详情

🌟 Dolly v2 (7B):一款开源的指令式学习学习管理软件

Dolly v2 (7B) 是一款创新型产品 遵循指令的大型语言模型 由……开发 数据砖该模型于 2023 年 4 月 12 日发布,基于 Pythia-6.9b 架构,并在包含约 15,000 个指令/响应对的大型数据集上进行了微调。值得注意的是,Dolly v2 (7B) 已获商业用途许可这使其成为各种自然语言处理任务的强大且易于使用的工具。

💡 重要信息

  • 型号名称: Dolly v2 (7B)
  • 开发者/创建者: 数据砖
  • 发布日期: 2023年4月12日
  • 版本: 2.0
  • 型号: 遵循指令的大型语言模型

✅ 核心功能和特性

这款模型之所以脱颖而出,原因有以下几点:

  • • 遵循指示: 擅长理解和执行明确的指令。
  • • 开源: 促进透明度和社区驱动型发展。
  • • 商业许可: 根据 Apache 2.0 许可,允许在商业应用中使用。
  • • 高质量培训: 使用精心挑选的数据集进行微调,以实现更佳的指令遵循性。
  • • 体积小巧: 它拥有约 69 亿个参数,在性能和资源效率之间实现了良好的平衡。

🛠️ 预期用途

Dolly v2 (7B) 功能全面,可应用于各种自然语言处理任务,包括:

  • ▪️ 头脑风暴和创意产生
  • ▪️文本分类
  • ▪️ 回答封闭式和开放式问题
  • ▪️ 创意和事实性文本生成
  • ▪️ 从文档中提取信息
  • ▪️ 长篇文本的摘要

语言支持: 该模型主要用于英语语言任务。

⚙️ 技术规格

建筑学

Dolly v2 (7B) 建立在强大的 Pythia-6.9b架构,这是一个备受推崇的基于 Transformer 的模型,以其可扩展性和性能而闻名。

训练数据

数据来源及规模: 该模型使用专有技术进行了微调。 databricks-dolly-15k 数据集这个高质量数据集包含约 15,000 个指令/响应对,由 Databricks 员工精心生成。

知识门槛: Dolly v2 (7B) 的基础知识源自 Pythia-6.9b 预训练阶段,并通过微调过程中开发的指令遵循能力得到了显著增强。

绩效指标

虽然 Dolly v2 (7B) 的设计目的并非是为了在与更大、更复杂的模型的对比中获得最先进的基准测试分数,但它始终如一地展现出卓越的性能。 出乎意料的高质量指令遵循行为以下是一些基准测试结果:

基准 分数
ARC(25发) 0.392
HellaSwag(10 发装) 0.633838
MMLU(5 发) 0.406997
TruthfulQA(0 次拍摄) 0.444444

与其他型号的比较

虽然 Dolly v2 (7B) 在原始基准测试分数上可能不如 GPT-3 (175B 参数) 这样规模更大的模型,但它仍然具有很强的吸引力。 在强劲的性能和可控的资源需求之间取得平衡这使得它在许多应用领域都非常实用。

🚀 使用指南

代码示例

⚖️ 伦理考量

Dolly v2 (7B) 的开发充分考虑了伦理因素。所使用的训练数据不包含淫秽内容、受保护的知识产权或涉及非公众人物的个人身份信息。然而,必须指出的是,该模型 可能反映出偏见 数据中存在由Databricks员工生成的数据。用户应谨慎对待模型输出中可能存在的偏差。

📄 许可信息

Dolly v2 (7B) 是根据以下条款发布的: Apache 2.0 许可证这种宽松的许可协议赋予用户在研究和商业应用方面的灵活性,从而促进了广泛应用和创新。有关 Dolly v2 起源的更多详细信息,您可以参考…… Databricks Dolly v2 发布公告

⚠️ Dolly v2 (7B) 的局限性

Dolly v2 (7B) 虽然功能强大,但也存在一些需要注意的局限性:

  • • 并非尖端技术: 它并非旨在与更现代或规模更大的模型架构的性能相竞争。
  • • 复杂提示: 可能难以理解语法结构非常复杂的提示。
  • • 专业任务: 在程序设计问题和高级数学运算方面能力有限。
  • • 事实准确性: 可能出现事实错误或幻觉,需要人工监督。
  • • 数据偏差: 反映了Databricks员工生成的训练数据中固有的潜在偏差。

❓ 常见问题解答 (FAQ)

Q1:什么是 Dolly v2 (7B)?
A1:Dolly v2 (7B) 是由 Databricks 开发的指令跟随型大型语言模型,基于 Pythia-6.9b 模型,并在 15,000 个指令/响应对上进行了微调。

Q2:Dolly v2 (7B) 可以用于商业项目吗?
A2:是的,Dolly v2 (7B) 是根据 Apache 2.0 许可证发布的,该许可证允许用于研究和商业用途。

Q3:Dolly v2 (7B) 的主要应用是什么?
A3:它专为各种 NLP 任务而设计,包括头脑风暴、分类、问答(封闭式和开放式)、文本生成、信息提取和摘要。

Q4:Dolly v2 (7B) 与 GPT-3 等更大型的型号相比如何?
A4:虽然 Dolly v2 (7B) 在原始基准测试中可能不如 GPT-3 等模型,但它在性能和显著降低的资源需求之间取得了很好的平衡,使其成为许多应用程序的实用选择。

Q5:Dolly v2 (7B) 是否存在任何伦理问题?
A5:该模型在开发过程中充分考虑了伦理因素,训练数据中排除了淫秽内容、知识产权信息和非公开的个人身份信息。然而,由于Databricks员工在生成微调数据时可能存在偏见,模型结果仍可能受到影响。

API 操练场(Playground)

集成前,请在沙盒环境中测试所有 API 模型。我们提供 300 多个模型供您集成到应用中。
免费试用
api-right-1
模型-bg02-1

一个 API
300多个人工智能模型

节省20%的费用