



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'databricks/dolly-v2-7b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="databricks/dolly-v2-7b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

Detalhes do produto
🌟 Dolly v2 (7B): Um LLM de código aberto para seguir instruções
Dolly v2 (7B) é um produto inovador modelo de linguagem grande que segue instruções desenvolvido por DatabricksLançado em 12 de abril de 2023, este modelo é baseado na arquitetura Pythia-6.9b e foi ajustado em um conjunto de dados substancial de aproximadamente 15.000 pares de instruções/respostas. Notavelmente, Dolly v2 (7B) é licenciado para uso comercial, tornando-a uma ferramenta poderosa e acessível para uma ampla gama de tarefas de processamento de linguagem natural.
💡 Informações importantes
- Nome do modelo: Dolly v2 (7B)
- Desenvolvedor/Criador: Databricks
- Data de lançamento: 12 de abril de 2023
- Versão: 2.0
- Tipo de modelo: Modelo de linguagem grande para seguimento de instruções
✅ Principais funcionalidades e recursos
Este modelo se destaca por diversos motivos:
- • Seguir instruções: Demonstra grande capacidade de compreender e executar instruções explícitas.
- • Código aberto: Promove a transparência e o desenvolvimento impulsionado pela comunidade.
- • Licenciado comercialmente: Autorizado para uso em aplicações comerciais sob a licença Apache 2.0.
- • Treinamento de alta qualidade: Ajustado com precisão em um conjunto de dados selecionado para uma adesão superior às instruções.
- • Tamanho compacto: Com aproximadamente 6,9 bilhões de parâmetros, oferece um bom equilíbrio entre desempenho e eficiência de recursos.
🛠️ Aplicações pretendidas
Dolly v2 (7B) é versátil e pode ser aplicado a uma variedade de tarefas de processamento de linguagem natural, incluindo:
- ▪️ Brainstorming e geração de ideias
- ▪️ Classificação de texto
- ▪️ Responder a perguntas fechadas e abertas
- ▪️ Geração de texto criativo e factual
- ▪️ Extração de informações de documentos
- ▪️ Resumo de textos longos
Suporte linguístico: O modelo é voltado principalmente para tarefas em língua inglesa.
⚙️ Especificações Técnicas
Arquitetura
Dolly v2 (7B) é construída sobre a robusta Arquitetura Pythia-6.9b, um modelo baseado em transformadores bem conceituado, conhecido por sua escalabilidade e desempenho.
Dados de treinamento
Fonte e tamanho dos dados: O modelo passou por ajustes finos utilizando a tecnologia proprietária. conjunto de dados databricks-dolly-15kEste conjunto de dados de alta qualidade compreende aproximadamente 15.000 pares de instruções/respostas, meticulosamente gerados por funcionários da Databricks.
Nível de conhecimento limite: O conhecimento fundamental do Dolly v2 (7B) é derivado da fase de pré-treinamento do Pythia-6.9b, aprimorado significativamente pelas capacidades de seguir instruções desenvolvidas durante o processo de ajuste fino.
Métricas de desempenho
Embora Dolly v2 (7B) não tenha sido projetado para alcançar pontuações de benchmark de última geração em modelos maiores e mais complexos, ele demonstra consistentemente comportamento de seguir instruções de qualidade surpreendentemente altaAbaixo estão alguns resultados de referência:
| Referência | Pontuação |
|---|---|
| ARC (25 disparos) | 0,392 |
| HellaSwag (10 doses) | 0,633838 |
| MMLU (5 tiros) | 0,406997 |
| TruthfulQA (0-shot) | 0,444444 |
Comparação com outros modelos
Embora Dolly v2 (7B) possa não superar modelos significativamente maiores como o GPT-3 (175B parâmetros) em pontuações brutas de benchmark, oferece uma perspectiva convincente. equilíbrio entre alto desempenho e requisitos de recursos gerenciáveis, tornando-o altamente prático para diversas aplicações.
🚀 Guia de Utilização
Exemplo de código
⚖️ Considerações Éticas
O desenvolvimento da Dolly v2 (7B) incorporou fortes considerações éticas. Os dados de treinamento utilizados não contêm obscenidades, propriedade intelectual protegida ou informações de identificação pessoal referentes a figuras não públicas. No entanto, é importante reconhecer que o modelo pode refletir preconceitos presentes nos dados gerados por funcionários da Databricks. Os usuários devem ter cautela e estar cientes dos potenciais vieses nos resultados dos modelos.
📄 Informações sobre licenciamento
Dolly v2 (7B) é lançado sob a Licença Apache 2.0Esta licença permissiva concede aos usuários flexibilidade tanto para aplicações de pesquisa quanto comerciais, promovendo ampla adoção e inovação. Para mais detalhes sobre as origens do Dolly v2, você pode consultar o Anúncio do Databricks Dolly v2.
⚠️ Limitações do Dolly v2 (7B)
Embora poderoso, o Dolly v2 (7B) possui certas limitações que devem ser levadas em consideração:
- • Não é de vanguarda: Não foi projetado para competir com o desempenho de arquiteturas de modelos mais modernas ou significativamente maiores.
- • Instruções complexas: Pode apresentar dificuldades com instruções sintaticamente muito complexas.
- • Tarefas especializadas: Possui capacidades limitadas em problemas de programação e operações matemáticas avançadas.
- • Precisão factual: Pode produzir erros factuais ou apresentar alucinações, exigindo supervisão humana.
- • Viéses nos dados: Reflete possíveis vieses inerentes aos dados de treinamento gerados pelos funcionários da Databricks.
❓ Perguntas frequentes (FAQ)
Q1: O que é Dolly v2 (7B)?
A1: Dolly v2 (7B) é um modelo de linguagem grande de seguimento de instruções desenvolvido pela Databricks, baseado no modelo Pythia-6.9b e ajustado em 15.000 pares de instrução/resposta.
Q2: O Dolly v2 (7B) pode ser usado para projetos comerciais?
A2: Sim, Dolly v2 (7B) é lançado sob a licença Apache 2.0, que permite uso tanto para pesquisa quanto para fins comerciais.
Q3: Quais são as principais aplicações do Dolly v2 (7B)?
A3: Ele foi projetado para diversas tarefas de PNL, incluindo brainstorming, classificação, resposta a perguntas (fechadas e abertas), geração de texto, extração de informações e sumarização.
Q4: Como o Dolly v2 (7B) se compara a modelos maiores como o GPT-3?
A4: Embora possa não superar modelos como o GPT-3 em benchmarks brutos, o Dolly v2 (7B) oferece um forte equilíbrio entre desempenho e requisitos de recursos significativamente menores, tornando-o uma escolha prática para muitas aplicações.
Q5: Há alguma preocupação ética com Dolly v2 (7B)?
A5: O modelo foi desenvolvido com considerações éticas, excluindo obscenidades, propriedade intelectual e informações pessoais identificáveis não públicas de seus dados de treinamento. No entanto, ele ainda pode refletir vieses dos funcionários da Databricks que geraram os dados de ajuste fino.
Playground de IA



Conecte-se