



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'eva-unit-01/eva-qwen-2.5-14b',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="eva-unit-01/eva-qwen-2.5-14b",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

产品详情
📚 EVA Qwen2.5 14B:一种用于创意故事讲述的专用语言模型
基本信息
- ✨ 型号名称: EVA Qwen2.5 14B
- 💻 开发者/创建者: EVA-UNIT-01
- 📅 发布日期: 2024年10月31日
- 🔄 版本: 0.1
- 📖 型号: 文本生成(角色扮演和故事创作)
概述
EVA Qwen2.5 14B 是一个 专门的语言模型 专为高级角色扮演 (RP) 场景和复杂的创意写作任务而精心设计。它对强大的 Qwen2.5 14B 基础模型进行了全参数微调,利用多种合成和自然数据集,显著增强了其创意和生成能力。
主要特点
- 🔢 参数数量: 140亿个参数确保强大的语言理解和生成能力。
- 📑 上下文长度: 支持高达 128K 个字符的超长上下文长度,有助于构建广泛而连贯的叙事。
- 🔧 微调: 通过严格的数据集训练,优化出卓越的创造力和多功能性。
- ⚙️ 采样配置: 提供多种采样选项,包括温度采样和 Top-K 采样,以精细地调整输出风格和创意。
预期用途
该型号主要设计用于 角色扮演场景、引人入胜的故事创作和多样化的创意写作项目对于寻求高级人工智能辅助的游戏开发者、专业作家和内容创作者来说,它是一款理想的工具。
语言支持
目前,EVA Qwen2.5 14B 为以下方面提供了强大的支持: 英语 语言生成。
🔧 技术细节
建筑学
EVA Qwen2.5 14B 的架构基于先进的 Qwen2架构,它专门针对因果语言建模任务进行了优化。它利用了“Qwen2ForCausalLM'架构并使用“Qwen2Tokenizer”进行高效的文本处理。
训练数据
该模型使用精心挑选且多样化的数据集进行训练,其中包括:
- 📄 Celeste 70B 数据混合 (不包括 Opus Instruct 子集)。
- 📖 Kalomaze 的 Opus_Instruct_25k 数据集经过仔细筛选,剔除了拒绝回答。
- 🖼️ 选定子集 来自 ChatGPT 的高质量写作提示和短篇小说。
训练数据总量约为 150万个Tokens 源自角色扮演数据,并结合专门设计的合成数据,以增强其叙事能力。
数据来源和规模
训练数据整合了多种来源,旨在提升模型生成连贯且引人入胜的叙事的能力。这种合成数据与自然数据的巧妙融合,显著增强了模型在各种写作提示下的稳健性。
知识门槛
该模型具有一个知识截止日期。 2023年10月。
多样性与偏见
训练数据集固有的多样性至关重要。 减轻潜在偏见从而使该模型在不同情境和叙事风格中更具适应性和公平性。我们持续致力于完善数据集,以不断提升模型性能并实现合乎伦理的生成。
📊 绩效指标
- 🚀 推理速度: 该模型大约能达到 15.63 个Tokens/秒 在单GPU的最佳条件下。
- ⏱️延迟: 平均延迟约为 每次请求耗时 3.03 秒确保响应迅速的交互。
- 💻 显存需求: 大约需要 29.6 GB 显存 为了高效顺畅地运行。
- ☔️ 吞吐量: 能够同时处理多个请求,即使在高负载情况下也能保持性能。
🔄 与其他型号的比较
优势
- ✅ 高性能,中等尺寸: EVA Qwen2.5 14B 在语言处理能力和资源利用效率之间取得了极佳的平衡。而像 EVA Qwen2.5 14B 这样的大型号则在这两方面表现出色。它兼具强大的语言处理能力和卓越的资源利用效率。 拨打 3 (70B) 为了提供更深入的见解,它们需要更多的计算资源。
- 🌍 多语言精准: EVA Qwen2.5 14B 非常适合全球性任务,能够巧妙地处理各种细微差别。 GPT-4 它还支持多语言任务,但运营成本要高得多。
- 💾 内存效率: 针对资源有限的环境进行了优化,可提供更流畅的性能。例如以下型号: 猎鹰40B 性能强大,但需要更多的内存。
- 🧩 多功能性: EVA Qwen 在广泛的任务范围内表现出色,无需进行大量的微调。 FLAN-T5 也展现了其适应性,但对于高度专业化的应用可能需要更多调整。
局限性
- ⚠️ 降低参数深度: 缺乏超大型模型那样复杂的分析能力 Llama 3.2 90B Vision Instruct Turbo它们更适合处理庞大而复杂的数据集。
- ⚠️ 专业化程度较低的功率: 对于高度专业化或小众的任务,可以使用诸如此类的模型。 Claude 3.5 十四行诗 和 GPT-4o 由于其数据集和参数数量显著更大,因此可以提供更优异的性能。
- ⚠️ 准确性与资源: 虽然EVA Qwen在一般应用中效率很高,但对于精度要求极高的应用,则需要使用参数更高的模型,例如 Gemini 1.5 Pro 通常来说更合适。
📦 使用和集成
代码示例
EVA Qwen2.5 14B 型号很容易获取。 AI/ML API平台 在标识符下 "eva-unit-01/eva-qwen-2.5-14b"。
import openai client = openai.OpenAI( api_key="YOUR_API_KEY", base_url="https://api.ai.cc/v1", ) chat_completion = client.chat.completions.create( messages=[ { "role": "user", "content": "Tell me a short story about a brave knight and a wise dragon.", } ], model="eva-unit-01/eva-qwen-2.5-14b", max_tokens=200, temperature=0.7, ) print(chat_completion.choices[0].message.content) API 文档
综合的 API 文档 可指导开发人员实现无缝集成和使用。
💡 道德准则
EVA Qwen2.5 的开发严格遵循有关人工智能生成内容的伦理准则。这包括高度重视…… 使用透明度 并积极主动地识别和减轻叙事中潜在的偏见。创建者倡导在所有创作情境中负责任且合乎伦理地应用该模型。
📃 许可
EVA Qwen2.5 14B 是根据以下条款分发的: Apache 2.0 许可证这种宽松的许可授予商业和非商业用途的权利,使开发人员能够将该模型集成到各种应用程序中,而不受任何限制。
🚀 立即获取 EVA Qwen2.5 API 访问权限: 立即注册!
❓ 常见问题解答 (FAQ)
Q1:EVA Qwen2.5 14B 的主要用途是什么?
一个: EVA Qwen2.5 14B 是一个专门针对特定语言环境进行微调的语言模型。 角色扮演场景、创意故事创作和各种创意写作任务因此,它非常适合作家、游戏开发者和内容创作者。
Q2:该模型支持的最大上下文长度是多少?
一个: 该模型支持令人印象深刻的最大上下文长度 128K Tokens允许对复杂的叙事进行广泛而详细的输入。
Q3:EVA Qwen2.5 14B 与 Llama 3 或 GPT-4 等更大型号相比如何?
一个: EVA Qwen2.5 14B 提供 高性能与适中资源效率的完美平衡虽然更大的模型可能提供更强大的分析能力或更广泛的多语言功能,但 EVA Qwen 针对创意任务进行了优化,具有更高的内存效率和更低的计算成本。
Q4:EVA Qwen2.5 14B 的许可是什么?
一个: 该模型根据以下条款发布: Apache 2.0 许可证它允许商业和非商业用途,为开发者提供了灵活性。
Q5:如何访问和使用EVA Qwen2.5 14B?
一个: 您可以通过以下方式访问该模型: AI/ML API平台 使用模型标识符 "eva-unit-01/eva-qwen-2.5-14b"提供详细的 API 文档和代码示例,方便集成。



登录