qwen-bg
max-ico04
32K
出去
max-ico02
聊天
max-ico03
禁用
Qwen 1.5 (1.8B)
Qwen 1.5 (18亿) 是 Qwen2 的测试版,凭借其基于 Transformer 的架构,在文本生成、聊天机器人和内容审核方面表现出色。它在基准测试中超越了竞争对手,并提供多语言支持和跨多个领域的先进功能。
新会员可获赠价值 1 美元的免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });

const main = async () => {
  const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
  const response = await api.completions.create({
    prompt,
    model: 'Qwen/Qwen1.5-1.8B',
  });
  const text = response.choices[0].text;

  console.log('Completion:', text);
};

main();

                                
                                        from openai import OpenAI

client = OpenAI(
    api_key="",
    base_url="https://api.ai.cc/v1",
)


def main():
    response = client.completions.create(
        model="Qwen/Qwen1.5-1.8B",
        prompt="""
  All of the states in the USA:
  - Alabama, Mongomery;
  - Arkansas, Little Rock;
  """,
    )

    completion = response.choices[0].text
    print(f"Completion: {completion}")


main()
Docs

一个 API 包含 300 多个 AI 模型

节省20%费用并获赠价值1美元的Tokens
qwenmax-bg
图片
Qwen 1.5 (1.8B)

产品详情

探索强大的 Qwen 1.5 (1.8B)这是阿里云前沿的Qwen系列大型语言模型的最新进展。该系列模型功能强大,参数规模从5亿到720亿不等,涵盖了多种模型类型。Qwen 1.5旨在超越竞争对手,在原始性能和与人类偏好的契合度方面均实现了显著提升,为易用且强大的AI树立了新的标杆。

✨ Qwen 1.5 (1.8B) 版本解析:核心描述

Qwen 1.5 (1.8B) Qwen 1.5 模型是 Qwen2 系列的早期版本,它是一款基于 Transformer 的复杂、仅解码器的语言模型。该模型已在庞大的语料库上进行了广泛的预训练,确保了其广博的知识和强大的生成能力。Qwen 1.5 系列包含多种规模:0.5B、 18亿4B、7B、14B 和 72B。每种尺寸都提供基础语言模型和指令对齐的聊天模型,以满足各种应用需求。

其基础架构建立在先进的Transformer设计之上,并融合了以下关键创新:

  • ✅ SwiGLU 激活: 增强模型非线性特性和性能。
  • ✅ 注意 QKV 偏差: 提高注意力机制的稳定性和有效性。
  • ✅ 群组查询注意事项: 针对大型机型优化效率。
  • ✅ 混合注意力: 结合滑动窗口注意力和全神贯注来有效管理上下文。

💡 上下文长度: Qwen 1.5 支持令人印象深刻的功能 32K 个标记上下文长度这使得它能够处理和生成更长、更复杂的文本序列,这对于高级应用程序至关重要。

🌐 多语言功能: 其主要优势在于增强了多语言支持,配备了改进的分词器,专门用于高精度地处理各种自然语言和编程代码。

🚀 Qwen 1.5 对抗竞争对手

在快速发展的大型语言模型领域, Qwen 1.5 面临着强大的竞争。与行业领导者相比,例如: Claude 2.1GPT-3.5-Turbo, 和 混合型Qwen 1.5 始终表现出 卓越性能 综合各项指标。

在涵盖语言理解和推理等基本能力的传统基准测试中,Qwen 1.5 表现出卓越的性能。此外,其聊天模型在一些广受认可的基准测试中也取得了令人瞩目的成绩。 MT-BenchAlpacaEval这表明其与人类喜好和对话质量高度契合。

Qwen 1.5 性能图表

Qwen 1.5 微调性能示意图。

该模型的多语言能力也十分出色,在多种语言中均展现出优异的性能。它已在涵盖考试、理解任务、翻译和数学问题解决等众多基准测试中接受了严格评估,巩固了其在全球应用中的通用性。

🛠️ Qwen 1.5 必备使用技巧

  • ⚙️ 安装: 为确保运行顺畅并防止常见错误,强烈建议安装 变压器版本 >= 4.37.0
  • ⚠️ 基础型号注意事项: 为了获得最佳的文本生成质量,通常建议 不要直接使用基础语言模型
  • 💡 训练后技巧: 为了充分发挥 Qwen 1.5 的潜力,可以考虑应用训练后技术,例如监督微调 (SFT)、从人类反馈中强化学习 (RLHF),或者针对特定任务或领域对模型进行持续预训练。

⚖️ Qwen 1.5 许可协议

Qwen 1.5 系列中的每个模型都有其特定的许可协议,这些协议在其 Hugging Face 代码库中均有详细说明。重要的是,您确实 不是 商业用途需要提交特殊申请,简化企业和开发人员的部署流程。

🌟 结论:Qwen 1.5 的 LLM 未来展望

Qwen 1.5 (1.8B) 该模型标志着大型语言模型领域的一项重大成就。其卓越的功能、极具竞争力的性能以及强大的多语言支持,使其成为众多人工智能应用领域极具潜力的工具。随着该模型的不断发展,我们可以期待更多高级功能和性能的进一步提升,使其成为创新发展的关键资产。

❓ 常见问题解答 (FAQ)

问:Qwen 1.5 (1.8B) 是什么?
答:Qwen 1.5 (1.8B) 是 Qwen2 的测试版,Qwen2 是由阿里云开发的基于 Transformer 的、仅解码器的大型语言模型,以其性能和效率的平衡而著称。

问:Qwen 1.5 的主要架构特点是什么?
答:它采用 Transformer 架构,结合 SwiGLU 激活、QKV 注意力偏置、分组查询注意力以及滑动窗口和完全注意力的混合,支持 32K 标记上下文长度。

问:Qwen 1.5 与其他 LLM(如 GPT-3.5-Turbo 或 Mixtral)相比如何?
A:Qwen 1.5 在各项基准测试中,在基本能力、语言理解、推理和与人类偏好的一致性方面均表现出优异的性能。

问:我可以将 Qwen 1.5 用于商业用途吗?
答:是的,可以。商业用途无需特别申请。请参阅各款 Hugging Face 模型库中的具体许可协议。

问:对于如何有效使用Qwen 1.5,有什么建议吗?
答:建议安装 变压器版本 >= 4.37.0 并且应用 SFT 或 RLHF 等训练后技术,而不是直接使用基础模型进行文本生成。

API 操练场(Playground)

集成前,请在沙盒环境中测试所有 API 模型。我们提供 300 多个模型供您集成到应用中。
免费试用
api-right-1
模型-bg02-1

一个 API
300多个人工智能模型

节省20%的费用