qwen-bg
max-ico04
32K
出去
max-ico02
聊天
max-ico03
禁用
Qwen 1.5 (72B)
Qwen 1.5-72B:基于 Transformer 的语言模型,具有多语言支持、32K 上下文,并且在文本补全和推理方面表现出色。
新会员可获赠价值 1 美元的免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });

const main = async () => {
  const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
  const response = await api.completions.create({
    prompt,
    model: 'Qwen/Qwen1.5-72B',
  });
  const text = response.choices[0].text;

  console.log('Completion:', text);
};

main();

                                
                                        from openai import OpenAI

client = OpenAI(
    api_key="",
    base_url="https://api.ai.cc/v1",
)


def main():
    response = client.completions.create(
        model="Qwen/Qwen1.5-72B",
        prompt="""
  All of the states in the USA:
  - Alabama, Mongomery;
  - Arkansas, Little Rock;
  """,
    )

    completion = response.choices[0].text
    print(f"Completion: {completion}")


main()
Docs

一个 API 包含 300 多个 AI 模型

节省20%费用并获赠价值1美元的Tokens
qwenmax-bg
图片
Qwen 1.5 (72B)

产品详情

✨ 探索 Qwen 1.5 (72B):一款先进的 AI 语言模型

基础语言模型 Qwen1.5-72B Qwen2 是 Qwen2 的 beta 版本,Qwen2 是一款基于 Transformer 的高级语言模型。它使用庞大的数据语料库进行预训练,相比其前代产品 Qwen 有了显著改进。

主要改进包括 多语言支持 无论是基础模型还是聊天模型,性能都稳定。 32K 上下文长度以及消除对以下方面的需求 信任远程代码简化其部署和使用。

🧠 理解 Qwen 1.5 (72B) 模型架构

Qwen1.5-72B 是 Qwen1.5 系列的旗舰成员,该系列涵盖了从 0.5B 到 72B 六种不同规模的解码器语言模型。作为该系列中最大的基础型号,它基于一个强大的平台构建。 Transformer架构

显著特点包括 SwiGLU激活它改进了 QKV 偏差,并配备了一个可适应多种自然语言和编码的改进型分词器。此外,它还融合了分组查询注意力机制以及滑动窗口注意力机制和全注意力机制,以提升性能。

💡 注意: 对于此测试版, 群组查询注意力(GQA) 以及混合物 滑动窗口注意力(SWA) 目前尚未给予足够的重视。

⭐ Qwen 1.5 (72B) 性能与竞争优势

Qwen1.5-72B 始终如一地展现出 在各项评估指标中均表现出色它在语言理解、推理和复杂数学任务方面展现出卓越的能力。

值得注意的是,它 在所有基准测试中均优于 Llama2-70B巩固了其作为同类顶级语言模型的地位。它能够可靠地处理 32K 上下文长度 始终如一的性能使其脱颖而出,确保在各种场景下都能保持稳定的性能,而不会影响效率。

此外,Qwen1.5-72B 在市场上与其他领先型号相比也极具竞争力,例如 Mixtral 8x7b基准测试结果证实了它在精确高效地处理复杂语言任务方面的能力,使其成为基于 Transformer 的语言模型领域的重要参与者。

💡 Qwen 1.5 (72B) 实用使用技巧

虽然通常建议使用 用于文本生成的聊天版本Qwen1.5-72B基础模型对于各种实验和评估都具有极高的价值。这主要是因为它在执行文本补全任务时偏差极小。

您可以通过我们的平台轻松访问这个强大的模型。 AI/ML API 通过在本网站上注册。

对于本地部署模型的用户,您可以应用高级的训练后技术来进一步提升性能。请考虑使用 SFT(稀疏微调)RLHF(基于人类反馈的强化学习)或者继续进行预训练,以根据特定要求定制输出并优化模型性能。

📜 Qwen 1.5 (72B) 许可协议

Qwen1.5-72B 模型受以下因素控制: Tongyi Qianwen license agreement完整的许可证详情可在模型存储库中查看。 GitHub 或者 拥抱脸

除非您的产品或服务覆盖面超过一定范围,否则无需提交商业用途申请。 月活跃用户达1亿

🚀 结论:利用 Qwen 1.5 推进 LLM 的发展 (72B)

总之,Qwen1.5-72B 代表了一种 重大进展 它基于开源基础语言模型,提供增强的文本补全功能、强大的多语言支持和卓越的上下文处理能力,使其成为致力于拓展人工智能边界的研究人员和开发人员的关键工具。

❓ 常见问题解答 (FAQ)

问:Qwen 1.5 (72B) 是什么?

答:Qwen 1.5 (72B) 是 Qwen2 的 beta 版本,Qwen2 是一个先进的 720 亿参数 Transformer 语言模型,具有多语言支持和稳定的 32K 上下文长度。

问:Qwen 1.5 (72B) 与竞争对手相比表现如何?

答:它在各种基准测试中始终优于 Llama2-70B,并且与 Mixtral 8x7b 等型号具有很强的竞争力,尤其以其可靠的 32K 上下文处理能力而闻名。

问:Qwen 1.5 (72B) 是否适合商业用途?

答:是的,它受同艺千文许可协议约束。只有当您的产品或服务的月活跃用户超过1亿时,才需要提交特殊的商业用途申请。

问:Qwen 1.5 (72B) 基本型的主要应用领域是什么?

答:虽然聊天版本推荐用于直接文本生成,但基础模型非常适合实验、评估,并且可以通过 SFT 或 RLHF 等训练后技术进行增强,以自定义输出。

问:在哪里可以找到许可证详情和模型库?

答:同艺千文的授权协议和型号详情可在其官方网站上查阅。 GitHub拥抱脸

API 操练场(Playground)

集成前,请在沙盒环境中测试所有 API 模型。我们提供 300 多个模型供您集成到应用中。
免费试用
api-right-1
模型-bg02-1

一个 API
300多个人工智能模型

节省20%的费用