



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'Qwen/Qwen2-72B-Instruct',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="Qwen/Qwen2-72B-Instruct",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

产品详情
✨ Qwen 2 Instruct (72B) 隆重推出:语言模型的新时代
备受期待 Qwen 2 Qwen 72B Instruct 版本现已发布,较其前代产品 Qwen 1.5 实现了显著飞跃。该版本在多个维度上均表现出色,显著提升了语言能力和语境理解能力,树立了新的标杆。这款强大的模型旨在为各种应用场景提供一流的测试结果,使其成为开发人员和研究人员不可或缺的工具。
🚀 关键架构和性能升级
Qwen 2 基于强大的 Transformer 架构,集成了可优化效率和专注度的高级功能:
- 扩展语言能力: 该模型现在支持多达 27 种其他语言,大大扩展了其全球适用性。
- 庞大的上下文长度: Qwen 2 拥有令人印象深刻的 128K 个令牌的上下文长度支持,从而能够实现更全面、更丰富的上下文交互,而不会在大输入时出现“盲点”。
- 高级架构: 融合了 SwiGLU 激活、注意力 QKV 偏差、组查询注意力 (GQA) 以及滑动窗口注意力等创新技术,以实现卓越的性能。
- 通用组查询注意事项: GQA 相比 Qwen 1.5 有了显著的改进,普遍应用于提高推理速度和减少推理过程中的内存使用量。
- 提升领域专业知识: 在编程、数学和复杂推理任务等关键领域表现出更强的能力。
💡 Qwen 2 72B 指令的多种应用场景
Qwen 2 72B Instruct 的强大功能使其适用于各种应用场景:
文本生成与聊天机器人
Qwen 2 72B Instruct 拥有庞大的体积和卓越的语言生成能力,是开发高互动性、情境感知型聊天机器人的理想选择。它能够围绕各种主题,提供自然流畅、类人化的对话体验。
检索增强生成(RAG)和函数调用
Qwen 2 在需要增强检索生成功能的任务中表现出色,能够提供可靠的输出并减少幻觉。此外,它能够熟练地利用外部工具(例如函数调用),使其成为构建能够与现实世界有效交互的复杂 AI 代理的理想基础。
内容审核 🛡️
凭借强大的语言理解能力,Qwen 2 72B Instruct 在内容审核方面非常有效。它可以识别和过滤多种语言的不当内容,足以与顶级模型相媲美。 GPT-4 在安全任务方面表现优于 Mistral-8x22B 等其他型号。
多语言应用程序 🌐
Qwen 2 72B Instruct 在 12 种语言中展现出卓越的性能,并已接受过超过 27 种语言(包括西欧、东欧、中东、东亚、东南亚和南亚语言)的广泛训练。它能够熟练地处理复杂的语境(通过 YARN 处理高达 128K 个词元),并有效地管理语码转换,在应对各种语言和文化挑战方面展现出不可估量的价值。正如我们在对比中所强调的,“Qwen 2 与 LLama 3 对比即使使用微妙的、具有文化细微差别的提示,它也能表现出色,因此对于与亚洲语言群体合作来说,它是必备的工具。
📈 Qwen 2 72B Instruct 与竞争对手相比如何
Qwen 2 72B Instruct 在 GSM8K 和 MATH 等经典基准测试中始终优于 Llama 3 70B 等竞争对手。在欺诈和色情内容检测等关键领域,其性能可与 GPT-4 和 Mistral 等行业领先者相媲美。值得注意的是,Qwen 2 在 AlignBench 基准测试中与人类偏好更加契合,并提供了高达 128K 的上下文窗口,使其成为人工智能领域的佼佼者。
⚙️ Qwen 2 72B 入门指南
API 访问: 将 Qwen 2 集成到您的应用程序中 注册 AI/ML API 访问权限 本网站。
本地部署: 要在本地试用 Qwen 2 72B Instruct,请确保您拥有最新版本的 Huggingface Transformers 库(4.37.0 或更高版本)。请注意…… generation_config.json 模型存储库中的文件用于配置,特别是与代码切换相关的配置。
📄 许可协议
Qwen 2-72B 指令在以下机构下运作: Tongyi Qianwen license详情请参阅其 GitHub 或 Hugging Face 代码库。虽然商业用途通常免费,但月活跃用户超过 1 亿的产品或服务需要联系开发者获得明确许可。
✅ 结论:Qwen 的力量 2
Qwen 2 全面超越其前代产品,提供无与伦比的 27 种语言多语言功能,并拥有强大的 128K 上下文支持,可轻松应对复杂任务。其卓越性能涵盖多种应用场景,从高级聊天机器人开发、关键内容审核到复杂的多语言处理,无所不包。基准测试证实了其强大的竞争力,使 Qwen 2 成为满足各种人工智能需求的宝贵资源。通过 API 和本地安装选项增强的易用性进一步巩固了其作为领先语言模型的地位。
🖥️ API 示例
❓ 关于 Qwen 2 72B 指导的常见问题解答 (FAQ)
问:Qwen 2 相较于 Qwen 1.5 有哪些主要改进?
答:Qwen 2 大幅扩展了语言支持,增加了 27 种语言,将上下文长度提升至惊人的 128K 个标记,并融入了通用分组查询注意力等高级架构特性,以提高效率和性能。
问:Qwen 2 72B Instruct 能否有效处理多语言任务?
答:当然。Qwen 2 接受过 27 种以上语言的训练,在多语言环境下表现出色,尤其擅长处理亚洲语言群体的语码转换和细微差别,使其在全球范围内具有很高的应用价值。
问:Qwen 2 72B Instruct 最适合哪些类型的应用?
A:Qwen 2 72B Instruct 非常适合复杂的聊天机器人、检索增强生成 (RAG)、AI 代理的高级功能调用、跨语言的强大内容审核以及各种复杂的多语言应用程序。
问:Qwen 2 与其他领先型号(如 Llama 3 或 GPT-4)相比如何?
答:Qwen 2 72B Instruct 在经典基准测试中通常优于 Llama 3 70B,并且在欺诈检测等安全关键任务中表现出与 GPT-4 和 Mistral 相当的性能,同时还提供了 128K 的大型上下文窗口和更优的人类偏好对齐。
问:Qwen 2-72B Instruct 的商业用途许可条款是什么?
答:Qwen 2-72B Instruct 使用的是同艺千文的授权许可。该许可可免费用于商业用途,但如果您的产品或服务的月活跃用户超过 1 亿,则需要联系开发者获取特定许可。



登录