



const { OpenAI } = require('openai');
const api = new OpenAI({ apiKey: '', baseURL: 'https://api.ai.cc/v1' });
const main = async () => {
const prompt = `
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
`;
const response = await api.completions.create({
prompt,
model: 'Qwen/Qwen1.5-1.8B',
});
const text = response.choices[0].text;
console.log('Completion:', text);
};
main();
from openai import OpenAI
client = OpenAI(
api_key="",
base_url="https://api.ai.cc/v1",
)
def main():
response = client.completions.create(
model="Qwen/Qwen1.5-1.8B",
prompt="""
All of the states in the USA:
- Alabama, Mongomery;
- Arkansas, Little Rock;
""",
)
completion = response.choices[0].text
print(f"Completion: {completion}")
main()

产品详情
探索强大的 Qwen 1.5 (1.8B)这是阿里云前沿的Qwen系列大型语言模型的最新进展。该系列模型功能强大,参数规模从5亿到720亿不等,涵盖了多种模型类型。Qwen 1.5旨在超越竞争对手,在原始性能和与人类偏好的契合度方面均实现了显著提升,为易用且强大的AI树立了新的标杆。
✨ Qwen 1.5 (1.8B) 版本解析:核心描述
这 Qwen 1.5 (1.8B) Qwen 1.5 模型是 Qwen2 系列的早期版本,它是一款基于 Transformer 的复杂、仅解码器的语言模型。该模型已在庞大的语料库上进行了广泛的预训练,确保了其广博的知识和强大的生成能力。Qwen 1.5 系列包含多种规模:0.5B、 18亿4B、7B、14B 和 72B。每种尺寸都提供基础语言模型和指令对齐的聊天模型,以满足各种应用需求。
其基础架构建立在先进的Transformer设计之上,并融合了以下关键创新:
- ✅ SwiGLU 激活: 增强模型非线性特性和性能。
- ✅ 注意 QKV 偏差: 提高注意力机制的稳定性和有效性。
- ✅ 群组查询注意事项: 针对大型机型优化效率。
- ✅ 混合注意力: 结合滑动窗口注意力和全神贯注来有效管理上下文。
💡 上下文长度: Qwen 1.5 支持令人印象深刻的功能 32K 个标记上下文长度这使得它能够处理和生成更长、更复杂的文本序列,这对于高级应用程序至关重要。
🌐 多语言功能: 其主要优势在于增强了多语言支持,配备了改进的分词器,专门用于高精度地处理各种自然语言和编程代码。
🚀 Qwen 1.5 对抗竞争对手
在快速发展的大型语言模型领域, Qwen 1.5 面临着强大的竞争。与行业领导者相比,例如: Claude 2.1, GPT-3.5-Turbo, 和 混合型Qwen 1.5 始终表现出 卓越性能 综合各项指标。
在涵盖语言理解和推理等基本能力的传统基准测试中,Qwen 1.5 表现出卓越的性能。此外,其聊天模型在一些广受认可的基准测试中也取得了令人瞩目的成绩。 MT-Bench 和 AlpacaEval这表明其与人类喜好和对话质量高度契合。

Qwen 1.5 微调性能示意图。
该模型的多语言能力也十分出色,在多种语言中均展现出优异的性能。它已在涵盖考试、理解任务、翻译和数学问题解决等众多基准测试中接受了严格评估,巩固了其在全球应用中的通用性。
🛠️ Qwen 1.5 必备使用技巧
- ⚙️ 安装: 为确保运行顺畅并防止常见错误,强烈建议安装
变压器版本 >= 4.37.0。 - ⚠️ 基础型号注意事项: 为了获得最佳的文本生成质量,通常建议 不要直接使用基础语言模型。
- 💡 训练后技巧: 为了充分发挥 Qwen 1.5 的潜力,可以考虑应用训练后技术,例如监督微调 (SFT)、从人类反馈中强化学习 (RLHF),或者针对特定任务或领域对模型进行持续预训练。
⚖️ Qwen 1.5 许可协议
Qwen 1.5 系列中的每个模型都有其特定的许可协议,这些协议在其 Hugging Face 代码库中均有详细说明。重要的是,您确实 不是 商业用途需要提交特殊申请,简化企业和开发人员的部署流程。
🌟 结论:Qwen 1.5 的 LLM 未来展望
这 Qwen 1.5 (1.8B) 该模型标志着大型语言模型领域的一项重大成就。其卓越的功能、极具竞争力的性能以及强大的多语言支持,使其成为众多人工智能应用领域极具潜力的工具。随着该模型的不断发展,我们可以期待更多高级功能和性能的进一步提升,使其成为创新发展的关键资产。
❓ 常见问题解答 (FAQ)
问:Qwen 1.5 (1.8B) 是什么?
答:Qwen 1.5 (1.8B) 是 Qwen2 的测试版,Qwen2 是由阿里云开发的基于 Transformer 的、仅解码器的大型语言模型,以其性能和效率的平衡而著称。
问:Qwen 1.5 的主要架构特点是什么?
答:它采用 Transformer 架构,结合 SwiGLU 激活、QKV 注意力偏置、分组查询注意力以及滑动窗口和完全注意力的混合,支持 32K 标记上下文长度。
问:Qwen 1.5 与其他 LLM(如 GPT-3.5-Turbo 或 Mixtral)相比如何?
A:Qwen 1.5 在各项基准测试中,在基本能力、语言理解、推理和与人类偏好的一致性方面均表现出优异的性能。
问:我可以将 Qwen 1.5 用于商业用途吗?
答:是的,可以。商业用途无需特别申请。请参阅各款 Hugging Face 模型库中的具体许可协议。
问:对于如何有效使用Qwen 1.5,有什么建议吗?
答:建议安装 变压器版本 >= 4.37.0 并且应用 SFT 或 RLHF 等训练后技术,而不是直接使用基础模型进行文本生成。



登录