



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'togethercomputer/mpt-7b-chat',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="togethercomputer/mpt-7b-chat",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
隆重推出 MPT-7B:一款功能强大的开源高级自然语言处理转换器
MPT-7B 标志着一项重大成就 MosaicML旨在普及最先进的变压器技术。 解码器式变压器 以及一名成员 GPT风格的大型语言模型 MPT-7B是该系列产品中经过精心设计的,能够在通用和高度专业化的自然语言处理(NLP)任务中均表现出色,并具有卓越的管理能力。 极长的输入序列该软件于 2023 年 5 月发布,其初始版本衍生出了 MPT-7B-Chat、MPT-7B-Instruct 和 MPT-7B-StoryWriter-65k+ 等专门变体,每个变体都针对特定应用场景量身定制。
主要特点与创新
✅ 商业可用且开源
基础型号和几个变体均以灵活的方式发布。 Apache-2.0 许可证确保广泛的可访问性,并为开发者和企业提供商业应用的可能性。
📚 前所未有的长输入序列处理
利用先进技术 ALiBi(带线性偏置的注意力机制) 采用这种技术,MPT-7B 可以处理长度高达惊人的输入数据。 65,000 个Tokens因此,它特别适合进行全面的文档分析、长篇内容生成和复杂的文本理解任务。
⚡ 高效加速
采用工程技术 闪回 和 变形金刚MPT-7B显著提升了训练和推理速度。这种优化不仅提高了性能,还大幅降低了运营成本。
🌐 广泛的可访问性和易于集成
MPT-7B 与 拥抱脸确保易于实施并与现有的机器学习工作流程兼容,从而降低研究人员和开发人员采用的门槛。
用途广泛
- 🔬 人工智能研究与应用开发: 这是开展机器学习研究和创建创新型人工智能应用的理想基础。
- 💼 商业及企业解决方案: 用途广泛,可部署于各种商业环境,从先进科技企业到娱乐行业,并可提供定制解决方案。
- 🗣️ 专业化生成式人工智能: 变体如 MPT-7B-聊天 针对对话式人工智能进行了优化, MPT-7B-指导 为了精确地遵循指令,以及 MPT-7B-StoryWriter-65k+ 用于生成引人入胜的故事情节。
技术规格和培训
⚙️ 建筑学: 打造为强大的 仅解码器变压器 该模型包括 67亿个参数经过精心设计,可实现对上下文的深入理解和高质量的文本生成。
🧠 综合训练数据: 该模型的鲁棒性归功于其在广泛的数据集上进行的训练。 1万亿个Tokens源自经过严格筛选的数据集,该数据集智能地结合了各种文本和代码来源,确保了对语言和上下文的整体把握。
🌐 多样化的数据来源: 训练涉及 Books3、Common Crawl 等大规模语料库以及各种特定领域的数据集,提供了丰富的通用和专业内容。
🗓️ 知识门槛: 该模型纳入了截至当年的最新相关数据。 2023从而能够对语言和语境有当代的理解。
🌍 语言支持: 主要集中在 英语MPT-7B 经过各种文本类型的训练,涵盖技术写作和创意写作,以确保对语言有全面而细致的理解。
绩效基准与道德框架
📈 绩效指标
- 准确性: 表现出色,在多个方面始终保持优异表现 超越同时代人 就像 LLaMA-7B 在各种标准化基准测试中的表现一样。
- 鲁棒性: 展现出处理各种输入和任务的成熟能力,并突出了 极佳的概括能力 在众多基准测试和实际应用中均取得了成功。
⚖️ 道德准则与许可
符合伦理的人工智能开发: MPT-7B 严格遵守符合伦理的 AI 开发实践,强调 透明度、公平性和负责任的使用这些指导原则均有详尽的记录,以确保安全有效地实施。
许可证类型: MPT-7B 各型号的授权许可各不相同。虽然核心型号通常采用宽松的授权许可。 Apache-2.0某些用途或变体可能受更严格的许可约束,例如 CC-By-NC-SA-4.0强烈建议用户仔细阅读每个版本的具体许可条款,以确保正确使用。
多样性与偏见: 该模型的训练数据经过精心构建,涵盖了各种文本来源、体裁和风格,以最大限度地减少偏差。MosaicML 会持续进行评估,以有效解决和修正任何新出现的偏差。
实际应用及代码示例
💻 与 HuggingFace 无缝集成: 将 MPT-7B 集成到您的项目中非常简单。以下代码示例演示了如何加载和使用 MPT-7B 变体进行文本生成。
从变压器导入AutoTokenizer、AutoModelForCausalLM
# 加载 MPT-7B-Chat 的分词器和模型
tokenizer = AutoTokenizer.from_pretrained( "mosaicml/mpt-7b-chat" , trust_remote_code= True )
model = AutoModelForCausalLM.from_pretrained( "mosaicml/mpt-7b-chat" , trust_remote_code= True )
# 准备输入文本
input_text = "作为人工智能助手,请给我讲一个关于坚持不懈的简短而鼓舞人心的故事。"
input_ids = tokenizer.encode(input_text, return_tensors= "pt" )
# 生成输出
output = model.generate(input_ids, max_length=150, num_return_sequences=1, do_sample= True , temperature=0.7)
print(tokenizer.decode(output[0], skip_special_tokens= True )) (注:原文
常见问题解答 (FAQ)
❓ Q1:MPT-7B究竟是什么?
A:MPT-7B 是一款 开源的、解码器式的Transformer大型语言模型 由 MosaicML 开发。它专为高级自然语言处理任务而设计,尤其高效且能够处理大量数据。 异常长的输入序列。
❓ Q2:MPT-7B 可以用于商业项目吗?
答:是的,MPT-7B 基本型号及其许多衍生型号均以……的名义发布。 Apache-2.0 许可证允许商业用途。但是,务必核实您打算使用的每个版本的具体许可协议。
❓ Q3:MPT-7B 在处理长文本方面有哪些突出优势?
A:MPT-7B 利用 ALiBi(带线性偏置的注意力机制) 这项技术使其能够高效处理高达 65,000 个Tokens对于需要大量背景信息的任务来说,这是一个显著的优势。
❓ Q4:MPT-7B 的性能与其他 LLM(如 LLaMA-7B)相比如何?
A:MPT-7B始终表现出色。 竞争表现在各种标准化基准测试中,其准确性和泛化能力均能与 LLaMA-7B 等模型相媲美,甚至常常超越它们。
❓ Q5:哪些技术创新有助于提高MPT-7B的效率?
答:它的效率源于它的 仅包含 67 亿个参数的解码器 Transformer 架构 结合尖端优化技术,例如 闪回 和 变形金刚这将显著加快训练和推理过程。



登录