



const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'MiniMax-Text-01',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="MiniMax-Text-01",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")
- API 操练场(Playground)

在集成之前,请在沙箱环境中测试所有 API 模型。
我们提供 300 多种模型供您集成到您的应用程序中。


产品详情
💡MiniMax-Text-01:释放高级人工智能能力
发现 MiniMax-Text-01是由 MiniMax AI 开发的尖端大型语言模型 (LLM),旨在革新需要大量上下文处理和复杂推理的任务。该模型已于 [日期缺失] 发布。 2025年1月15日该 1.0 版本模型为人工智能领域的性能和效率树立了新的标准,总共包含 4560 亿个参数。
基本信息
- 型号名称: MiniMax-Text-01
- 开发者: MiniMax AI
- 发布日期: 2025年1月15日
- 版本: 1.0
- 型号: 大型语言模型(LLM)
主要能力
- ✅扩展上下文长度: 训练期间可处理多达 100 万个 token;推理上下文可处理多达 400 万个 token。
- ✅混合架构: 集成了 Lightning Attention、Softmax Attention 和 Mixture-of-Experts (MoE),以实现更优的上下文处理。
- ✅高效的参数使用: 每个Tokens仅激活 459 亿个参数,从而优化计算资源。
- ✅顶级基准性能: 在包括 MMLU 和各种推理测试在内的学术基准测试中取得具有竞争力的分数。
- ✅开源可用性: 本软件以 MIT 许可证发布,便于广泛的研究和商业用途。
💰API定价
通过我们透明的 API 定价结构,解锁 MiniMax-Text-01 的高级功能:
- 输入标记: 0.21美元 每百万Tokens
- 输出标记: 1.155美元 每百万Tokens
🎯非常适合深度推理和长上下文应用
MiniMax-Text-01 专为……量身定制 软件开发人员、研究人员和数据科学首页 满足对顶级自然语言处理的需求。它在需要以下功能的应用场景中表现卓越:
- 深度推理: 解决复杂的分析问题和错综复杂的逻辑难题。
- 长上下文处理: 理解和生成非常长的文档或对话记录中的内容。
- 高效处理大型数据集: 从海量信息库中处理和提取有价值的信息。
虽然它的主要支持是 英语MiniMax-Text-01 的设计旨在容纳 多语言适应不同的用户需求。
⚙️技术深度解析:架构与培训
模型架构
MiniMax-Text-01 采用精密的架构,性能卓越:
- 参数总数: 4560亿
- 每个令牌的激活参数: 459亿
- 层数: 80
- 注意力机制:
- 混合方法:每 7 个 Lightning 注意力层之后添加 Softmax 注意力层。
- 注意力集中点数量:64
- 注意头部尺寸:128
- 专首页混合小组(教育部): 汇集了 32 位专首页,采用前 2 位路由策略进行动态处理。
- 位置编码: 采用旋转位置嵌入(RoPE)技术,基频为 10,000。
综合训练数据
该模型经过基于多样化且广泛的数据集的严格训练,以确保其稳健性和通用性:
- 数据来源及规模: 包含约 14.8 万亿个Tokens,这些Tokens来源于公开文本和各种代码库。
- 多元化与偏见缓解: 训练数据经过精心整理,以最大限度地减少偏差,并最大限度地增加主题和风格的多样性,从而增强模型生成多样化和无偏输出的能力。
性能指标可视化

🚀MiniMax-Text-01 入门指南
将 MiniMax-Text-01 无缝集成到您的项目中。它可轻松访问。 AI/ML API平台被认定为 “MiniMax-Text-01”。
访问完整的 API 文档
详细的 API 文档 可提供集成和使用方面的指导。
为了快速实施,请使用所提供的工具。 代码示例:
⚖️道德使用和许可详情
人工智能伦理开发原则
MiniMax AI 始终坚持在人工智能开发中恪守伦理原则。我们优先考虑 透明度 关于 MiniMax-Text-01 的功能和固有局限性,强烈建议用户进行练习。 负责任的使用积极努力防止模型生成的内容被滥用或用于任何潜在的有害用途。
开源 MIT 许可证
MiniMax-Text-01 是在宽松的许可下发布的 开源 MIT 许可证该许可授予广泛的权利,允许两者兼而有之。 学术研究和商业用途同时确保遵守道德标准并维护创作者的权利。
❓常见问题解答 (FAQ)
1. MiniMax-Text-01是什么?它是谁开发的?
MiniMax-Text-01 是由……开发的尖端大型语言模型 (LLM)。 MiniMax AI它擅长处理需要大量上下文信息和高级推理能力的任务。
2. MiniMax-Text-01 的主要架构特点是什么?
它拥有一个 混合架构 它集成了 Lightning Attention、Softmax Attention 和强大的 Mixture-of-Experts (MoE) 系统(包含 32 位专首页),使其能够处理高达 400 万个 token 的推理上下文。
3. MiniMax-Text-01 采用何种许可证?
MiniMax-Text-01 是根据以下协议发布的: 开源 MIT 许可证赋予用户广泛的权利,用于研究和商业应用,同时坚持道德标准。
4. 我可以在哪里找到 API 文档并访问该模型?
综合的 API 文档 可在线获取。您可以通过以下方式访问 MiniMax-Text-01 API: AI/ML API平台。
5. MiniMax-Text-01 支持哪些语言?
该模型主要支持 英语 但它的设计是为了适应 多语言 根据具体用户需求和配置而定。



登录