

在
0.39 出去
1.56 

Text to Speech
const { OpenAI } = require('openai');
const api = new OpenAI({
baseURL: 'https://api.ai.cc/v1',
apiKey: '',
});
const main = async () => {
const result = await api.chat.completions.create({
model: 'minimax/m2-5-20260218',
messages: [
{
role: 'system',
content: 'You are an AI assistant who knows everything.',
},
{
role: 'user',
content: 'Tell me, why is the sky blue?'
}
],
});
const message = result.choices[0].message.content;
console.log(`Assistant: ${message}`);
};
main();
import os
from openai import OpenAI
client = OpenAI(
base_url="https://api.ai.cc/v1",
api_key="",
)
response = client.chat.completions.create(
model="minimax/m2-5-20260218",
messages=[
{
"role": "system",
"content": "You are an AI assistant who knows everything.",
},
{
"role": "user",
"content": "Tell me, why is the sky blue?"
},
],
)
message = response.choices[0].message.content
print(f"Assistant: {message}")

MiniMax-M2.5
MiniMax-M2.5 和 MiniMax-M2.5 Highspeed 为现代 AI 工作负载提供了灵活的解决方案。无论您的首要任务是智能文本生成、对话自动化还是低延迟实时部署,该系列产品都能以可扩展的经济性提供生产级性能。
MiniMax-M2.5是什么?
MiniMax-M2.5 是由 MiniMax 开发的通用大型语言模型,旨在为各种自然语言应用提供支持,从智能聊天机器人和虚拟助手到自动内容生成和文档分析流程。
MiniMax-M2.5 API
这 旗舰通用语言模型 来自 MiniMax。提供卓越的指令执行能力、细致入微的推理能力和高保真内容生成能力。专为以响应质量和上下文深度为主要目标的工作负载而设计。
- 针对高质量文本生成任务进行了优化
- 原生提示缓存可降低重复提示的成本
- 具备技术和创意领域的广泛知识
- 用于长文档处理的扩展上下文窗口
- 非常适合异步流水线和批处理工作负载
- 具有竞争力的按Tokens计费模式,可满足可扩展的使用需求
定价
- 输入:0.39 美元/100 万Tokens
- 输出:1.56 美元/百万Tokens
MiniMax-M2.5 高速 API
一个 吞吐量优化变体 专为对延迟敏感的应用而设计。显著缩短了首次令牌获取时间,提高了每秒请求处理能力,使其成为实时用户交互和高流量服务的首选方案。
- 超低延迟,适用于实时聊天应用
- 应对并发请求高峰的高吞吐量能力
- 在极端负载条件下保持响应一致性
- 专为语音界面、流媒体用户界面和在线客服而设计
- 针对渐进式渲染优化的令牌流
- 与M2.5相同的核心智能,更快的交付流程
定价
- 输入:0.78 美元/100 万Tokens
- 输出:3.12 美元/百万Tokens
专为您的 AI 堆栈的每一层而设计
对话式人工智能与聊天机器人
通过自然、连贯的对话管理,为客户服务、支持自动化和虚拟助手平台提供多轮、上下文感知的对话支持。
内容生成
大规模自动创建文章、营销文案、产品描述、社交媒体帖子和长篇编辑内容,同时保证质量。
文档智能
利用扩展上下文,总结、分类、提取关键信息,并回答有关合同、报告、研究论文和企业文件的问题。
AI代理工作流程
作为自主代理的推理骨干,能够进行复杂的任务分解、工具选择、多步骤规划和迭代式自我纠正循环。



登录