qwen-bg
max-ico04
0.39
出去
1.56
max-ico02
聊天
max-ico03
积极的
MiniMax-M2.5
一个为文本生成而构建的、可用于生产的大型语言模型,现在又增加了一个高速版本,适用于实时应用。
新会员可获赠免费Tokens
Text to Speech
                                        const { OpenAI } = require('openai');

const api = new OpenAI({
  baseURL: 'https://api.ai.cc/v1',
  apiKey: '',
});

const main = async () => {
  const result = await api.chat.completions.create({
    model: 'minimax/m2-5-20260218',
    messages: [
      {
        role: 'system',
        content: 'You are an AI assistant who knows everything.',
      },
      {
        role: 'user',
        content: 'Tell me, why is the sky blue?'
      }
    ],
  });

  const message = result.choices[0].message.content;
  console.log(`Assistant: ${message}`);
};

main();
                                
                                        import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.ai.cc/v1",
    api_key="",    
)

response = client.chat.completions.create(
    model="minimax/m2-5-20260218",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant who knows everything.",
        },
        {
            "role": "user",
            "content": "Tell me, why is the sky blue?"
        },
    ],
)

message = response.choices[0].message.content

print(f"Assistant: {message}")
Docs

300 多个适用于 OpenClaw 和 AI 代理的 AI 模型

节省20%费用并获赠免费Tokens
qwenmax-bg
minimax.png
MiniMax-M2.5

MiniMax-M2.5

MiniMax-M2.5 和 MiniMax-M2.5 Highspeed 为现代 AI 工作负载提供了灵活的解决方案。无论您的首要任务是智能文本生成、对话自动化还是低延迟实时部署,该系列产品都能以可扩展的经济性提供生产级性能。

MiniMax-M2.5是什么?

MiniMax-M2.5 是由 MiniMax 开发的通用大型语言模型,旨在为各种自然语言应用提供支持,从智能聊天机器人和虚拟助手到自动内容生成和文档分析流程。

MiniMax-M2.5 API

 旗舰通用语言模型 来自 MiniMax。提供卓越的指令执行能力、细致入微的推理能力和高保真内容生成能力。专为以响应质量和上下文深度为主要目标的工作负载而设计。

  • 针对高质量文本生成任务进行了优化
  • 原生提示缓存可降低重复提示的成本
  • 具备技术和创意领域的广泛知识
  • 用于长文档处理的扩展上下文窗口
  • 非常适合异步流水线和批处理工作负载
  • 具有竞争力的按Tokens计费模式,可满足可扩展的使用需求
创建聊天完成
const { OpenAI } = require ( 'openai' ); const api = new OpenAI ({ baseURL: 'https://api.aimlapi.com/v1' , apiKey: ' '  }); const main = async () => { const result = await api.chat.completions.create ( { model: 'minimax/m2-5-20260218' , messages: [ { role: 'system' , content: '您是一位无所不知的AI助手。' , }, { role: 'user' , content: '告诉我,为什么天空是蓝色的?' } ], }); const message = result.choices[ 0 ].message.content; console.log ( `助手:${ message }` ); };主要的();

定价

  • 输入:0.39 美元/100 万Tokens
  • 输出:1.56 美元/百万Tokens

MiniMax-M2.5 高速 API

一个 吞吐量优化变体 专为对延迟敏感的应用而设计。显著缩短了首次令牌获取时间,提高了每秒请求处理能力,使其成为实时用户交互和高流量服务的首选方案。

  • 超低延迟,适用于实时聊天应用
  • 应对并发请求高峰的高吞吐量能力
  • 在极端负载条件下保持响应一致性
  • 专为语音界面、流媒体用户界面和在线客服而设计
  • 针对渐进式渲染优化的令牌流
  • 与M2.5相同的核心智能,更快的交付流程
创建聊天完成
const { OpenAI } = require ( 'openai' ); const api = new OpenAI ({ baseURL: 'https://api.aimlapi.com/v1' , apiKey: ' '  }); const main = async () => { const result = await api.chat.completions.create ( { model: 'minimax/m2-5-highspeed-20260218' , messages: [ { role: 'system' , content: '您是一位无所不知的AI助手。' , }, { role: 'user' , content: '告诉我,为什么天空是蓝色的?' } ], }); const message = result.choices[ 0 ].message.content; console.log ( `助手:${ message }` ); };主要的();

定价

  • 输入:0.78 美元/100 万Tokens
  • 输出:3.12 美元/百万Tokens

专为您的 AI 堆栈的每一层而设计

对话式人工智能与聊天机器人

通过自然、连贯的对话管理,为客户服务、支持自动化和虚拟助手平台提供多轮、上下文感知的对话支持。

内容生成

大规模自动创建文章、营销文案、产品描述、社交媒体帖子和长篇编辑内容,同时保证质量。

文档智能

利用扩展上下文,总结、分类、提取关键信息,并回答有关合同、报告、研究论文和企业文件的问题。

AI代理工作流程

作为自主代理的推理骨干,能够进行复杂的任务分解、工具选择、多步骤规划和迭代式自我纠正循环。

API 操练场(Playground)

集成前,请在沙盒环境中测试所有 API 模型。我们提供 300 多个模型供您集成到应用中。
免费试用
api-right-1
模型-bg02-1

300 多个 AI 模型
OpenClaw 和人工智能代理

节省20%的费用