minimaxai/minimax-m2.1

MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

LLMHOTCODE
首頁
探索
MiniMax LLM Models
minimaxai/minimax-m2.1
MiniMax M2.1
LLM

MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

參數

程式碼範例

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="minimaxai/minimax-m2.1",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

安裝

為您的程式語言安裝所需的套件。

bash
pip install requests

驗證

所有 API 請求都需要透過 API 金鑰進行驗證。您可以從 Atlas Cloud 儀表板取得 API 金鑰。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 標頭

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
請妥善保管您的 API 金鑰

切勿在客戶端程式碼或公開儲存庫中暴露您的 API 金鑰。請改用環境變數或後端代理。

提交請求

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

輸入 Schema

以下參數可在請求主體中使用。

總計: 9必填: 2選填: 7
modelstringrequired
The model ID to use for the completion.
Example: "minimaxai/minimax-m2.1"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

範例請求主體

json
{
  "model": "minimaxai/minimax-m2.1",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

輸出 Schema

API 傳回與 ChatCompletion 相容的回應。

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

範例回應

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills 將 300 多個 AI 模型直接整合至您的 AI 程式碼助手。一鍵安裝,即可使用自然語言生成圖片、影片,以及與 LLM 對話。

支援的客戶端

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 支援的客戶端

安裝

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

設定 API 金鑰

從 Atlas Cloud 儀表板取得 API 金鑰,並設為環境變數。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

功能

安裝完成後,您可以在 AI 助手中使用自然語言存取所有 Atlas Cloud 模型。

圖片生成使用 Nano Banana 2、Z-Image 等模型生成圖片。
影片創作使用 Kling、Vidu、Veo 等從文字或圖片創建影片。
LLM 對話與 Qwen、DeepSeek 及其他大型語言模型對話。
媒體上傳上傳本機檔案,用於圖片編輯和圖片轉影片工作流程。

MCP Server

Atlas Cloud MCP Server 透過 Model Context Protocol 將您的 IDE 與 300 多個 AI 模型連接。支援任何 MCP 相容的客戶端。

支援的客戶端

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 支援的客戶端

安裝

bash
npx -y atlascloud-mcp

設定

將以下設定新增至您 IDE 的 MCP 設定檔中。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

可用工具

atlas_generate_image根據文字提示生成圖片。
atlas_generate_video從文字或圖片創建影片。
atlas_chat與大型語言模型對話。
atlas_list_models瀏覽 300 多個可用的 AI 模型。
atlas_quick_generate一步完成內容創建,自動選擇模型。
atlas_upload_media上傳本機檔案用於 API 工作流程。

MiniMax M2.1 - 業界領先的程式設計大語言模型

2025年12月發布

230B 參數 MoE 架構,專為真實開發場景和 AI 智慧代理設計

MiniMax M2.1 是一款專為多語言程式設計和真實複雜任務打造的增強型大語言模型。採用稀疏混合專家(MoE)架構,總參數量達 230B,每個 token 僅啟動 10B 參數,在 SWE-bench Verified 上達到 74% 的準確率,而成本僅為每百萬 token 0.30 美元——比 Claude Sonnet 4.5(3.00 美元/百萬 token)節省 90% 成本。於 2025 年 12 月 23 日以 MIT 授權發布,在多檔案編輯、原生行動開發和 AI 智慧代理工作流程方面表現卓越,支援 Claude Code、Droid、Cline 等工具。

230B
總參數量
10B
啟動參數
74%
SWE-Bench Verified
90%
成本節省 vs Claude
多語言程式設計卓越性能
  • 在 Rust、Java、Golang、C++、Kotlin、Objective-C 等語言上表現業界領先
  • 在 SWE-Multilingual 任務上達到 72.5%,在非 Python 語言上超越競品
  • 效能超過 Claude Sonnet 4.5,接近 Claude Opus 4.5
  • 原生支援 TypeScript、JavaScript 和現代 Web 框架
智慧代理與工具整合
  • 在 Claude Code、Droid (Factory AI)、Cline、Kilo Code 上表現卓越
  • 在 Roo Code、BlackBox 等智慧代理框架中提供一致的優秀結果
  • 專為編碼-執行-修復迴圈和測試驗證修復而設計
  • 在 Terminal-Bench 任務上表現強勁
全端開發能力
  • VIBE 綜合基準測試平均得分 88.6%
  • VIBE-Web 91.5%,VIBE-Android 89.7%
  • VIBE-iOS 88.0%,VIBE-Backend 86.7%
  • 系統性增強了設計理解和美學表達能力
高性價比
  • 每百萬輸入 token 僅需 0.30 美元,Claude 需 3.00 美元
  • 在保持競爭力效能的同時節省 90% 成本
  • 回應更簡潔,生成速度更快
  • 相比 M2 版本,token 消耗顯著降低

業界領先的效能表現

MiniMax M2.1 在所有主要程式設計基準測試中都達到了競爭水準,同時實現了顯著的成本節省

SWE-Bench Verified

74.0%

達到 74.0% 準確率,與 Claude Sonnet 4.5 效能持平,但成本降低 90%

Multi-SWE-Bench

49.4%

得分 49.4%,超越 Claude Sonnet 4.5 (44.3%)、Gemini 1.5 Pro 等業界領先模型

SWE-Multilingual

72.5%

在多語言任務中達到 72.5%,在 Rust、Go、Java 等非 Python 語言上表現卓越

VIBE 全端基準測試

88.6%

平均得分 88.6,其中 Web 91.5%、Android 89.7%、iOS 88.0%、Backend 86.7%

競品對比 (Multi-SWE-Bench)

MiniMax M2.149.4%領先
Claude Sonnet 4.544.3%落後
Claude Opus 4.550.0%領先

技術架構

稀疏混合專家架構

採用 230B 總參數的 MoE Transformer 架構,每個 token 推理時僅啟動 10B 參數,在不犧牲能力的前提下最大化效率

效率提升

相比 M2 版本,提供更簡潔的模型回應和思維鏈,回應速度顯著加快,token 消耗明顯降低

長程推理能力

展現出卓越的長程推理能力,能夠在不遺失上下文的情況下規劃和執行多步驟任務

完美適用場景

💻
多檔案程式碼編輯
🧪
測試驅動開發
📱
跨平台開發
🤖
AI 智慧代理工作流程
🌐
全端 Web 開發
📊
程式碼審查與最佳化

技術規格

架構稀疏混合專家 (MoE)
總參數量2300 億
啟動參數每個 Token 100 億
發布日期2025 年 12 月 23 日
授權MIT 授權(允許商用)
API 定價$0.30/1M輸入 Token
上下文視窗可變(查看 API 文件)
部署方式API + HuggingFace 權重

為什麼選擇 Atlas Cloud 使用 MiniMax M2.1?

透過我們完全託管的 MiniMax M2.1 API 服務,體驗企業級可靠性、安全性和成本效益。

具競爭力的定價

透明成本的按用量付費定價。無隱藏費用,無最低承諾。免費開始使用。

99.9% 正常運行時間 SLA

企業級基礎設施,具備自動故障轉移、負載平衡和 24/7 監控,實現最高可靠性。

SOC 2 Type II 認證

通過 SOC 2 Type II 認證的企業級安全性。您的資料在傳輸和靜態狀態下都採用業界領先的安全標準加密。

閃電般的快速回應

全球 CDN,在全球各地設有邊緣位置。優化的推理基礎設施提供低於一秒的回應時間。

專家支援

專業技術支援團隊 24/7 全天候服務。獲得整合、優化和疑難排解方面的協助。

統一 API 平台

透過一個一致的 API 存取 300 多個 AI 模型(LLM、圖像、影片、音訊)。滿足您所有 AI 需求的單一整合。

準備好使用 MiniMax M2.1 開發了嗎?

體驗業界領先的程式設計能力,同時節省 90% 成本。透過 API 和開源部署方式均可使用。

業界領先的多語言支援
相比競品節省 90% 成本
MIT 授權支援商用

探索類似模型

300+ 模型,即刻開啟,

探索全部模型