MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("ATLASCLOUD_API_KEY"),
base_url="https://api.atlascloud.ai/v1"
)
response = client.chat.completions.create(
model="minimaxai/minimax-m2.1",
messages=[
{
"role": "user",
"content": "hello"
}
],
max_tokens=1024,
temperature=0.7
)
print(response.choices[0].message.content)為您的程式語言安裝所需的套件。
pip install requests所有 API 請求都需要透過 API 金鑰進行驗證。您可以從 Atlas Cloud 儀表板取得 API 金鑰。
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}切勿在客戶端程式碼或公開儲存庫中暴露您的 API 金鑰。請改用環境變數或後端代理。
import requests
url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"messages": [{"role": "user", "content": "Hello"}],
"max_tokens": 1024
}
response = requests.post(url, headers=headers, json=data)
print(response.json())以下參數可在請求主體中使用。
{
"model": "minimaxai/minimax-m2.1",
"messages": [
{
"role": "user",
"content": "Hello"
}
],
"max_tokens": 1024,
"temperature": 0.7,
"stream": false
}API 傳回與 ChatCompletion 相容的回應。
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1700000000,
"model": "model-name",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I assist you today?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 10,
"completion_tokens": 20,
"total_tokens": 30
}
}Atlas Cloud Skills 將 300 多個 AI 模型直接整合至您的 AI 程式碼助手。一鍵安裝,即可使用自然語言生成圖片、影片,以及與 LLM 對話。
npx skills add AtlasCloudAI/atlas-cloud-skills從 Atlas Cloud 儀表板取得 API 金鑰,並設為環境變數。
export ATLASCLOUD_API_KEY="your-api-key-here"安裝完成後,您可以在 AI 助手中使用自然語言存取所有 Atlas Cloud 模型。
Atlas Cloud MCP Server 透過 Model Context Protocol 將您的 IDE 與 300 多個 AI 模型連接。支援任何 MCP 相容的客戶端。
npx -y atlascloud-mcp將以下設定新增至您 IDE 的 MCP 設定檔中。
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}230B 參數 MoE 架構,專為真實開發場景和 AI 智慧代理設計
MiniMax M2.1 是一款專為多語言程式設計和真實複雜任務打造的增強型大語言模型。採用稀疏混合專家(MoE)架構,總參數量達 230B,每個 token 僅啟動 10B 參數,在 SWE-bench Verified 上達到 74% 的準確率,而成本僅為每百萬 token 0.30 美元——比 Claude Sonnet 4.5(3.00 美元/百萬 token)節省 90% 成本。於 2025 年 12 月 23 日以 MIT 授權發布,在多檔案編輯、原生行動開發和 AI 智慧代理工作流程方面表現卓越,支援 Claude Code、Droid、Cline 等工具。
MiniMax M2.1 在所有主要程式設計基準測試中都達到了競爭水準,同時實現了顯著的成本節省
達到 74.0% 準確率,與 Claude Sonnet 4.5 效能持平,但成本降低 90%
得分 49.4%,超越 Claude Sonnet 4.5 (44.3%)、Gemini 1.5 Pro 等業界領先模型
在多語言任務中達到 72.5%,在 Rust、Go、Java 等非 Python 語言上表現卓越
平均得分 88.6,其中 Web 91.5%、Android 89.7%、iOS 88.0%、Backend 86.7%
採用 230B 總參數的 MoE Transformer 架構,每個 token 推理時僅啟動 10B 參數,在不犧牲能力的前提下最大化效率
相比 M2 版本,提供更簡潔的模型回應和思維鏈,回應速度顯著加快,token 消耗明顯降低
展現出卓越的長程推理能力,能夠在不遺失上下文的情況下規劃和執行多步驟任務
透過我們完全託管的 MiniMax M2.1 API 服務,體驗企業級可靠性、安全性和成本效益。
透明成本的按用量付費定價。無隱藏費用,無最低承諾。免費開始使用。
企業級基礎設施,具備自動故障轉移、負載平衡和 24/7 監控,實現最高可靠性。
通過 SOC 2 Type II 認證的企業級安全性。您的資料在傳輸和靜態狀態下都採用業界領先的安全標準加密。
全球 CDN,在全球各地設有邊緣位置。優化的推理基礎設施提供低於一秒的回應時間。
專業技術支援團隊 24/7 全天候服務。獲得整合、優化和疑難排解方面的協助。
透過一個一致的 API 存取 300 多個 AI 模型(LLM、圖像、影片、音訊)。滿足您所有 AI 需求的單一整合。
體驗業界領先的程式設計能力,同時節省 90% 成本。透過 API 和開源部署方式均可使用。