為每一位開發者,將每一道靈光化為真實。

專為開發者打造的多模態 AI 模型 API 聚合平台。一組 API 即可呼叫全球頂尖模型。

一組 API,掌握所有頂尖模型。

別再為金鑰、SDK 和供應商專屬 JSON 手忙腳亂。Atlas Cloud 把 300+ 模型(LLM、圖片、影片、音訊)聚合在同一個相容 OpenAI 的 endpoint 後面。我們直接從官方來源與可信雲端節點拉取,呈現出來的就是原版模型,不是經過篩減的複製品。替換模型字串,其餘程式碼維持不變。

用 ATLAS CLOUD 打造你的產品

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ATLASCLOUD_API_KEY,
  baseURL: "https://api.atlascloud.ai/v1"
});

const model = "moonshotai/kimi-k2.6";
const prompt = "Summarise this PDF in 3 bullets.";

const resp = await client.chat.completions.create({
  model,
  messages: [{ role: "user", content: prompt }]
});
console.log(resp.choices[0].message.content);

在你的 Agent 中直接使用。

{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": ["-y", "atlascloud-mcp"],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

把這段貼進任何相容 MCP 的客戶端 — Cursor、Windsurf、VS Code、Claude Desktop、Zed、JetBrains、Trae、Claude Code、Gemini CLI、Codex CLI、Goose 等等。

運作方式

我們的平台已上架 300+ 可直接投入生產的模型,任何一個都能用一行程式碼呼叫。

接入任何 MCP 客戶端

將一段 JSON 貼進 Cursor、Claude Code、Claude Desktop、VS Code、Windsurf、Zed、JetBrains、Codex CLI、Gemini CLI、Goose 或任何相容 MCP 的客戶端即可,完全不需要供應商專屬的黏合程式碼。

把這段加入你客戶端的 mcp.json:
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": ["-y", "atlascloud-mcp"],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

接著叫你的 agent …

atlascloud MCP 伺服器接好之後,agent 就能用自然語言呼叫 Atlas Cloud 的 300+ 模型。只要在指令中提到 Atlas Cloud,agent 就會走 MCP 工具路徑。

與 LLM 對話

使用 Atlas Cloud MCP 伺服器,請 DeepSeek V3.2 用三條要點摘要這份 PDF。

生成圖片

使用 Atlas Cloud 以 Seedream v5.0 生成一張圖片 — 雨夜黃昏中的賽博龐克街市,1024x1024。

生成影片

呼叫 Atlas Cloud MCP 工具,以 Seedance 2.0 在 1080p 下產生一段 10 秒的電影感火箭清晨升空鏡頭。

編輯本地媒體

透過 Atlas Cloud MCP 伺服器,用 Nano Banana 2 編輯 ~/photos/cat.jpg — 加上一頂巫師帽,構圖維持不變。

如何在 Atlas Cloud 上開發

幾分鐘即可上手 — 照著下面六個步驟,從全新帳號一路走到可上線的整合。

建立你的 Atlas Cloud 帳號

atlascloud.ai 註冊並驗證電子郵件,即可開始探索平台上的每一個模型。

搭配 Coding 工具使用

Cursor
TRAE
droid
Roo Code
Codex CLI
Gemini CLI
Kilo Code
Cline
Claude
opencode
OpenClaw

常見問題

動筆寫下第一行程式碼前,你需要知道的一切。

不需要。Chat endpoint 相容 OpenAI — 把 OpenAI SDK(或任意 HTTP client)指向 api.atlascloud.ai/v1,再替換模型字串即可。串流、tool use 與 function calling 全部照常運作。

Chat 是同步呼叫;圖片與影片模型則以非同步 prediction 形式執行:你 POST 到 submit endpoint 拿到一個 prediction id,再以該 id 對 prediction endpoint 發 GET,直到 status 變成 succeeded。每 2 秒輪詢一次大致足夠 — 不需要 webhook。

涵蓋 LLM、圖片、影片與音訊的 300+ 模型 — DeepSeek、Qwen、Kimi、GLM、Seedance、Seedream、Nano Banana 等等。到 /models 瀏覽完整列表,你在那裡複製到的模型 id,就是 API 呼叫時要傳入的字串。

依模態不同,按 token 或按 prediction 計費 — 每張模型卡片上都會顯示價格。預設的速率限制相當寬裕,足以應付多數正式環境的流量。若需要更高額度,來信 [email protected],我們會為你調升上限。

可以 — 一份 MCP 設定就能把 Atlas Cloud 接進所有主流相容 MCP 的客戶端(Cursor、Windsurf、VS Code、Claude Desktop、Claude Code、Zed、JetBrains、Codex CLI、Gemini CLI、Goose 等等)。接上之後,agent 就能用自然語言呼叫任何 Atlas Cloud 模型。一行指令的 Skills 安裝方式也同樣可行。

參考資料與指南請見 docs.atlascloud.ai,也可以從主控台開立工單。關於 MCP 與 Skills 的問題,可以到 GitHub 上的 AtlasCloudAI/mcp-server 與 AtlasCloudAI/atlas-cloud-skills repo 提 issue 或 PR。

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.