Pour chaque développeur, chaque étincelle de génie, rendue réelle.

Pour chaque développeur, chaque étincelle de génie, rendue réelle.

Une plateforme d'agrégation d'API de modèles d'IA multimodale conçue spécifiquement pour les développeurs. Une seule API donne accès aux meilleurs modèles du monde entier.

Une API, maîtrise totale de tous les modèles de premier plan.

Arrêtez de jongler avec les clés, les SDK et le JSON propre à chaque fournisseur. Atlas Cloud agrège plus de 300 modèles — LLM, image, vidéo et audio — derrière un endpoint unique compatible OpenAI. Nous tirons directement des sources officielles et des hubs cloud vérifiés, afin que le résultat soit le vrai modèle, pas un clone filtré. Changez la chaîne du modèle ; le reste de votre code reste identique.

BUILD WITH ATLAS CLOUD

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.ATLASCLOUD_API_KEY,
  baseURL: "https://api.atlascloud.ai/v1"
});

const model = "moonshotai/kimi-k2.6";
const prompt = "Summarise this PDF in 3 bullets.";

const resp = await client.chat.completions.create({
  model,
  messages: [{ role: "user", content: prompt }]
});
console.log(resp.choices[0].message.content);

Branchez-le à votre agent.

{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": ["-y", "atlascloud-mcp"],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Insérez-le dans n'importe quel client compatible MCP — Cursor, Windsurf, VS Code, Claude Desktop, Zed, JetBrains, Trae, Claude Code, Gemini CLI, Codex CLI, Goose et plus encore.

Fonctionnement

Notre plateforme héberge déjà plus de 300 modèles prêts à être exécutés en production. Vous pouvez appeler n'importe lequel d'entre eux avec une seule ligne de code.

Connectez-vous à n'importe quel client MCP

Insérez un seul bloc JSON dans Cursor, Claude Code, Claude Desktop, VS Code, Windsurf, Zed, JetBrains, Codex CLI, Gemini CLI, Goose ou tout autre client compatible MCP. Aucun code d'intégration spécifique au fournisseur.

Ajoutez ceci au mcp.json de votre client :
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": ["-y", "atlascloud-mcp"],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Puis demandez à votre agent de…

Une fois le serveur MCP atlascloud configuré, votre agent peut appeler n'importe lequel des 300+ modèles d'Atlas Cloud en langage naturel. Mentionnez Atlas Cloud par son nom pour que l'agent passe par l'outil MCP.

Discuter avec un LLM

Utilise le serveur MCP Atlas Cloud pour demander à DeepSeek V3.2 de résumer ce PDF en trois points.

Générer une image

Utilise Atlas Cloud pour générer une image avec Seedream v5.0 — un marché de rue cyberpunk au crépuscule pluvieux, 1024x1024.

Générer une vidéo

Appelle l'outil MCP d'Atlas Cloud et crée un plan cinématique de 10s du décollage d'une fusée à l'aube avec Seedance 2.0 en 1080p.

Éditer des médias locaux

Via le serveur MCP Atlas Cloud, édite ~/photos/cat.jpg avec Nano Banana 2 — ajoute un chapeau de sorcier, garde la composition identique.

Comment développer sur Atlas Cloud

Soyez opérationnel en quelques minutes — suivez les six étapes ci-dessous pour passer d'un compte tout neuf à une intégration en production.

Créez votre compte Atlas Cloud

Inscrivez-vous sur atlascloud.ai et vérifiez votre e-mail pour commencer à explorer tous les modèles de la plateforme.

Utiliser avec les outils de développement

Cursor
TRAE
droid
Roo Code
Codex CLI
Gemini CLI
Kilo Code
Cline
Claude
opencode
OpenClaw

Questions fréquemment posées

Tout ce que vous devez savoir avant d'écrire votre première ligne de code.

Non. L'endpoint chat est compatible OpenAI — pointez le SDK OpenAI (ou tout client HTTP) vers api.atlascloud.ai/v1 et changez la chaîne du modèle. Le streaming, le tool use et le function calling fonctionnent sans modification.

Le chat est synchrone. Les modèles d'image et de vidéo s'exécutent comme des prédictions asynchrones : vous envoyez un POST à l'endpoint de soumission et recevez un id de prédiction, puis vous envoyez un GET à l'endpoint de prédiction avec cet id jusqu'à ce que le statut soit succeeded. Interrogez environ toutes les 2 secondes — aucun webhook requis.

Plus de 300 modèles répartis entre LLM, image, vidéo et audio — DeepSeek, Qwen, Kimi, GLM, Seedance, Seedream, Nano Banana et d'autres. Parcourez le catalogue complet sur /models ; l'id de modèle que vous y copiez est la chaîne exacte à passer dans l'appel API.

Vous payez par token ou par prédiction selon la modalité — les tarifs s'affichent sur chaque carte de modèle. Les limites de débit par défaut sont généreuses et suffisent pour la plupart des charges de production. Si vous avez besoin de plus, écrivez à [email protected] et nous relèverons le plafond pour vous.

Oui — une seule configuration MCP branche Atlas Cloud sur tous les principaux clients compatibles MCP (Cursor, Windsurf, VS Code, Claude Desktop, Claude Code, Zed, JetBrains, Codex CLI, Gemini CLI, Goose et plus encore). L'agent peut alors appeler n'importe quel modèle Atlas Cloud en langage naturel. Une installation Skills en une ligne fonctionne aussi.

Consultez docs.atlascloud.ai pour la référence et les guides, ou ouvrez un ticket depuis la console. Pour les problèmes liés à MCP et Skills, les dépôts AtlasCloudAI/mcp-server et AtlasCloudAI/atlas-cloud-skills sur GitHub acceptent les issues et les PR.

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.