Premiers pas

Démarrez avec les APIs de modèles Atlas Cloud en quelques minutes. Ce guide couvre la configuration de la clé API, les appels API et l'utilisation d'outils tiers.

Prérequis

Aperçu de l'API

Atlas Cloud fournit différents points d'accès API pour différents types de modèles :

Type de modèleURL de baseFormat
LLM (Chat)https://api.atlascloud.ai/v1Compatible OpenAI
Génération d'imageshttps://api.atlascloud.ai/api/v1API Atlas Cloud
Génération de vidéoshttps://api.atlascloud.ai/api/v1API Atlas Cloud
Téléversement de médiashttps://api.atlascloud.ai/api/v1API Atlas Cloud

LLM / Chat Completions

L'API LLM est entièrement compatible OpenAI. Utilisez le SDK OpenAI avec l'URL de base d'Atlas Cloud.

Python

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Non-streaming
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
)
print(response.choices[0].message.content)

# Streaming
stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short poem about AI."}
    ],
    stream=True
)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Non-streaming
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Streaming
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Write a short poem about AI." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
  }'

Génération d'images

import requests

response = requests.post(
    "https://api.atlascloud.ai/api/v1/model/generateImage",
    headers={
        "Authorization": "Bearer your-api-key",
        "Content-Type": "application/json"
    },
    json={
        "model": "seedream-3.0",
        "prompt": "A futuristic cityscape at sunset, cyberpunk style"
    }
)

result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")

Génération de vidéos

import requests

response = requests.post(
    "https://api.atlascloud.ai/api/v1/model/generateVideo",
    headers={
        "Authorization": "Bearer your-api-key",
        "Content-Type": "application/json"
    },
    json={
        "model": "kling-v2.0",
        "prompt": "A timelapse of flowers blooming in a garden"
    }
)

result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")

Téléverser des médias

Téléversez des fichiers locaux pour obtenir des URLs temporaires pour les flux image-vers-vidéo, édition d'images et autres flux de travail multi-étapes :

import requests

response = requests.post(
    "https://api.atlascloud.ai/api/v1/model/uploadMedia",
    headers={"Authorization": "Bearer your-api-key"},
    files={"file": open("photo.jpg", "rb")}
)

url = response.json().get("url")
print(f"Uploaded file URL: {url}")

Les fichiers téléversés sont destinés à une utilisation temporaire avec les tâches de génération Atlas Cloud. Les fichiers peuvent être nettoyés périodiquement.

Obtenir les résultats asynchrones

Les tâches de génération d'images et de vidéos s'exécutent de manière asynchrone. Interrogez les résultats en utilisant l'ID de prédiction :

import requests
import time

def wait_for_result(prediction_id, api_key, interval=5):
    while True:
        resp = requests.get(
            f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}",
            headers={"Authorization": f"Bearer {api_key}"}
        )
        data = resp.json()
        status = data["data"]["status"]

        if status == "completed":
            return data["data"]["outputs"][0]
        elif status == "failed":
            raise Exception(f"Task failed: {data['data'].get('error')}")

        print(f"Status: {status}. Waiting...")
        time.sleep(interval)

result = wait_for_result(prediction_id, "your-api-key")
print(f"Result: {result}")

Utilisation d'outils tiers

Chatbox / Cherry Studio

  1. Ouvrez Paramètres -> Ajouter un fournisseur personnalisé
  2. Définissez l'hôte API sur https://api.atlascloud.ai/v1 (le /v1 est requis)
  3. Entrez votre clé API
  4. Sélectionnez un nom de modèle dans la Bibliothèque de modèles
  5. Commencez à discuter

OpenWebUI

Configurez une connexion compatible OpenAI avec l'URL de base https://api.atlascloud.ai/v1 et votre clé API.

Intégration IDE

Utilisez le Serveur MCP pour accéder aux modèles Atlas Cloud directement depuis votre IDE (Cursor, Claude Desktop, Claude Code, VS Code, etc.).

Explorer les modèles

Parcourez tous les 300+ modèles dans la Bibliothèque de modèles. Chaque page de modèle comprend :

  • Un Playground interactif pour tester avec différents paramètres
  • Une vue API montrant le format exact de requête et les paramètres
  • Les informations de tarification

Pour la référence API détaillée, consultez la Référence API.