Premiers pas
Démarrez avec les APIs de modèles Atlas Cloud en quelques minutes. Ce guide couvre la configuration de la clé API, les appels API et l'utilisation d'outils tiers.
Prérequis
- Un compte Atlas Cloud
- Une clé API
Aperçu de l'API
Atlas Cloud fournit différents points d'accès API pour différents types de modèles :
| Type de modèle | URL de base | Format |
|---|---|---|
| LLM (Chat) | https://api.atlascloud.ai/v1 | Compatible OpenAI |
| Génération d'images | https://api.atlascloud.ai/api/v1 | API Atlas Cloud |
| Génération de vidéos | https://api.atlascloud.ai/api/v1 | API Atlas Cloud |
| Téléversement de médias | https://api.atlascloud.ai/api/v1 | API Atlas Cloud |
LLM / Chat Completions
L'API LLM est entièrement compatible OpenAI. Utilisez le SDK OpenAI avec l'URL de base d'Atlas Cloud.
Python
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Non-streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
)
print(response.choices[0].message.content)
# Streaming
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short poem about AI."}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Non-streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Write a short poem about AI." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
}'Génération d'images
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateImage",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "seedream-3.0",
"prompt": "A futuristic cityscape at sunset, cyberpunk style"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Génération de vidéos
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateVideo",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "kling-v2.0",
"prompt": "A timelapse of flowers blooming in a garden"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Téléverser des médias
Téléversez des fichiers locaux pour obtenir des URLs temporaires pour les flux image-vers-vidéo, édition d'images et autres flux de travail multi-étapes :
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/uploadMedia",
headers={"Authorization": "Bearer your-api-key"},
files={"file": open("photo.jpg", "rb")}
)
url = response.json().get("url")
print(f"Uploaded file URL: {url}")Les fichiers téléversés sont destinés à une utilisation temporaire avec les tâches de génération Atlas Cloud. Les fichiers peuvent être nettoyés périodiquement.
Obtenir les résultats asynchrones
Les tâches de génération d'images et de vidéos s'exécutent de manière asynchrone. Interrogez les résultats en utilisant l'ID de prédiction :
import requests
import time
def wait_for_result(prediction_id, api_key, interval=5):
while True:
resp = requests.get(
f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}",
headers={"Authorization": f"Bearer {api_key}"}
)
data = resp.json()
status = data["data"]["status"]
if status == "completed":
return data["data"]["outputs"][0]
elif status == "failed":
raise Exception(f"Task failed: {data['data'].get('error')}")
print(f"Status: {status}. Waiting...")
time.sleep(interval)
result = wait_for_result(prediction_id, "your-api-key")
print(f"Result: {result}")Utilisation d'outils tiers
Chatbox / Cherry Studio
- Ouvrez Paramètres -> Ajouter un fournisseur personnalisé
- Définissez l'hôte API sur
https://api.atlascloud.ai/v1(le/v1est requis) - Entrez votre clé API
- Sélectionnez un nom de modèle dans la Bibliothèque de modèles
- Commencez à discuter
OpenWebUI
Configurez une connexion compatible OpenAI avec l'URL de base https://api.atlascloud.ai/v1 et votre clé API.
Intégration IDE
Utilisez le Serveur MCP pour accéder aux modèles Atlas Cloud directement depuis votre IDE (Cursor, Claude Desktop, Claude Code, VS Code, etc.).
Explorer les modèles
Parcourez tous les 300+ modèles dans la Bibliothèque de modèles. Chaque page de modèle comprend :
- Un Playground interactif pour tester avec différents paramètres
- Une vue API montrant le format exact de requête et les paramètres
- Les informations de tarification
Pour la référence API détaillée, consultez la Référence API.