Erste Schritte
Starten Sie mit den Atlas Cloud Modell-APIs in wenigen Minuten. Dieser Leitfaden behandelt die API-Schlüssel-Einrichtung, API-Aufrufe und die Verwendung von Drittanbieter-Tools.
Voraussetzungen
- Ein Atlas Cloud-Konto
- Ein API-Schlüssel
API-Überblick
Atlas Cloud bietet verschiedene API-Endpunkte für verschiedene Modelltypen:
| Modelltyp | Basis-URL | Format |
|---|---|---|
| LLM (Chat) | https://api.atlascloud.ai/v1 | OpenAI-kompatibel |
| Bildgenerierung | https://api.atlascloud.ai/api/v1 | Atlas Cloud API |
| Videogenerierung | https://api.atlascloud.ai/api/v1 | Atlas Cloud API |
| Medien-Upload | https://api.atlascloud.ai/api/v1 | Atlas Cloud API |
LLM / Chat Completions
Die LLM-API ist vollständig OpenAI-kompatibel. Verwenden Sie das OpenAI SDK mit der Basis-URL von Atlas Cloud.
Python
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Non-Streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
)
print(response.choices[0].message.content)
# Streaming
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short poem about AI."}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Non-Streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Write a short poem about AI." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
}'Bildgenerierung
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateImage",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "seedream-3.0",
"prompt": "A futuristic cityscape at sunset, cyberpunk style"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Videogenerierung
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateVideo",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "kling-v2.0",
"prompt": "A timelapse of flowers blooming in a garden"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Medien hochladen
Laden Sie lokale Dateien hoch, um temporäre URLs für Bild-zu-Video, Bildbearbeitung und andere mehrstufige Workflows zu erhalten:
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/uploadMedia",
headers={"Authorization": "Bearer your-api-key"},
files={"file": open("photo.jpg", "rb")}
)
url = response.json().get("url")
print(f"Uploaded file URL: {url}")Hochgeladene Dateien sind für die temporäre Verwendung mit Atlas Cloud-Generierungsaufgaben bestimmt. Dateien können regelmäßig bereinigt werden.
Asynchrone Ergebnisse abrufen
Bild- und Videogenerierungsaufgaben laufen asynchron. Pollen Sie mit der Vorhersage-ID auf Ergebnisse:
import requests
import time
def wait_for_result(prediction_id, api_key, interval=5):
while True:
resp = requests.get(
f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}",
headers={"Authorization": f"Bearer {api_key}"}
)
data = resp.json()
status = data["data"]["status"]
if status == "completed":
return data["data"]["outputs"][0]
elif status == "failed":
raise Exception(f"Task failed: {data['data'].get('error')}")
print(f"Status: {status}. Waiting...")
time.sleep(interval)
result = wait_for_result(prediction_id, "your-api-key")
print(f"Result: {result}")Verwendung von Drittanbieter-Tools
Chatbox / Cherry Studio
- Öffnen Sie Einstellungen -> Benutzerdefinierten Anbieter hinzufügen
- Setzen Sie den API-Host auf
https://api.atlascloud.ai/v1(das/v1ist erforderlich) - Geben Sie Ihren API-Schlüssel ein
- Wählen Sie einen Modellnamen aus der Modellbibliothek
- Beginnen Sie zu chatten
OpenWebUI
Konfigurieren Sie eine OpenAI-kompatible Verbindung mit der Basis-URL https://api.atlascloud.ai/v1 und Ihrem API-Schlüssel.
IDE-Integration
Verwenden Sie den MCP-Server, um direkt aus Ihrer IDE (Cursor, Claude Desktop, Claude Code, VS Code usw.) auf Atlas Cloud-Modelle zuzugreifen.
Modelle erkunden
Durchsuchen Sie alle über 300 Modelle in der Modellbibliothek. Jede Modellseite enthält:
- Einen interaktiven Playground zum Testen mit verschiedenen Parametern
- API-Ansicht mit dem genauen Anfrageformat und den Parametern
- Preisinformationen
Für die detaillierte API-Referenz siehe die API-Referenz.