Inizia
Inizia con le API dei modelli di Atlas Cloud in pochi minuti. Questa guida copre la configurazione della chiave API, le chiamate API e l'uso di strumenti di terze parti.
Prerequisiti
- Un account Atlas Cloud
- Una chiave API
Panoramica dell'API
Atlas Cloud fornisce endpoint API diversi per diversi tipi di modelli:
| Tipo di modello | URL di base | Formato |
|---|---|---|
| LLM (Chat) | https://api.atlascloud.ai/v1 | Compatibile con OpenAI |
| Generazione immagini | https://api.atlascloud.ai/api/v1 | API Atlas Cloud |
| Generazione video | https://api.atlascloud.ai/api/v1 | API Atlas Cloud |
| Caricamento media | https://api.atlascloud.ai/api/v1 | API Atlas Cloud |
LLM / Completamento chat
L'API LLM e completamente compatibile con OpenAI. Usa l'SDK OpenAI con l'URL di base di Atlas Cloud.
Python
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Senza streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
)
print(response.choices[0].message.content)
# Con streaming
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short poem about AI."}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Senza streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Con streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Write a short poem about AI." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
}'Generazione di immagini
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateImage",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "seedream-3.0",
"prompt": "A futuristic cityscape at sunset, cyberpunk style"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Generazione di video
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateVideo",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "kling-v2.0",
"prompt": "A timelapse of flowers blooming in a garden"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Carica media
Carica file locali per ottenere URL temporanei per flussi di lavoro da immagine a video, modifica di immagini e altro:
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/uploadMedia",
headers={"Authorization": "Bearer your-api-key"},
files={"file": open("photo.jpg", "rb")}
)
url = response.json().get("url")
print(f"Uploaded file URL: {url}")I file caricati sono per uso temporaneo con le attivita di generazione di Atlas Cloud. I file possono essere eliminati periodicamente.
Ottenere risultati asincroni
Le attivita di generazione di immagini e video vengono eseguite in modo asincrono. Interroga i risultati usando l'ID di predizione:
import requests
import time
def wait_for_result(prediction_id, api_key, interval=5):
while True:
resp = requests.get(
f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}",
headers={"Authorization": f"Bearer {api_key}"}
)
data = resp.json()
status = data["data"]["status"]
if status == "completed":
return data["data"]["outputs"][0]
elif status == "failed":
raise Exception(f"Task failed: {data['data'].get('error')}")
print(f"Status: {status}. Waiting...")
time.sleep(interval)
result = wait_for_result(prediction_id, "your-api-key")
print(f"Result: {result}")Utilizzo con strumenti di terze parti
Chatbox / Cherry Studio
- Apri Impostazioni -> Aggiungi provider personalizzato
- Imposta Host API su
https://api.atlascloud.ai/v1(il/v1e obbligatorio) - Inserisci la tua chiave API
- Seleziona un nome di modello dalla Libreria modelli
- Inizia a chattare
OpenWebUI
Configura una connessione compatibile con OpenAI con l'URL di base https://api.atlascloud.ai/v1 e la tua chiave API.
Integrazione IDE
Usa il Server MCP per accedere ai modelli di Atlas Cloud direttamente dal tuo IDE (Cursor, Claude Desktop, Claude Code, VS Code, ecc.).
Esplora i modelli
Sfoglia gli oltre 300 modelli nella Libreria modelli. Ogni pagina del modello include:
- Un Playground interattivo per testare con diversi parametri
- Vista API che mostra il formato esatto della richiesta e i parametri
- Informazioni sui prezzi
Per il riferimento API dettagliato, consulta il Riferimento API.