Inizia

Inizia con le API dei modelli di Atlas Cloud in pochi minuti. Questa guida copre la configurazione della chiave API, le chiamate API e l'uso di strumenti di terze parti.

Prerequisiti

Panoramica dell'API

Atlas Cloud fornisce endpoint API diversi per diversi tipi di modelli:

Tipo di modelloURL di baseFormato
LLM (Chat)https://api.atlascloud.ai/v1Compatibile con OpenAI
Generazione immaginihttps://api.atlascloud.ai/api/v1API Atlas Cloud
Generazione videohttps://api.atlascloud.ai/api/v1API Atlas Cloud
Caricamento mediahttps://api.atlascloud.ai/api/v1API Atlas Cloud

LLM / Completamento chat

L'API LLM e completamente compatibile con OpenAI. Usa l'SDK OpenAI con l'URL di base di Atlas Cloud.

Python

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Senza streaming
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
)
print(response.choices[0].message.content)

# Con streaming
stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short poem about AI."}
    ],
    stream=True
)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Senza streaming
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Con streaming
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Write a short poem about AI." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
  }'

Generazione di immagini

import requests

response = requests.post(
    "https://api.atlascloud.ai/api/v1/model/generateImage",
    headers={
        "Authorization": "Bearer your-api-key",
        "Content-Type": "application/json"
    },
    json={
        "model": "seedream-3.0",
        "prompt": "A futuristic cityscape at sunset, cyberpunk style"
    }
)

result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")

Generazione di video

import requests

response = requests.post(
    "https://api.atlascloud.ai/api/v1/model/generateVideo",
    headers={
        "Authorization": "Bearer your-api-key",
        "Content-Type": "application/json"
    },
    json={
        "model": "kling-v2.0",
        "prompt": "A timelapse of flowers blooming in a garden"
    }
)

result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")

Carica media

Carica file locali per ottenere URL temporanei per flussi di lavoro da immagine a video, modifica di immagini e altro:

import requests

response = requests.post(
    "https://api.atlascloud.ai/api/v1/model/uploadMedia",
    headers={"Authorization": "Bearer your-api-key"},
    files={"file": open("photo.jpg", "rb")}
)

url = response.json().get("url")
print(f"Uploaded file URL: {url}")

I file caricati sono per uso temporaneo con le attivita di generazione di Atlas Cloud. I file possono essere eliminati periodicamente.

Ottenere risultati asincroni

Le attivita di generazione di immagini e video vengono eseguite in modo asincrono. Interroga i risultati usando l'ID di predizione:

import requests
import time

def wait_for_result(prediction_id, api_key, interval=5):
    while True:
        resp = requests.get(
            f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}",
            headers={"Authorization": f"Bearer {api_key}"}
        )
        data = resp.json()
        status = data["data"]["status"]

        if status == "completed":
            return data["data"]["outputs"][0]
        elif status == "failed":
            raise Exception(f"Task failed: {data['data'].get('error')}")

        print(f"Status: {status}. Waiting...")
        time.sleep(interval)

result = wait_for_result(prediction_id, "your-api-key")
print(f"Result: {result}")

Utilizzo con strumenti di terze parti

Chatbox / Cherry Studio

  1. Apri Impostazioni -> Aggiungi provider personalizzato
  2. Imposta Host API su https://api.atlascloud.ai/v1 (il /v1 e obbligatorio)
  3. Inserisci la tua chiave API
  4. Seleziona un nome di modello dalla Libreria modelli
  5. Inizia a chattare

OpenWebUI

Configura una connessione compatibile con OpenAI con l'URL di base https://api.atlascloud.ai/v1 e la tua chiave API.

Integrazione IDE

Usa il Server MCP per accedere ai modelli di Atlas Cloud direttamente dal tuo IDE (Cursor, Claude Desktop, Claude Code, VS Code, ecc.).

Esplora i modelli

Sfoglia gli oltre 300 modelli nella Libreria modelli. Ogni pagina del modello include:

  • Un Playground interattivo per testare con diversi parametri
  • Vista API che mostra il formato esatto della richiesta e i parametri
  • Informazioni sui prezzi

Per il riferimento API dettagliato, consulta il Riferimento API.