Comenzar
Comienza con las APIs de modelos de Atlas Cloud en minutos. Esta guía cubre la configuración de la clave API, realizar llamadas API y usar herramientas de terceros.
Requisitos previos
- Una cuenta de Atlas Cloud
- Una clave API
Descripción general de la API
Atlas Cloud proporciona diferentes endpoints de API para diferentes tipos de modelos:
| Tipo de modelo | URL base | Formato |
|---|---|---|
| LLM (Chat) | https://api.atlascloud.ai/v1 | Compatible con OpenAI |
| Generación de imágenes | https://api.atlascloud.ai/api/v1 | API de Atlas Cloud |
| Generación de videos | https://api.atlascloud.ai/api/v1 | API de Atlas Cloud |
| Subida de archivos | https://api.atlascloud.ai/api/v1 | API de Atlas Cloud |
LLM / Completado de chat
La API LLM es totalmente compatible con OpenAI. Usa el SDK de OpenAI con la URL base de Atlas Cloud.
Python
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Sin streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
)
print(response.choices[0].message.content)
# Con streaming
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short poem about AI."}
],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Sin streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Con streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Write a short poem about AI." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
]
}'Generación de imágenes
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateImage",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "seedream-3.0",
"prompt": "A futuristic cityscape at sunset, cyberpunk style"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Generación de videos
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/generateVideo",
headers={
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
},
json={
"model": "kling-v2.0",
"prompt": "A timelapse of flowers blooming in a garden"
}
)
result = response.json()
prediction_id = result["data"]["id"]
print(f"Prediction ID: {prediction_id}")Subir archivos multimedia
Sube archivos locales para obtener URLs temporales para flujos de trabajo de imagen a video, edición de imágenes y más:
import requests
response = requests.post(
"https://api.atlascloud.ai/api/v1/model/uploadMedia",
headers={"Authorization": "Bearer your-api-key"},
files={"file": open("photo.jpg", "rb")}
)
url = response.json().get("url")
print(f"Uploaded file URL: {url}")Los archivos subidos son para uso temporal con las tareas de generación de Atlas Cloud. Los archivos pueden ser eliminados periódicamente.
Obtener resultados asíncronos
Las tareas de generación de imágenes y videos se ejecutan de forma asíncrona. Consulta los resultados usando el ID de predicción:
import requests
import time
def wait_for_result(prediction_id, api_key, interval=5):
while True:
resp = requests.get(
f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}",
headers={"Authorization": f"Bearer {api_key}"}
)
data = resp.json()
status = data["data"]["status"]
if status == "completed":
return data["data"]["outputs"][0]
elif status == "failed":
raise Exception(f"Task failed: {data['data'].get('error')}")
print(f"Status: {status}. Waiting...")
time.sleep(interval)
result = wait_for_result(prediction_id, "your-api-key")
print(f"Result: {result}")Uso con herramientas de terceros
Chatbox / Cherry Studio
- Abre Configuración -> Añadir proveedor personalizado
- Establece Host API como
https://api.atlascloud.ai/v1(el/v1es obligatorio) - Introduce tu clave API
- Selecciona un nombre de modelo de la Biblioteca de modelos
- Comienza a chatear
OpenWebUI
Configura una conexión compatible con OpenAI con la URL base https://api.atlascloud.ai/v1 y tu clave API.
Integración con IDE
Usa el Servidor MCP para acceder a los modelos de Atlas Cloud directamente desde tu IDE (Cursor, Claude Desktop, Claude Code, VS Code, etc.).
Explorar modelos
Explora los más de 300 modelos en la Biblioteca de modelos. Cada página de modelo incluye:
- Un Playground interactivo para probar con diferentes parámetros
- Vista API mostrando el formato exacto de solicitud y parámetros
- Información de precios
Para referencia detallada de la API, consulta la Referencia API.