LLM / Chat

Descripción general

Atlas Cloud proporciona acceso a modelos de lenguaje de gran escala líderes en la industria a través de una API compatible con OpenAI. Si ya estás usando el SDK de OpenAI, solo cambia la URL base y la clave API — no se necesitan otros cambios en el código.

Capacidades principales

  • Generación de texto: Genera contenido coherente y contextualizado para cualquier caso de uso
  • IA conversacional: Construye chatbots y asistentes con soporte de conversación multi-turno
  • Generación de código: Genera, revisa y depura código en cualquier lenguaje de programación
  • Razonamiento: Razonamiento lógico complejo, matemáticas y resolución de problemas
  • Traducción: Comprensión y generación multilingüe en docenas de idiomas
  • Resumen: Extrae información clave y genera resúmenes concisos

Modelos destacados

ModeloProveedorAspectos destacados
DeepSeek V3DeepSeekRazonamiento y codificación de alto rendimiento, rentable
QwenAlibabaPotente serie de modelos multilingües
KimiMoonshotAIFuerte comprensión de contexto largo
GLMZhipu AIModelo bilingüe chino-inglés
MiniMaxMiniMaxOptimizado para aplicaciones multimedia

Para una lista completa de todos los modelos LLM y sus especificaciones, visita la Biblioteca de modelos.

Integración de API

URL base

https://api.atlascloud.ai/v1

La API LLM soporta tanto el modo streaming como no streaming, totalmente compatible con el formato ChatCompletion de OpenAI.

Python (SDK de OpenAI)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Sin streaming
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (streaming)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Sin streaming
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Con streaming
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

Parámetros comunes

ParámetroTipoDescripción
modelstringIdentificador del modelo (ej., deepseek-v3, qwen-turbo)
messagesarrayMensajes de conversación con role y content
temperaturenumberControla la aleatoriedad (0.0 - 2.0, el valor predeterminado varía según el modelo)
max_tokensnumberMáximo de tokens en la respuesta
streambooleanHabilitar salida en streaming
top_pnumberParámetro de muestreo por núcleo

Uso con herramientas de terceros

Como la API es compatible con OpenAI, funciona con cualquier herramienta que soporte endpoints personalizados de OpenAI:

HerramientaConfiguración
ChatboxEstablece el Host API como https://api.atlascloud.ai/v1
Cherry StudioAñadir proveedor OpenAI personalizado
OpenWebUIConfigurar endpoint compatible con OpenAI
LangChainUsa ChatOpenAI con base_url personalizada
LlamaIndexUsa la clase LLM compatible con OpenAI

Importante: Siempre incluye el sufijo /v1 en la URL base.

Consejos de selección de modelos

  • Rentabilidad: DeepSeek V3 ofrece excelente rendimiento a precios competitivos
  • Multilingüe: Qwen destaca en tareas multilingües, especialmente chino-inglés
  • Código: DeepSeek y GPT-4o son opciones sólidas para generación y revisión de código
  • Contexto largo: Verifica la longitud máxima de contexto de cada modelo en la Biblioteca de modelos
  • Razonamiento: Elige modelos con capacidades de razonamiento dedicadas para tareas complejas

Para detalles de precios, consulta la página de Precios de API. Para la especificación completa de la API, consulta la Referencia API.