LLM / Chat
Descripción general
Atlas Cloud proporciona acceso a modelos de lenguaje de gran escala líderes en la industria a través de una API compatible con OpenAI. Si ya estás usando el SDK de OpenAI, solo cambia la URL base y la clave API — no se necesitan otros cambios en el código.
Capacidades principales
- Generación de texto: Genera contenido coherente y contextualizado para cualquier caso de uso
- IA conversacional: Construye chatbots y asistentes con soporte de conversación multi-turno
- Generación de código: Genera, revisa y depura código en cualquier lenguaje de programación
- Razonamiento: Razonamiento lógico complejo, matemáticas y resolución de problemas
- Traducción: Comprensión y generación multilingüe en docenas de idiomas
- Resumen: Extrae información clave y genera resúmenes concisos
Modelos destacados
| Modelo | Proveedor | Aspectos destacados |
|---|---|---|
| DeepSeek V3 | DeepSeek | Razonamiento y codificación de alto rendimiento, rentable |
| Qwen | Alibaba | Potente serie de modelos multilingües |
| Kimi | MoonshotAI | Fuerte comprensión de contexto largo |
| GLM | Zhipu AI | Modelo bilingüe chino-inglés |
| MiniMax | MiniMax | Optimizado para aplicaciones multimedia |
Para una lista completa de todos los modelos LLM y sus especificaciones, visita la Biblioteca de modelos.
Integración de API
URL base
https://api.atlascloud.ai/v1La API LLM soporta tanto el modo streaming como no streaming, totalmente compatible con el formato ChatCompletion de OpenAI.
Python (SDK de OpenAI)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Sin streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (streaming)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Sin streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Con streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'Parámetros comunes
| Parámetro | Tipo | Descripción |
|---|---|---|
model | string | Identificador del modelo (ej., deepseek-v3, qwen-turbo) |
messages | array | Mensajes de conversación con role y content |
temperature | number | Controla la aleatoriedad (0.0 - 2.0, el valor predeterminado varía según el modelo) |
max_tokens | number | Máximo de tokens en la respuesta |
stream | boolean | Habilitar salida en streaming |
top_p | number | Parámetro de muestreo por núcleo |
Uso con herramientas de terceros
Como la API es compatible con OpenAI, funciona con cualquier herramienta que soporte endpoints personalizados de OpenAI:
| Herramienta | Configuración |
|---|---|
| Chatbox | Establece el Host API como https://api.atlascloud.ai/v1 |
| Cherry Studio | Añadir proveedor OpenAI personalizado |
| OpenWebUI | Configurar endpoint compatible con OpenAI |
| LangChain | Usa ChatOpenAI con base_url personalizada |
| LlamaIndex | Usa la clase LLM compatible con OpenAI |
Importante: Siempre incluye el sufijo /v1 en la URL base.
Consejos de selección de modelos
- Rentabilidad: DeepSeek V3 ofrece excelente rendimiento a precios competitivos
- Multilingüe: Qwen destaca en tareas multilingües, especialmente chino-inglés
- Código: DeepSeek y GPT-4o son opciones sólidas para generación y revisión de código
- Contexto largo: Verifica la longitud máxima de contexto de cada modelo en la Biblioteca de modelos
- Razonamiento: Elige modelos con capacidades de razonamiento dedicadas para tareas complejas
Para detalles de precios, consulta la página de Precios de API. Para la especificación completa de la API, consulta la Referencia API.