LLM / Chat

Vue d'ensemble

Atlas Cloud fournit un accès aux grands modèles de langage leaders du secteur via une API compatible OpenAI. Si vous utilisez déjà le SDK OpenAI, changez simplement l'URL de base et la clé API — aucune autre modification de code nécessaire.

Capacités clés

  • Génération de texte : Générez du contenu cohérent et contextuel pour tout cas d'utilisation
  • IA conversationnelle : Construisez des chatbots et assistants avec support de conversation multi-tours
  • Génération de code : Générez, examinez et déboguez du code dans n'importe quel langage de programmation
  • Raisonnement : Raisonnement logique complexe, mathématiques et résolution de problèmes
  • Traduction : Compréhension et génération interlinguistiques dans des dizaines de langues
  • Résumé : Extraction d'informations clés et génération de résumés concis

Modèles en vedette

ModèleFournisseurPoints forts
DeepSeek V3DeepSeekRaisonnement et codage haute performance, économique
QwenAlibabaSérie de modèles multilingues puissants
KimiMoonshotAIForte compréhension de contexte long
GLMZhipu AIModèle bilingue chinois-anglais
MiniMaxMiniMaxOptimisé pour les applications multimédia

Pour une liste complète de tous les modèles LLM et leurs spécifications, visitez la Bibliothèque de modèles.

Intégration API

URL de base

https://api.atlascloud.ai/v1

L'API LLM prend en charge les modes streaming et non-streaming, entièrement compatible avec le format ChatCompletion d'OpenAI.

Python (SDK OpenAI)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Non-streaming
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (Streaming)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Non-streaming
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Streaming
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

Paramètres courants

ParamètreTypeDescription
modelstringIdentifiant du modèle (ex., deepseek-v3, qwen-turbo)
messagesarrayMessages de conversation avec role et content
temperaturenumberContrôle l'aléatoire (0.0 - 2.0, valeur par défaut variable selon le modèle)
max_tokensnumberNombre maximum de tokens dans la réponse
streambooleanActiver la sortie en streaming
top_pnumberParamètre d'échantillonnage par noyau

Utilisation avec des outils tiers

Puisque l'API est compatible OpenAI, elle fonctionne avec tout outil prenant en charge des points d'accès OpenAI personnalisés :

OutilConfiguration
ChatboxDéfinir l'hôte API sur https://api.atlascloud.ai/v1
Cherry StudioAjouter un fournisseur OpenAI personnalisé
OpenWebUIConfigurer un point d'accès compatible OpenAI
LangChainUtiliser ChatOpenAI avec base_url personnalisé
LlamaIndexUtiliser la classe LLM compatible OpenAI

Important : Incluez toujours le suffixe /v1 dans l'URL de base.

Conseils de sélection de modèle

  • Rapport qualité-prix : DeepSeek V3 offre d'excellentes performances à des tarifs compétitifs
  • Multilingue : Qwen excelle dans les tâches multilingues, notamment chinois-anglais
  • Code : DeepSeek et GPT-4o sont de bons choix pour la génération et la revue de code
  • Contexte long : Vérifiez la longueur de contexte maximale de chaque modèle dans la Bibliothèque de modèles
  • Raisonnement : Choisissez des modèles avec des capacités de raisonnement dédiées pour les tâches complexes

Pour les détails de tarification, consultez la page Tarification API. Pour la spécification complète de l'API, consultez la Référence API.