LLM / Chat
Vue d'ensemble
Atlas Cloud fournit un accès aux grands modèles de langage leaders du secteur via une API compatible OpenAI. Si vous utilisez déjà le SDK OpenAI, changez simplement l'URL de base et la clé API — aucune autre modification de code nécessaire.
Capacités clés
- Génération de texte : Générez du contenu cohérent et contextuel pour tout cas d'utilisation
- IA conversationnelle : Construisez des chatbots et assistants avec support de conversation multi-tours
- Génération de code : Générez, examinez et déboguez du code dans n'importe quel langage de programmation
- Raisonnement : Raisonnement logique complexe, mathématiques et résolution de problèmes
- Traduction : Compréhension et génération interlinguistiques dans des dizaines de langues
- Résumé : Extraction d'informations clés et génération de résumés concis
Modèles en vedette
| Modèle | Fournisseur | Points forts |
|---|---|---|
| DeepSeek V3 | DeepSeek | Raisonnement et codage haute performance, économique |
| Qwen | Alibaba | Série de modèles multilingues puissants |
| Kimi | MoonshotAI | Forte compréhension de contexte long |
| GLM | Zhipu AI | Modèle bilingue chinois-anglais |
| MiniMax | MiniMax | Optimisé pour les applications multimédia |
Pour une liste complète de tous les modèles LLM et leurs spécifications, visitez la Bibliothèque de modèles.
Intégration API
URL de base
https://api.atlascloud.ai/v1L'API LLM prend en charge les modes streaming et non-streaming, entièrement compatible avec le format ChatCompletion d'OpenAI.
Python (SDK OpenAI)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Non-streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (Streaming)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Non-streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'Paramètres courants
| Paramètre | Type | Description |
|---|---|---|
model | string | Identifiant du modèle (ex., deepseek-v3, qwen-turbo) |
messages | array | Messages de conversation avec role et content |
temperature | number | Contrôle l'aléatoire (0.0 - 2.0, valeur par défaut variable selon le modèle) |
max_tokens | number | Nombre maximum de tokens dans la réponse |
stream | boolean | Activer la sortie en streaming |
top_p | number | Paramètre d'échantillonnage par noyau |
Utilisation avec des outils tiers
Puisque l'API est compatible OpenAI, elle fonctionne avec tout outil prenant en charge des points d'accès OpenAI personnalisés :
| Outil | Configuration |
|---|---|
| Chatbox | Définir l'hôte API sur https://api.atlascloud.ai/v1 |
| Cherry Studio | Ajouter un fournisseur OpenAI personnalisé |
| OpenWebUI | Configurer un point d'accès compatible OpenAI |
| LangChain | Utiliser ChatOpenAI avec base_url personnalisé |
| LlamaIndex | Utiliser la classe LLM compatible OpenAI |
Important : Incluez toujours le suffixe /v1 dans l'URL de base.
Conseils de sélection de modèle
- Rapport qualité-prix : DeepSeek V3 offre d'excellentes performances à des tarifs compétitifs
- Multilingue : Qwen excelle dans les tâches multilingues, notamment chinois-anglais
- Code : DeepSeek et GPT-4o sont de bons choix pour la génération et la revue de code
- Contexte long : Vérifiez la longueur de contexte maximale de chaque modèle dans la Bibliothèque de modèles
- Raisonnement : Choisissez des modèles avec des capacités de raisonnement dédiées pour les tâches complexes
Pour les détails de tarification, consultez la page Tarification API. Pour la spécification complète de l'API, consultez la Référence API.