LLM / Chat

Überblick

Atlas Cloud bietet Zugang zu branchenführenden großen Sprachmodellen über eine OpenAI-kompatible API. Wenn Sie bereits das OpenAI SDK verwenden, ändern Sie einfach die Basis-URL und den API-Schlüssel — keine weiteren Code-Änderungen erforderlich.

Hauptfähigkeiten

  • Textgenerierung: Generieren Sie kohärente, kontextbewusste Inhalte für jeden Anwendungsfall
  • Konversations-KI: Erstellen Sie Chatbots und Assistenten mit Unterstützung für mehrteilige Konversationen
  • Code-Generierung: Generieren, überprüfen und debuggen Sie Code in jeder Programmiersprache
  • Reasoning: Komplexes logisches Reasoning, Mathematik und Problemlösung
  • Übersetzung: Sprachübergreifendes Verständnis und Generierung in Dutzenden von Sprachen
  • Zusammenfassung: Schlüsselinformationen extrahieren und prägnante Zusammenfassungen generieren

Ausgewählte Modelle

ModellAnbieterHighlights
DeepSeek V3DeepSeekHochleistungs-Reasoning und Coding, kosteneffizient
QwenAlibabaLeistungsstarke mehrsprachige Modellserie
KimiMoonshotAIStarkes Verständnis langer Kontexte
GLMZhipu AIZweisprachiges Chinesisch-Englisch-Modell
MiniMaxMiniMaxOptimiert für Multimedia-Anwendungen

Eine vollständige Liste aller LLM-Modelle und deren Spezifikationen finden Sie in der Modellbibliothek.

API-Integration

Basis-URL

https://api.atlascloud.ai/v1

Die LLM-API unterstützt sowohl Streaming- als auch Non-Streaming-Modi, vollständig kompatibel mit dem OpenAI ChatCompletion-Format.

Python (OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Non-Streaming
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (Streaming)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Non-Streaming
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Streaming
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

Häufige Parameter

ParameterTypBeschreibung
modelstringModellkennung (z. B. deepseek-v3, qwen-turbo)
messagesarrayKonversationsnachrichten mit role und content
temperaturenumberSteuert die Zufälligkeit (0.0 - 2.0, Standard variiert je nach Modell)
max_tokensnumberMaximale Tokens in der Antwort
streambooleanStreaming-Ausgabe aktivieren
top_pnumberNucleus-Sampling-Parameter

Verwendung mit Drittanbieter-Tools

Da die API OpenAI-kompatibel ist, funktioniert sie mit jedem Tool, das benutzerdefinierte OpenAI-Endpunkte unterstützt:

ToolKonfiguration
ChatboxAPI-Host auf https://api.atlascloud.ai/v1 setzen
Cherry StudioBenutzerdefinierten OpenAI-Anbieter hinzufügen
OpenWebUIOpenAI-kompatiblen Endpunkt konfigurieren
LangChainChatOpenAI mit benutzerdefinierter base_url verwenden
LlamaIndexOpenAI-kompatible LLM-Klasse verwenden

Wichtig: Fügen Sie immer das Suffix /v1 in die Basis-URL ein.

Tipps zur Modellauswahl

  • Kosteneffizienz: DeepSeek V3 bietet hervorragende Leistung zu wettbewerbsfähigen Preisen
  • Mehrsprachig: Qwen zeichnet sich bei mehrsprachigen Aufgaben aus, besonders Chinesisch-Englisch
  • Code: DeepSeek und GPT-4o sind starke Optionen für Code-Generierung und -Review
  • Langer Kontext: Prüfen Sie die maximale Kontextlänge jedes Modells in der Modellbibliothek
  • Reasoning: Wählen Sie Modelle mit dedizierten Reasoning-Fähigkeiten für komplexe Aufgaben

Für Preisdetails siehe die Seite API-Preise. Für die vollständige API-Spezifikation siehe die API-Referenz.