LLM / Chat
Überblick
Atlas Cloud bietet Zugang zu branchenführenden großen Sprachmodellen über eine OpenAI-kompatible API. Wenn Sie bereits das OpenAI SDK verwenden, ändern Sie einfach die Basis-URL und den API-Schlüssel — keine weiteren Code-Änderungen erforderlich.
Hauptfähigkeiten
- Textgenerierung: Generieren Sie kohärente, kontextbewusste Inhalte für jeden Anwendungsfall
- Konversations-KI: Erstellen Sie Chatbots und Assistenten mit Unterstützung für mehrteilige Konversationen
- Code-Generierung: Generieren, überprüfen und debuggen Sie Code in jeder Programmiersprache
- Reasoning: Komplexes logisches Reasoning, Mathematik und Problemlösung
- Übersetzung: Sprachübergreifendes Verständnis und Generierung in Dutzenden von Sprachen
- Zusammenfassung: Schlüsselinformationen extrahieren und prägnante Zusammenfassungen generieren
Ausgewählte Modelle
| Modell | Anbieter | Highlights |
|---|---|---|
| DeepSeek V3 | DeepSeek | Hochleistungs-Reasoning und Coding, kosteneffizient |
| Qwen | Alibaba | Leistungsstarke mehrsprachige Modellserie |
| Kimi | MoonshotAI | Starkes Verständnis langer Kontexte |
| GLM | Zhipu AI | Zweisprachiges Chinesisch-Englisch-Modell |
| MiniMax | MiniMax | Optimiert für Multimedia-Anwendungen |
Eine vollständige Liste aller LLM-Modelle und deren Spezifikationen finden Sie in der Modellbibliothek.
API-Integration
Basis-URL
https://api.atlascloud.ai/v1Die LLM-API unterstützt sowohl Streaming- als auch Non-Streaming-Modi, vollständig kompatibel mit dem OpenAI ChatCompletion-Format.
Python (OpenAI SDK)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Non-Streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (Streaming)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Non-Streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'Häufige Parameter
| Parameter | Typ | Beschreibung |
|---|---|---|
model | string | Modellkennung (z. B. deepseek-v3, qwen-turbo) |
messages | array | Konversationsnachrichten mit role und content |
temperature | number | Steuert die Zufälligkeit (0.0 - 2.0, Standard variiert je nach Modell) |
max_tokens | number | Maximale Tokens in der Antwort |
stream | boolean | Streaming-Ausgabe aktivieren |
top_p | number | Nucleus-Sampling-Parameter |
Verwendung mit Drittanbieter-Tools
Da die API OpenAI-kompatibel ist, funktioniert sie mit jedem Tool, das benutzerdefinierte OpenAI-Endpunkte unterstützt:
| Tool | Konfiguration |
|---|---|
| Chatbox | API-Host auf https://api.atlascloud.ai/v1 setzen |
| Cherry Studio | Benutzerdefinierten OpenAI-Anbieter hinzufügen |
| OpenWebUI | OpenAI-kompatiblen Endpunkt konfigurieren |
| LangChain | ChatOpenAI mit benutzerdefinierter base_url verwenden |
| LlamaIndex | OpenAI-kompatible LLM-Klasse verwenden |
Wichtig: Fügen Sie immer das Suffix /v1 in die Basis-URL ein.
Tipps zur Modellauswahl
- Kosteneffizienz: DeepSeek V3 bietet hervorragende Leistung zu wettbewerbsfähigen Preisen
- Mehrsprachig: Qwen zeichnet sich bei mehrsprachigen Aufgaben aus, besonders Chinesisch-Englisch
- Code: DeepSeek und GPT-4o sind starke Optionen für Code-Generierung und -Review
- Langer Kontext: Prüfen Sie die maximale Kontextlänge jedes Modells in der Modellbibliothek
- Reasoning: Wählen Sie Modelle mit dedizierten Reasoning-Fähigkeiten für komplexe Aufgaben
Für Preisdetails siehe die Seite API-Preise. Für die vollständige API-Spezifikation siehe die API-Referenz.