LLM / Chat
Panoramica
Atlas Cloud fornisce accesso a modelli linguistici di grandi dimensioni leader del settore attraverso un'API compatibile con OpenAI. Se stai gia usando l'SDK OpenAI, basta cambiare l'URL di base e la chiave API — nessuna altra modifica al codice necessaria.
Capacita principali
- Generazione di testo: Genera contenuti coerenti e contestualizzati per qualsiasi caso d'uso
- IA conversazionale: Costruisci chatbot e assistenti con supporto per conversazioni multi-turno
- Generazione di codice: Genera, revisiona e debugga codice in qualsiasi linguaggio di programmazione
- Ragionamento: Ragionamento logico complesso, matematica e risoluzione di problemi
- Traduzione: Comprensione e generazione multilingue in decine di lingue
- Riassunto: Estrai informazioni chiave e genera riassunti concisi
Modelli in evidenza
| Modello | Provider | Punti di forza |
|---|---|---|
| DeepSeek V3 | DeepSeek | Ragionamento e codifica ad alte prestazioni, conveniente |
| Qwen | Alibaba | Potente serie di modelli multilingue |
| Kimi | MoonshotAI | Forte comprensione del contesto lungo |
| GLM | Zhipu AI | Modello bilingue cinese-inglese |
| MiniMax | MiniMax | Ottimizzato per applicazioni multimediali |
Per un elenco completo di tutti i modelli LLM e le loro specifiche, visita la Libreria modelli.
Integrazione API
URL di base
https://api.atlascloud.ai/v1L'API LLM supporta sia la modalita streaming che non streaming, completamente compatibile con il formato ChatCompletion di OpenAI.
Python (SDK OpenAI)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Senza streaming
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (streaming)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Senza streaming
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Con streaming
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'Parametri comuni
| Parametro | Tipo | Descrizione |
|---|---|---|
model | string | Identificatore del modello (es., deepseek-v3, qwen-turbo) |
messages | array | Messaggi della conversazione con role e content |
temperature | number | Controlla la casualita (0.0 - 2.0, il valore predefinito varia per modello) |
max_tokens | number | Massimo di token nella risposta |
stream | boolean | Abilita l'output in streaming |
top_p | number | Parametro di campionamento per nucleo |
Utilizzo con strumenti di terze parti
Poiche l'API e compatibile con OpenAI, funziona con qualsiasi strumento che supporti endpoint OpenAI personalizzati:
| Strumento | Configurazione |
|---|---|
| Chatbox | Imposta l'Host API su https://api.atlascloud.ai/v1 |
| Cherry Studio | Aggiungi provider OpenAI personalizzato |
| OpenWebUI | Configura endpoint compatibile con OpenAI |
| LangChain | Usa ChatOpenAI con base_url personalizzato |
| LlamaIndex | Usa la classe LLM compatibile con OpenAI |
Importante: Includi sempre il suffisso /v1 nell'URL di base.
Consigli per la selezione del modello
- Rapporto qualita-prezzo: DeepSeek V3 offre eccellenti prestazioni a prezzi competitivi
- Multilingue: Qwen eccelle nelle attivita multilingue, specialmente cinese-inglese
- Codice: DeepSeek e GPT-4o sono scelte solide per generazione e revisione del codice
- Contesto lungo: Verifica la lunghezza massima del contesto di ogni modello nella Libreria modelli
- Ragionamento: Scegli modelli con capacita di ragionamento dedicate per attivita complesse
Per dettagli sui prezzi, consulta la pagina Prezzi API. Per la specifica completa dell'API, consulta il Riferimento API.