LLM / Chat

Panoramica

Atlas Cloud fornisce accesso a modelli linguistici di grandi dimensioni leader del settore attraverso un'API compatibile con OpenAI. Se stai gia usando l'SDK OpenAI, basta cambiare l'URL di base e la chiave API — nessuna altra modifica al codice necessaria.

Capacita principali

  • Generazione di testo: Genera contenuti coerenti e contestualizzati per qualsiasi caso d'uso
  • IA conversazionale: Costruisci chatbot e assistenti con supporto per conversazioni multi-turno
  • Generazione di codice: Genera, revisiona e debugga codice in qualsiasi linguaggio di programmazione
  • Ragionamento: Ragionamento logico complesso, matematica e risoluzione di problemi
  • Traduzione: Comprensione e generazione multilingue in decine di lingue
  • Riassunto: Estrai informazioni chiave e genera riassunti concisi

Modelli in evidenza

ModelloProviderPunti di forza
DeepSeek V3DeepSeekRagionamento e codifica ad alte prestazioni, conveniente
QwenAlibabaPotente serie di modelli multilingue
KimiMoonshotAIForte comprensione del contesto lungo
GLMZhipu AIModello bilingue cinese-inglese
MiniMaxMiniMaxOttimizzato per applicazioni multimediali

Per un elenco completo di tutti i modelli LLM e le loro specifiche, visita la Libreria modelli.

Integrazione API

URL di base

https://api.atlascloud.ai/v1

L'API LLM supporta sia la modalita streaming che non streaming, completamente compatibile con il formato ChatCompletion di OpenAI.

Python (SDK OpenAI)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Senza streaming
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (streaming)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Senza streaming
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Con streaming
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

Parametri comuni

ParametroTipoDescrizione
modelstringIdentificatore del modello (es., deepseek-v3, qwen-turbo)
messagesarrayMessaggi della conversazione con role e content
temperaturenumberControlla la casualita (0.0 - 2.0, il valore predefinito varia per modello)
max_tokensnumberMassimo di token nella risposta
streambooleanAbilita l'output in streaming
top_pnumberParametro di campionamento per nucleo

Utilizzo con strumenti di terze parti

Poiche l'API e compatibile con OpenAI, funziona con qualsiasi strumento che supporti endpoint OpenAI personalizzati:

StrumentoConfigurazione
ChatboxImposta l'Host API su https://api.atlascloud.ai/v1
Cherry StudioAggiungi provider OpenAI personalizzato
OpenWebUIConfigura endpoint compatibile con OpenAI
LangChainUsa ChatOpenAI con base_url personalizzato
LlamaIndexUsa la classe LLM compatibile con OpenAI

Importante: Includi sempre il suffisso /v1 nell'URL di base.

Consigli per la selezione del modello

  • Rapporto qualita-prezzo: DeepSeek V3 offre eccellenti prestazioni a prezzi competitivi
  • Multilingue: Qwen eccelle nelle attivita multilingue, specialmente cinese-inglese
  • Codice: DeepSeek e GPT-4o sono scelte solide per generazione e revisione del codice
  • Contesto lungo: Verifica la lunghezza massima del contesto di ogni modello nella Libreria modelli
  • Ragionamento: Scegli modelli con capacita di ragionamento dedicate per attivita complesse

Per dettagli sui prezzi, consulta la pagina Prezzi API. Per la specifica completa dell'API, consulta il Riferimento API.