Z-Image Turbo
text-to-image
TURBO

Z-Image Turbo API by Alibaba

z-image/turbo
Turbo

Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.

INPUT

Loading parameter configuration...

OUTPUT

Idle
Your generated images will appear here
Configure your settings and click Run to get started

Your request will cost $0.01 per run. For $10 you can run this model approximately 1000 times.

Here's what you can do next:

Parametri

Esempio di codice

import requests
import time

# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "z-image/turbo",
    "prompt": "A beautiful landscape with mountains and lake",
    "width": 512,
    "height": 512,
    "steps": 20,
    "guidance_scale": 7.5,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] == "completed":
            print("Generated image:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

image_url = check_status()

Installa

Installa il pacchetto richiesto per il tuo linguaggio.

bash
pip install requests

Autenticazione

Tutte le richieste API richiedono l'autenticazione tramite una chiave API. Puoi ottenere la tua chiave API dalla dashboard di Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Header HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Proteggi la tua chiave API

Non esporre mai la tua chiave API nel codice lato client o nei repository pubblici. Utilizza invece variabili d'ambiente o un proxy backend.

Invia una richiesta

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Invia una richiesta

Invia una richiesta di generazione asincrona. L'API restituisce un ID di previsione che puoi usare per controllare lo stato e recuperare il risultato.

POST/api/v1/model/generateImage

Corpo della richiesta

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "z-image/turbo",
    "input": {
        "prompt": "A beautiful landscape with mountains and lake"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

Risposta

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

Controlla lo stato

Interroga l'endpoint di previsione per verificare lo stato attuale della tua richiesta.

GET/api/v1/model/prediction/{prediction_id}

Esempio di polling

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

Valori di stato

processingLa richiesta è ancora in fase di elaborazione.
completedLa generazione è completata. I risultati sono disponibili.
succeededLa generazione è riuscita. I risultati sono disponibili.
failedLa generazione è fallita. Controlla il campo errore.

Risposta completata

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.png"
    ],
    "metrics": {
      "predict_time": 8.3
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

Carica file

Carica file nello storage Atlas Cloud e ottieni un URL utilizzabile nelle tue richieste API. Usa multipart/form-data per il caricamento.

POST/api/v1/model/uploadMedia

Esempio di caricamento

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

Risposta

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Schema di input

I seguenti parametri sono accettati nel corpo della richiesta.

Totale: 0Obbligatorio: 0Opzionale: 0

Nessun parametro disponibile.

Esempio di corpo della richiesta

json
{
  "model": "z-image/turbo"
}

Schema di output

L'API restituisce una risposta di previsione con gli URL degli output generati.

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for image generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

Esempio di risposta

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.png"
  ],
  "metrics": {
    "predict_time": 8.3
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills integra oltre 300 modelli di IA direttamente nel tuo assistente di codifica IA. Un comando per installare, poi usa il linguaggio naturale per generare immagini, video e chattare con LLM.

Client supportati

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ client supportati

Installa

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Configura chiave API

Ottieni la tua chiave API dalla dashboard di Atlas Cloud e impostala come variabile d'ambiente.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Funzionalità

Una volta installato, puoi usare il linguaggio naturale nel tuo assistente IA per accedere a tutti i modelli Atlas Cloud.

Generazione di immaginiGenera immagini con modelli come Nano Banana 2, Z-Image e altri.
Creazione di videoCrea video da testo o immagini con Kling, Vidu, Veo, ecc.
Chat LLMChatta con Qwen, DeepSeek e altri grandi modelli linguistici.
Caricamento mediaCarica file locali per la modifica di immagini e flussi di lavoro da immagine a video.

Server MCP

Il server MCP di Atlas Cloud collega il tuo IDE con oltre 300 modelli di IA tramite il Model Context Protocol. Funziona con qualsiasi client compatibile MCP.

Client supportati

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ client supportati

Installa

bash
npx -y atlascloud-mcp

Configurazione

Aggiungi la seguente configurazione al file delle impostazioni MCP del tuo IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Strumenti disponibili

atlas_generate_imageGenera immagini da prompt testuali.
atlas_generate_videoCrea video da testo o immagini.
atlas_chatChatta con grandi modelli linguistici.
atlas_list_modelsEsplora oltre 300 modelli di IA disponibili.
atlas_quick_generateCreazione di contenuti in un solo passaggio con selezione automatica del modello.
atlas_upload_mediaCarica file locali per i flussi di lavoro API.

API Schema

Schema not available

Please log in to view request history

You need to be logged in to access your model request history.

Log In

Z-Image Turbo - Generazione Testo-Immagine Ultrarapida

NUOVO

Modello da 6 Miliardi di Parametri di Alibaba TONGYIMAI

Z-Image Turbo è il modello testo-immagine open source classificato #1, superando FLUX.2 [dev], HunyuanImage 3.0 e Qwen-Image nell'Artificial Analysis Image Arena. Costruito dal team Tongyi-MAI di Alibaba (una divisione separata da Qwen/Wan), questo modello da 6 miliardi di parametri raggiunge una generazione in meno di un secondo attraverso una distillazione avanzata Decoupled-DMD mantenendo una qualità fotorealistica. Con soli 8 passaggi di inferenza, si adatta a 16GB di VRAM e fornisce risultati professionali ottimizzati per ambienti di produzione critici per la velocità.

Generazione Ultrarapida
  • Solo 8 passaggi di inferenza (vs 20-50 dei concorrenti)
  • Generazione in meno di un secondo su GPU H800
  • 1.31-1.41× più veloce di Qwen Image per passaggio
  • Si adatta a 16GB di VRAM (RTX 3060/4090)
Qualità Fotorealistica
  • Modello open source classificato #1 su AI Arena
  • Rendering di testo bilingue (inglese e cinese)
  • Aderenza robusta alle istruzioni
  • Supera FLUX.1 [dev] e Qwen in tutte le categorie

Portfolio Strategico di Modelli di Alibaba

Alibaba offre tre sistemi specializzati di generazione di immagini IA, ciascuno ottimizzato per diversi casi d'uso

Campione di Velocità

Z-Image Turbo

Team Tongyi-MAI

Best For: Carichi di lavoro di produzione critici per la velocità
  • ⚡ Più veloce: 8 passaggi, generazione in meno di un secondo
  • 🏆 Modello open source classificato #1
  • 💰 Più conveniente ($0.005/immagine)
  • 🎯 Ottimizzato per iterazioni rapide
Re della Qualità

Qwen-Image

Team Qwen

Best For: Rendering finali di massima qualità
  • 🎨 Fotorealismo e texture della pelle ineguagliabili
  • 💡 Interazioni di illuminazione superiori
  • ⏱️ Più lento (20s vs 5-10s per Z-Image)
  • 🎯 Migliore per lavori di produzione di alta qualità
Professionista della Versatilità

Wan 2.5/2.6

Team Wan

Best For: Versatilità multimediale
  • 🎬 Testo-Video + Immagine-Video
  • 📹 Supporto multi-risoluzione (480P-720P)
  • 🔄 Sincronizzazione audiovisiva
  • 🎯 Generazione di contenuti multimodali

Key Insight: Z-Image Turbo è 1.31-1.41× più veloce di Qwen-Image per passaggio, rendendolo ideale per applicazioni che richiedono una generazione rapida. Sebbene Qwen-Image offra un fotorealismo leggermente migliore per i rendering finali, Z-Image Turbo fornisce il miglior equilibrio tra velocità e qualità per ambienti di produzione.

Punti Salienti Tecnici

Prestazioni
Architettura S3-DiT

Adotta l'architettura Single-Stream Diffusion Transformer (S3-DiT) che unifica l'elaborazione di vari input condizionali. Questo design da 6 miliardi di parametri raggiunge risultati professionali senza il sovraccarico computazionale di modelli più grandi mantenendo una qualità all'avanguardia.

Velocità
Distillazione Decoupled-DMD

Algoritmo di distillazione avanzato con meccanismi di CFG Augmentation e Distribution Matching consente un'inferenza in 8 passaggi (vs 20-50 per i concorrenti). Raggiunge una generazione in meno di un secondo su GPU H800 e funziona senza problemi su RTX 3060/4090 consumer con 16GB di VRAM.

Qualità
Prestazioni Leader Open Source

Classificato come modello open source #1 nell'Artificial Analysis Image Arena, superando FLUX.2 [dev], HunyuanImage 3.0 e Qwen-Image. Eccelle nel rendering di testo bilingue (inglese e cinese), generazione fotorealistica e seguimento robusto delle istruzioni. Rilasciato con licenza Apache 2.0 per uso commerciale.

Perfetto Per

🎨
Creazione di Arte Digitale
📸
Fotografia di Prodotti
📊
Materiali di Marketing
🎬
Concept Art
📱
Contenuti per Social Media
🖼️
Fotografia Stock
🎮
Asset di Gioco
Prototipazione Creativa

Perché Scegliere Z-Image Turbo

Risultati Istantanei
Generazione in meno di un secondo con latenza di avvio a freddo zero. Ottieni le tue immagini immediatamente senza attese.
💰
Conveniente
Prezzo accessibile di $0.005 per immagine. Scala i tuoi progetti creativi senza superare il budget.
🔌
API Pronta all'Uso
Integrazione semplice di REST API. Inizia a generare immagini in pochi minuti con la nostra documentazione completa.

Specifiche Tecniche

Architettura del Modello6 Miliardi di Parametri
Passaggi di Inferenza8 NFEs (Number of Function Evaluations)
Velocità di GenerazioneMeno di un secondo su H800, 5-10s su GPU consumer
Requisito VRAM16GB (compatibile RTX 3060/4090)
ArchitetturaSingle-Stream Diffusion Transformer (S3-DiT)
Metodo di DistillazioneDecoupled-DMD con CFG Augmentation
LicenzaApache 2.0 (Uso Commerciale Consentito)
Classifica#1 Open Source su Artificial Analysis Arena
Prezzo$0.005 per Immagine

Inizia a Creare con Z-Image Turbo

Sperimenta oggi la generazione di immagini fotorealistiche ultrarapida. Nessuna configurazione richiesta, basta chiamare la nostra API e iniziare a creare.

Nessun avvio a freddo - generazione istantanea
Prezzo accessibile - $0.005 per immagine
Risultati di qualità professionale

Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image

Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.

Ultra-fast generation with production-ready quality

Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.

Why it looks so good?

  • Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
  • Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
  • Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
  • Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
  • Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
  • Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.

How to use

  • prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
  • size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
  • seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.

Pricing

Simple per-image billing:

  • Without prompt rewriting (prompt_extend=false): $0.015 per generated image
  • With prompt rewriting (prompt_extend=true): $0.03 per generated image

Try more models and see their difference!

  • Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
  • Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
  • FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.

Paper

Tongyi-MAI/Z-Image-Turbo

Inizia con Oltre 300 Modelli,

Esplora tutti i modelli

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.