
Z-Image Turbo API by Alibaba
Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.
INPUT
OUTPUT
IdleYour request will cost $0.01 per run. For $10 you can run this model approximately 1000 times.
Here's what you can do next:
Esempio di codice
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()Installa
Installa il pacchetto richiesto per il tuo linguaggio.
pip install requestsAutenticazione
Tutte le richieste API richiedono l'autenticazione tramite una chiave API. Puoi ottenere la tua chiave API dalla dashboard di Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"Header HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Non esporre mai la tua chiave API nel codice lato client o nei repository pubblici. Utilizza invece variabili d'ambiente o un proxy backend.
Invia una richiesta
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Invia una richiesta
Invia una richiesta di generazione asincrona. L'API restituisce un ID di previsione che puoi usare per controllare lo stato e recuperare il risultato.
/api/v1/model/generateImageCorpo della richiesta
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Risposta
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Controlla lo stato
Interroga l'endpoint di previsione per verificare lo stato attuale della tua richiesta.
/api/v1/model/prediction/{prediction_id}Esempio di polling
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Valori di stato
processingLa richiesta è ancora in fase di elaborazione.completedLa generazione è completata. I risultati sono disponibili.succeededLa generazione è riuscita. I risultati sono disponibili.failedLa generazione è fallita. Controlla il campo errore.Risposta completata
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Carica file
Carica file nello storage Atlas Cloud e ottieni un URL utilizzabile nelle tue richieste API. Usa multipart/form-data per il caricamento.
/api/v1/model/uploadMediaEsempio di caricamento
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Risposta
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema di input
I seguenti parametri sono accettati nel corpo della richiesta.
Nessun parametro disponibile.
Esempio di corpo della richiesta
{
"model": "z-image/turbo"
}Schema di output
L'API restituisce una risposta di previsione con gli URL degli output generati.
Esempio di risposta
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills integra oltre 300 modelli di IA direttamente nel tuo assistente di codifica IA. Un comando per installare, poi usa il linguaggio naturale per generare immagini, video e chattare con LLM.
Client supportati
Installa
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigura chiave API
Ottieni la tua chiave API dalla dashboard di Atlas Cloud e impostala come variabile d'ambiente.
export ATLASCLOUD_API_KEY="your-api-key-here"Funzionalità
Una volta installato, puoi usare il linguaggio naturale nel tuo assistente IA per accedere a tutti i modelli Atlas Cloud.
Server MCP
Il server MCP di Atlas Cloud collega il tuo IDE con oltre 300 modelli di IA tramite il Model Context Protocol. Funziona con qualsiasi client compatibile MCP.
Client supportati
Installa
npx -y atlascloud-mcpConfigurazione
Aggiungi la seguente configurazione al file delle impostazioni MCP del tuo IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Strumenti disponibili
API Schema
Schema not availablePlease log in to view request history
You need to be logged in to access your model request history.
Log InZ-Image Turbo - Generazione Testo-Immagine Ultrarapida
NUOVOModello da 6 Miliardi di Parametri di Alibaba TONGYIMAI
Z-Image Turbo è il modello testo-immagine open source classificato #1, superando FLUX.2 [dev], HunyuanImage 3.0 e Qwen-Image nell'Artificial Analysis Image Arena. Costruito dal team Tongyi-MAI di Alibaba (una divisione separata da Qwen/Wan), questo modello da 6 miliardi di parametri raggiunge una generazione in meno di un secondo attraverso una distillazione avanzata Decoupled-DMD mantenendo una qualità fotorealistica. Con soli 8 passaggi di inferenza, si adatta a 16GB di VRAM e fornisce risultati professionali ottimizzati per ambienti di produzione critici per la velocità.
- Solo 8 passaggi di inferenza (vs 20-50 dei concorrenti)
- Generazione in meno di un secondo su GPU H800
- 1.31-1.41× più veloce di Qwen Image per passaggio
- Si adatta a 16GB di VRAM (RTX 3060/4090)
- Modello open source classificato #1 su AI Arena
- Rendering di testo bilingue (inglese e cinese)
- Aderenza robusta alle istruzioni
- Supera FLUX.1 [dev] e Qwen in tutte le categorie
Portfolio Strategico di Modelli di Alibaba
Alibaba offre tre sistemi specializzati di generazione di immagini IA, ciascuno ottimizzato per diversi casi d'uso
Z-Image Turbo
Team Tongyi-MAI
- ⚡ Più veloce: 8 passaggi, generazione in meno di un secondo
- 🏆 Modello open source classificato #1
- 💰 Più conveniente ($0.005/immagine)
- 🎯 Ottimizzato per iterazioni rapide
Qwen-Image
Team Qwen
- 🎨 Fotorealismo e texture della pelle ineguagliabili
- 💡 Interazioni di illuminazione superiori
- ⏱️ Più lento (20s vs 5-10s per Z-Image)
- 🎯 Migliore per lavori di produzione di alta qualità
Wan 2.5/2.6
Team Wan
- 🎬 Testo-Video + Immagine-Video
- 📹 Supporto multi-risoluzione (480P-720P)
- 🔄 Sincronizzazione audiovisiva
- 🎯 Generazione di contenuti multimodali
Key Insight: Z-Image Turbo è 1.31-1.41× più veloce di Qwen-Image per passaggio, rendendolo ideale per applicazioni che richiedono una generazione rapida. Sebbene Qwen-Image offra un fotorealismo leggermente migliore per i rendering finali, Z-Image Turbo fornisce il miglior equilibrio tra velocità e qualità per ambienti di produzione.
Punti Salienti Tecnici
Adotta l'architettura Single-Stream Diffusion Transformer (S3-DiT) che unifica l'elaborazione di vari input condizionali. Questo design da 6 miliardi di parametri raggiunge risultati professionali senza il sovraccarico computazionale di modelli più grandi mantenendo una qualità all'avanguardia.
Algoritmo di distillazione avanzato con meccanismi di CFG Augmentation e Distribution Matching consente un'inferenza in 8 passaggi (vs 20-50 per i concorrenti). Raggiunge una generazione in meno di un secondo su GPU H800 e funziona senza problemi su RTX 3060/4090 consumer con 16GB di VRAM.
Classificato come modello open source #1 nell'Artificial Analysis Image Arena, superando FLUX.2 [dev], HunyuanImage 3.0 e Qwen-Image. Eccelle nel rendering di testo bilingue (inglese e cinese), generazione fotorealistica e seguimento robusto delle istruzioni. Rilasciato con licenza Apache 2.0 per uso commerciale.
Perfetto Per
Perché Scegliere Z-Image Turbo
Risultati Istantanei
Generazione in meno di un secondo con latenza di avvio a freddo zero. Ottieni le tue immagini immediatamente senza attese.Conveniente
Prezzo accessibile di $0.005 per immagine. Scala i tuoi progetti creativi senza superare il budget.API Pronta all'Uso
Integrazione semplice di REST API. Inizia a generare immagini in pochi minuti con la nostra documentazione completa.Specifiche Tecniche
Inizia a Creare con Z-Image Turbo
Sperimenta oggi la generazione di immagini fotorealistiche ultrarapida. Nessuna configurazione richiesta, basta chiamare la nostra API e iniziare a creare.
Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image
Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.
Ultra-fast generation with production-ready quality
Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.
Why it looks so good?
- Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
- Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
- Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
- Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
- Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
- Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.
How to use
- prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
- size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
- seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.
Pricing
Simple per-image billing:
- Without prompt rewriting (prompt_extend=false): $0.015 per generated image
- With prompt rewriting (prompt_extend=true): $0.03 per generated image
Try more models and see their difference!
- Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
- Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
- FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.






