
Z-Image Turbo API by Alibaba
Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.
Entrée
Sortie
InactifVotre requête coûtera $0.01 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 1000 fois.
Vous pouvez continuer avec :
Exemple de code
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()Installer
Installez le package requis pour votre langage.
pip install requestsAuthentification
Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"En-têtes HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.
Soumettre une requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Soumettre une requête
Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.
/api/v1/model/generateImageCorps de la requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Réponse
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Vérifier le statut
Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.
/api/v1/model/prediction/{prediction_id}Exemple d'interrogation
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Valeurs de statut
processingLa requête est encore en cours de traitement.completedLa génération est terminée. Les résultats sont disponibles.succeededLa génération a réussi. Les résultats sont disponibles.failedLa génération a échoué. Vérifiez le champ d'erreur.Réponse terminée
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Télécharger des fichiers
Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.
/api/v1/model/uploadMediaExemple de téléchargement
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Réponse
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema d'entrée
Les paramètres suivants sont acceptés dans le corps de la requête.
Aucun paramètre disponible.
Exemple de corps de requête
{
"model": "z-image/turbo"
}Schema de sortie
L'API renvoie une réponse de prédiction avec les URL des résultats générés.
Exemple de réponse
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.
Clients pris en charge
Installer
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigurer la clé API
Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.
export ATLASCLOUD_API_KEY="your-api-key-here"Fonctionnalités
Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.
Serveur MCP
Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.
Clients pris en charge
Installer
npx -y atlascloud-mcpConfiguration
Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Outils disponibles
Schéma API
Schéma non disponibleVeuillez vous connecter pour voir l'historique des requêtes
Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.
Se ConnecterZ-Image Turbo - Génération Texte vers Image Ultra-Rapide
NOUVEAUModèle de 6 Milliards de Paramètres d'Alibaba TONGYIMAI
Z-Image Turbo est le modèle texte vers image open source classé #1, surpassant FLUX.2 [dev], HunyuanImage 3.0 et Qwen-Image sur l'Artificial Analysis Image Arena. Construit par l'équipe Tongyi-MAI d'Alibaba (une division distincte de Qwen/Wan), ce modèle de 6 milliards de paramètres atteint une génération en moins d'une seconde grâce à une distillation avancée Decoupled-DMD tout en maintenant une qualité photoréaliste. Avec seulement 8 étapes d'inférence, il tient dans 16 Go de VRAM et livre des résultats professionnels optimisés pour les environnements de production critiques en vitesse.
- Seulement 8 étapes d'inférence (vs 20-50 pour les concurrents)
- Génération en moins d'une seconde sur GPU H800
- 1.31-1.41× plus rapide que Qwen Image par étape
- Tient dans 16 Go de VRAM (RTX 3060/4090)
- Modèle open source classé #1 sur AI Arena
- Rendu de texte bilingue (anglais et chinois)
- Adhérence robuste aux instructions
- Surpasse FLUX.1 [dev] et Qwen dans toutes les catégories
Portefeuille Stratégique de Modèles d'Alibaba
Alibaba propose trois systèmes spécialisés de génération d'images IA, chacun optimisé pour différents cas d'usage
Z-Image Turbo
Équipe Tongyi-MAI
- ⚡ Plus rapide : 8 étapes, génération en moins d'une seconde
- 🏆 Modèle open source classé #1
- 💰 Plus rentable ($0.005/image)
- 🎯 Optimisé pour l'itération rapide
Qwen-Image
Équipe Qwen
- 🎨 Photoréalisme et textures de peau incomparables
- 💡 Interactions d'éclairage supérieures
- ⏱️ Plus lent (20s vs 5-10s pour Z-Image)
- 🎯 Meilleur pour le travail de production haut de gamme
Wan 2.5/2.6
Équipe Wan
- 🎬 Texte vers Vidéo + Image vers Vidéo
- 📹 Support multi-résolutions (480P-720P)
- 🔄 Synchronisation audiovisuelle
- 🎯 Génération de contenu multimodal
Key Insight: Z-Image Turbo est 1.31-1.41× plus rapide que Qwen-Image par étape, ce qui le rend idéal pour les applications nécessitant une génération rapide. Bien que Qwen-Image offre un photoréalisme légèrement meilleur pour les rendus finaux, Z-Image Turbo offre le meilleur équilibre entre vitesse et qualité pour les environnements de production.
Points Forts Techniques
Adopte l'architecture Single-Stream Diffusion Transformer (S3-DiT) qui unifie le traitement de diverses entrées conditionnelles. Cette conception de 6 milliards de paramètres atteint des résultats professionnels sans la surcharge de calcul des modèles plus grands tout en maintenant une qualité de pointe.
Algorithme de distillation avancé avec mécanismes de CFG Augmentation et Distribution Matching permet une inférence en 8 étapes (vs 20-50 pour les concurrents). Atteint une génération en moins d'une seconde sur GPU H800 et fonctionne en douceur sur RTX 3060/4090 grand public avec 16 Go de VRAM.
Classé modèle open source #1 sur Artificial Analysis Image Arena, battant FLUX.2 [dev], HunyuanImage 3.0 et Qwen-Image. Excelle dans le rendu de texte bilingue (anglais et chinois), la génération photoréaliste et le suivi robuste des instructions. Publié sous licence Apache 2.0 pour usage commercial.
Parfait Pour
Pourquoi Choisir Z-Image Turbo
Résultats Instantanés
Génération en moins d'une seconde avec zéro latence de démarrage à froid. Obtenez vos images immédiatement sans attendre.Rentable
Prix abordable de $0.005 par image. Développez vos projets créatifs sans faire exploser le budget.API Prête à l'Emploi
Intégration simple de REST API. Commencez à générer des images en quelques minutes avec notre documentation complète.Spécifications Techniques
Commencez à Créer avec Z-Image Turbo
Découvrez la génération d'images photoréalistes ultra-rapide dès aujourd'hui. Aucune configuration requise, appelez simplement notre API et commencez à créer.
Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image
Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.
Ultra-fast generation with production-ready quality
Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.
Why it looks so good?
- Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
- Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
- Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
- Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
- Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
- Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.
How to use
- prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
- size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
- seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.
Pricing
Simple per-image billing:
- Without prompt rewriting (prompt_extend=false): $0.015 per generated image
- With prompt rewriting (prompt_extend=true): $0.03 per generated image
Try more models and see their difference!
- Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
- Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
- FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.






