
Z-Image Turbo API by Alibaba
Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.
الإدخال
الإخراج
في انتظار التنفيذكل مرة ستكلف $0.01 مع $10 يمكنك التشغيل حوالي 1000 مرة
يمكنك المتابعة بـ:
مثال الكود
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()التثبيت
قم بتثبيت الحزمة المطلوبة للغة البرمجة الخاصة بك.
pip install requestsالمصادقة
تتطلب جميع طلبات API المصادقة عبر مفتاح API. يمكنك الحصول على مفتاح API الخاص بك من لوحة تحكم Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"ترويسات HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}لا تكشف أبدًا مفتاح API الخاص بك في الكود من جانب العميل أو المستودعات العامة. استخدم متغيرات البيئة أو وكيل الخادم الخلفي بدلاً من ذلك.
إرسال طلب
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())إرسال طلب
أرسل طلب توليد غير متزامن. تُرجع API معرّف التنبؤ الذي يمكنك استخدامه للتحقق من الحالة واسترداد النتيجة.
/api/v1/model/generateImageنص الطلب
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")الاستجابة
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}التحقق من الحالة
استعلم عن نقطة نهاية التنبؤ للتحقق من الحالة الحالية لطلبك.
/api/v1/model/prediction/{prediction_id}مثال الاستعلام
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)قيم الحالة
processingلا يزال الطلب قيد المعالجة.completedاكتمل التوليد. المخرجات متاحة.succeededنجح التوليد. المخرجات متاحة.failedفشل التوليد. تحقق من حقل الخطأ.استجابة مكتملة
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}رفع الملفات
ارفع الملفات إلى تخزين Atlas Cloud واحصل على URL يمكنك استخدامه في طلبات API الخاصة بك. استخدم multipart/form-data للرفع.
/api/v1/model/uploadMediaمثال الرفع
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")الاستجابة
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Input Schema
المعاملات التالية مقبولة في نص الطلب.
لا توجد معاملات متاحة.
مثال على نص الطلب
{
"model": "z-image/turbo"
}Output Schema
تُرجع API استجابة تنبؤ تحتوي على عناوين URL للمخرجات المولّدة.
مثال على الاستجابة
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
يدمج Atlas Cloud Skills أكثر من 300 نموذج ذكاء اصطناعي مباشرة في مساعد البرمجة بالذكاء الاصطناعي الخاص بك. أمر واحد للتثبيت، ثم استخدم اللغة الطبيعية لتوليد الصور ومقاطع الفيديو والدردشة مع LLM.
العملاء المدعومون
التثبيت
npx skills add AtlasCloudAI/atlas-cloud-skillsإعداد مفتاح API
احصل على مفتاح API الخاص بك من لوحة تحكم Atlas Cloud وعيّنه كمتغير بيئة.
export ATLASCLOUD_API_KEY="your-api-key-here"الإمكانيات
بمجرد التثبيت، يمكنك استخدام اللغة الطبيعية في مساعد الذكاء الاصطناعي الخاص بك للوصول إلى جميع نماذج Atlas Cloud.
MCP Server
يربط Atlas Cloud MCP Server بيئة التطوير الخاصة بك بأكثر من 300 نموذج ذكاء اصطناعي عبر Model Context Protocol. يعمل مع أي عميل متوافق مع MCP.
العملاء المدعومون
التثبيت
npx -y atlascloud-mcpالتكوين
أضف التكوين التالي إلى ملف إعدادات MCP في بيئة التطوير الخاصة بك.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}الأدوات المتاحة
مخطط API
المخطط غير متاحZ-Image Turbo - إنشاء الصور من النص بسرعة البرق
جديدنموذج 6 مليار معامل من Alibaba TONGYIMAI
Z-Image Turbo هو نموذج النص إلى الصورة مفتوح المصدر الأول والمصنف رقم 1، متفوقاً على FLUX.2 [dev] و HunyuanImage 3.0 و Qwen-Image في Artificial Analysis Image Arena. تم بناؤه بواسطة فريق Tongyi-MAI في Alibaba (قسم منفصل عن Qwen/Wan)، يحقق هذا النموذج ذو 6 مليارات معامل إنشاءً في أقل من ثانية من خلال التقطير المتقدم Decoupled-DMD مع الحفاظ على الجودة الواقعية للصور. بخطوات استنتاج 8 فقط، يناسب 16 جيجابايت VRAM ويقدم نتائج احترافية محسّنة لبيئات الإنتاج الحرجة من حيث السرعة.
- 8 خطوات استنتاج فقط (مقابل 20-50 للمنافسين)
- إنشاء في أقل من ثانية على وحدات GPU H800
- أسرع بـ 1.31-1.41× من Qwen Image لكل خطوة
- يناسب 16 جيجابايت VRAM (RTX 3060/4090)
- نموذج مفتوح المصدر رقم 1 في AI Arena
- عرض نص ثنائي اللغة (الإنجليزية والصينية)
- التزام قوي بالتعليمات
- يتفوق على FLUX.1 [dev] و Qwen في جميع الفئات
محفظة النماذج الاستراتيجية لـ Alibaba
تقدم Alibaba ثلاثة أنظمة متخصصة لإنشاء الصور بالذكاء الاصطناعي، كل منها محسّن لحالات استخدام مختلفة
Z-Image Turbo
فريق Tongyi-MAI
- ⚡ الأسرع: 8 خطوات، إنشاء في أقل من ثانية
- 🏆 نموذج مفتوح المصدر رقم 1
- 💰 الأكثر فعالية من حيث التكلفة ($0.005/صورة)
- 🎯 محسّن للتكرار السريع
Qwen-Image
فريق Qwen
- 🎨 واقعية للصور وملمس بشرة لا مثيل له
- 💡 تفاعلات إضاءة متفوقة
- ⏱️ أبطأ (20 ثانية مقابل 5-10 ثواني لـ Z-Image)
- 🎯 الأفضل لأعمال الإنتاج الراقية
Wan 2.5/2.6
فريق Wan
- 🎬 نص إلى فيديو + صورة إلى فيديو
- 📹 دعم دقة متعددة (480P-720P)
- 🔄 مزامنة سمعية بصرية
- 🎯 إنشاء محتوى عبر الأنماط
Key Insight: Z-Image Turbo أسرع بـ 1.31-1.41× من Qwen-Image لكل خطوة، مما يجعله مثالياً للتطبيقات التي تتطلب إنشاءً سريعاً. بينما يقدم Qwen-Image واقعية أفضل قليلاً للصور للتصيير النهائي، يوفر Z-Image Turbo أفضل توازن بين السرعة والجودة لبيئات الإنتاج.
أبرز النقاط التقنية
تتبنى بنية Single-Stream Diffusion Transformer (S3-DiT) التي توحد معالجة المدخلات المشروطة المختلفة. يحقق تصميم 6 مليارات معامل هذا نتائج احترافية دون العبء الحسابي للنماذج الأكبر مع الحفاظ على جودة حديثة.
خوارزمية التقطير المتقدمة مع آليات CFG Augmentation و Distribution Matching تمكن من استنتاج 8 خطوات (مقابل 20-50 للمنافسين). تحقق إنشاءً في أقل من ثانية على وحدات GPU H800 وتعمل بسلاسة على RTX 3060/4090 الاستهلاكية بـ 16 جيجابايت VRAM.
مصنف كنموذج مفتوح المصدر رقم 1 في Artificial Analysis Image Arena، متفوقاً على FLUX.2 [dev] و HunyuanImage 3.0 و Qwen-Image. يتفوق في عرض النص ثنائي اللغة (الإنجليزية والصينية)، والإنشاء الواقعي للصور، والالتزام القوي بالتعليمات. صدر بموجب ترخيص Apache 2.0 للاستخدام التجاري.
مثالي لـ
لماذا تختار Z-Image Turbo
نتائج فورية
إنشاء في أقل من ثانية مع زمن وصول بدء بارد صفر. احصل على صورك على الفور دون أي انتظار.فعال من حيث التكلفة
سعر معقول $0.005 لكل صورة. وسّع مشاريعك الإبداعية دون تجاوز الميزانية.API جاهز للاستخدام
تكامل REST API بسيط. ابدأ في إنشاء الصور في دقائق مع وثائقنا الشاملة.المواصفات التقنية
ابدأ الإنشاء مع Z-Image Turbo
جرب إنشاء الصور الواقعية بسرعة البرق اليوم. لا حاجة للإعداد، فقط اتصل بـ API الخاص بنا وابدأ الإنشاء.
Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image
Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.
Ultra-fast generation with production-ready quality
Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.
Why it looks so good?
- Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
- Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
- Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
- Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
- Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
- Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.
How to use
- prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
- size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
- seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.
Pricing
Simple per-image billing:
- Without prompt rewriting (prompt_extend=false): $0.015 per generated image
- With prompt rewriting (prompt_extend=true): $0.03 per generated image
Try more models and see their difference!
- Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
- Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
- FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.






