
Z-Image Turbo API by Alibaba
Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.
WEJŚCIE
WYJŚCIE
BezczynnyKażde uruchomienie będzie kosztować $0.01. Za $10 możesz uruchomić ten model około 1000 razy.
Co możesz zrobić dalej:
Przykład kodu
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()Instalacja
Zainstaluj wymagany pakiet dla swojego języka programowania.
pip install requestsUwierzytelnianie
Wszystkie żądania API wymagają uwierzytelnienia za pomocą klucza API. Klucz API możesz uzyskać z panelu Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"Nagłówki HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Nigdy nie ujawniaj swojego klucza API w kodzie po stronie klienta ani w publicznych repozytoriach. Zamiast tego użyj zmiennych środowiskowych lub proxy backendowego.
Wyślij żądanie
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Wyślij żądanie
Wyślij asynchroniczne żądanie generowania. API zwróci identyfikator predykcji, którego możesz użyć do sprawdzania statusu i pobierania wyniku.
/api/v1/model/generateImageTreść żądania
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Odpowiedź
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Sprawdź status
Odpytuj endpoint predykcji, aby sprawdzić bieżący status żądania.
/api/v1/model/prediction/{prediction_id}Przykład odpytywania
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Wartości statusu
processingŻądanie jest wciąż przetwarzane.completedGenerowanie zakończone. Wyniki są dostępne.succeededGenerowanie powiodło się. Wyniki są dostępne.failedGenerowanie nie powiodło się. Sprawdź pole błędu.Odpowiedź ukończona
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Prześlij pliki
Prześlij pliki do magazynu Atlas Cloud i uzyskaj URL, którego możesz użyć w swoich żądaniach API. Użyj multipart/form-data do przesyłania.
/api/v1/model/uploadMediaPrzykład przesyłania
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Odpowiedź
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema wejściowy
Następujące parametry są akceptowane w treści żądania.
Brak dostępnych parametrów.
Przykładowa treść żądania
{
"model": "z-image/turbo"
}Schema wyjściowy
API zwraca odpowiedź predykcji z URL-ami wygenerowanych wyników.
Przykładowa odpowiedź
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills integruje ponad 300 modeli AI bezpośrednio z Twoim asystentem kodowania AI. Jedno polecenie do instalacji, a następnie używaj języka naturalnego do generowania obrazów, filmów i rozmów z LLM.
Obsługiwani klienci
Instalacja
npx skills add AtlasCloudAI/atlas-cloud-skillsSkonfiguruj klucz API
Uzyskaj klucz API z panelu Atlas Cloud i ustaw go jako zmienną środowiskową.
export ATLASCLOUD_API_KEY="your-api-key-here"Możliwości
Po zainstalowaniu możesz używać języka naturalnego w swoim asystencie AI, aby uzyskać dostęp do wszystkich modeli Atlas Cloud.
Serwer MCP
Serwer MCP Atlas Cloud łączy Twoje IDE z ponad 300 modelami AI za pośrednictwem Model Context Protocol. Działa z każdym klientem kompatybilnym z MCP.
Obsługiwani klienci
Instalacja
npx -y atlascloud-mcpKonfiguracja
Dodaj następującą konfigurację do pliku ustawień MCP w swoim IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Dostępne narzędzia
API Schema
Schema niedostępnaZaloguj się, aby wyświetlić historię zapytań
Musisz być zalogowany, aby uzyskać dostęp do historii zapytań modelu.
Zaloguj sięZ-Image Turbo - Błyskawiczne Generowanie Tekstu na Obraz
NOWYModel 6 Miliardów Parametrów od Alibaba TONGYIMAI
Z-Image Turbo to model tekstu na obraz typu open source o najwyższej pozycji #1, przewyższający FLUX.2 [dev], HunyuanImage 3.0 i Qwen-Image w Artificial Analysis Image Arena. Zbudowany przez zespół Tongyi-MAI firmy Alibaba (oddzielny dział od Qwen/Wan), ten model 6 miliardów parametrów osiąga generowanie w czasie poniżej sekundy dzięki zaawansowanej destylacji Decoupled-DMD, zachowując jednocześnie fotorealistyczną jakość. Z zaledwie 8 krokami inferencji mieści się w 16GB VRAM i zapewnia profesjonalne wyniki zoptymalizowane dla środowisk produkcyjnych krytycznych pod względem szybkości.
- Tylko 8 kroków inferencji (vs 20-50 u konkurencji)
- Generowanie w czasie poniżej sekundy na GPU H800
- 1.31-1.41× szybsze niż Qwen Image na krok
- Mieści się w 16GB VRAM (RTX 3060/4090)
- Model open source #1 w AI Arena
- Dwujęzyczne renderowanie tekstu (angielski i chiński)
- Solidne przestrzeganie instrukcji
- Pokonuje FLUX.1 [dev] i Qwen we wszystkich kategoriach
Strategiczne Portfolio Modeli Alibaba
Alibaba oferuje trzy specjalistyczne systemy generowania obrazów AI, każdy zoptymalizowany pod kątem różnych przypadków użycia
Z-Image Turbo
Zespół Tongyi-MAI
- ⚡ Najszybszy: 8 kroków, generowanie poniżej sekundy
- 🏆 Model open source #1
- 💰 Najbardziej opłacalny ($0.005/obraz)
- 🎯 Zoptymalizowany pod kątem szybkiej iteracji
Qwen-Image
Zespół Qwen
- 🎨 Niezrównany fotorealizm i tekstury skóry
- 💡 Doskonałe interakcje świetlne
- ⏱️ Wolniejszy (20s vs 5-10s dla Z-Image)
- 🎯 Najlepszy dla prac produkcyjnych wysokiej klasy
Wan 2.5/2.6
Zespół Wan
- 🎬 Tekst na Wideo + Obraz na Wideo
- 📹 Wsparcie wielorozdzielczości (480P-720P)
- 🔄 Synchronizacja audiowizualna
- 🎯 Generowanie treści międzymodalnych
Key Insight: Z-Image Turbo jest 1.31-1.41× szybszy niż Qwen-Image na krok, co czyni go idealnym dla aplikacji wymagających szybkiego generowania. Choć Qwen-Image oferuje nieco lepszy fotorealizm dla ostatecznych renderingów, Z-Image Turbo zapewnia najlepszą równowagę między szybkością a jakością dla środowisk produkcyjnych.
Najważniejsze Aspekty Techniczne
Przyjmuje architekturę Single-Stream Diffusion Transformer (S3-DiT), która ujednolica przetwarzanie różnych wejść warunkowych. Ten projekt 6 miliardów parametrów osiąga profesjonalne wyniki bez obciążenia obliczeniowego większych modeli, zachowując jednocześnie najnowocześniejszą jakość.
Zaawansowany algorytm destylacji z mechanizmami CFG Augmentation i Distribution Matching umożliwia inferencję w 8 krokach (vs 20-50 u konkurencji). Osiąga generowanie w czasie poniżej sekundy na GPU H800 i działa płynnie na konsumenckich RTX 3060/4090 z 16GB VRAM.
Zajmuje pozycję #1 modelu open source w Artificial Analysis Image Arena, pokonując FLUX.2 [dev], HunyuanImage 3.0 i Qwen-Image. Wyróżnia się w dwujęzycznym renderowaniu tekstu (angielski i chiński), fotorealistycznym generowaniu i solidnym przestrzeganiu instrukcji. Wydany na licencji Apache 2.0 do użytku komercyjnego.
Idealny Do
Dlaczego Wybrać Z-Image Turbo
Natychmiastowe Wyniki
Generowanie w czasie poniżej sekundy z zerowym opóźnieniem zimnego startu. Otrzymuj swoje obrazy natychmiast bez czekania.Opłacalny
Przystępna cena $0.005 za obraz. Skaluj swoje kreatywne projekty bez przekraczania budżetu.Gotowy do Użycia API
Prosta integracja REST API. Zacznij generować obrazy w kilka minut dzięki naszej kompleksowej dokumentacji.Specyfikacje Techniczne
Zacznij Tworzyć z Z-Image Turbo
Doświadcz już dziś błyskawicznego, fotorealistycznego generowania obrazów. Brak konfiguracji, po prostu wywołaj nasze API i zacznij tworzyć.
Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image
Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.
Ultra-fast generation with production-ready quality
Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.
Why it looks so good?
- Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
- Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
- Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
- Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
- Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
- Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.
How to use
- prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
- size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
- seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.
Pricing
Simple per-image billing:
- Without prompt rewriting (prompt_extend=false): $0.015 per generated image
- With prompt rewriting (prompt_extend=true): $0.03 per generated image
Try more models and see their difference!
- Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
- Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
- FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.






