Z-Image Turbo
tekst-do-obrazu
TURBO

Z-Image Turbo API by Alibaba

z-image/turbo
Turbo

Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.

WEJŚCIE

Ładowanie konfiguracji parametrów...

WYJŚCIE

Bezczynny
Twoje wygenerowane obrazy pojawią się tutaj
Skonfiguruj ustawienia i kliknij Uruchom, aby rozpocząć

Każde uruchomienie będzie kosztować $0.01. Za $10 możesz uruchomić ten model około 1000 razy.

Co możesz zrobić dalej:

Parametry

Przykład kodu

import requests
import time

# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "z-image/turbo",
    "prompt": "A beautiful landscape with mountains and lake",
    "width": 512,
    "height": 512,
    "steps": 20,
    "guidance_scale": 7.5,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] == "completed":
            print("Generated image:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

image_url = check_status()

Instalacja

Zainstaluj wymagany pakiet dla swojego języka programowania.

bash
pip install requests

Uwierzytelnianie

Wszystkie żądania API wymagają uwierzytelnienia za pomocą klucza API. Klucz API możesz uzyskać z panelu Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Nagłówki HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Chroń swój klucz API

Nigdy nie ujawniaj swojego klucza API w kodzie po stronie klienta ani w publicznych repozytoriach. Zamiast tego użyj zmiennych środowiskowych lub proxy backendowego.

Wyślij żądanie

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Wyślij żądanie

Wyślij asynchroniczne żądanie generowania. API zwróci identyfikator predykcji, którego możesz użyć do sprawdzania statusu i pobierania wyniku.

POST/api/v1/model/generateImage

Treść żądania

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "z-image/turbo",
    "input": {
        "prompt": "A beautiful landscape with mountains and lake"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

Odpowiedź

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

Sprawdź status

Odpytuj endpoint predykcji, aby sprawdzić bieżący status żądania.

GET/api/v1/model/prediction/{prediction_id}

Przykład odpytywania

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

Wartości statusu

processingŻądanie jest wciąż przetwarzane.
completedGenerowanie zakończone. Wyniki są dostępne.
succeededGenerowanie powiodło się. Wyniki są dostępne.
failedGenerowanie nie powiodło się. Sprawdź pole błędu.

Odpowiedź ukończona

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.png"
    ],
    "metrics": {
      "predict_time": 8.3
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

Prześlij pliki

Prześlij pliki do magazynu Atlas Cloud i uzyskaj URL, którego możesz użyć w swoich żądaniach API. Użyj multipart/form-data do przesyłania.

POST/api/v1/model/uploadMedia

Przykład przesyłania

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

Odpowiedź

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Schema wejściowy

Następujące parametry są akceptowane w treści żądania.

Łącznie: 0Wymagane: 0Opcjonalne: 0

Brak dostępnych parametrów.

Przykładowa treść żądania

json
{
  "model": "z-image/turbo"
}

Schema wyjściowy

API zwraca odpowiedź predykcji z URL-ami wygenerowanych wyników.

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for image generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

Przykładowa odpowiedź

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.png"
  ],
  "metrics": {
    "predict_time": 8.3
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills integruje ponad 300 modeli AI bezpośrednio z Twoim asystentem kodowania AI. Jedno polecenie do instalacji, a następnie używaj języka naturalnego do generowania obrazów, filmów i rozmów z LLM.

Obsługiwani klienci

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ obsługiwani klienci

Instalacja

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Skonfiguruj klucz API

Uzyskaj klucz API z panelu Atlas Cloud i ustaw go jako zmienną środowiskową.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Możliwości

Po zainstalowaniu możesz używać języka naturalnego w swoim asystencie AI, aby uzyskać dostęp do wszystkich modeli Atlas Cloud.

Generowanie obrazówGeneruj obrazy za pomocą modeli takich jak Nano Banana 2, Z-Image i inne.
Tworzenie wideoTwórz filmy z tekstu lub obrazów za pomocą Kling, Vidu, Veo itp.
Chat LLMRozmawiaj z Qwen, DeepSeek i innymi dużymi modelami językowymi.
Przesyłanie mediówPrześlij lokalne pliki do edycji obrazów i przepływów pracy obraz-do-wideo.

Serwer MCP

Serwer MCP Atlas Cloud łączy Twoje IDE z ponad 300 modelami AI za pośrednictwem Model Context Protocol. Działa z każdym klientem kompatybilnym z MCP.

Obsługiwani klienci

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ obsługiwani klienci

Instalacja

bash
npx -y atlascloud-mcp

Konfiguracja

Dodaj następującą konfigurację do pliku ustawień MCP w swoim IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Dostępne narzędzia

atlas_generate_imageGeneruj obrazy z promptów tekstowych.
atlas_generate_videoTwórz filmy z tekstu lub obrazów.
atlas_chatRozmawiaj z dużymi modelami językowymi.
atlas_list_modelsPrzeglądaj ponad 300 dostępnych modeli AI.
atlas_quick_generateTworzenie treści w jednym kroku z automatycznym wyborem modelu.
atlas_upload_mediaPrześlij lokalne pliki do przepływów pracy API.

API Schema

Schema niedostępna

Zaloguj się, aby wyświetlić historię zapytań

Musisz być zalogowany, aby uzyskać dostęp do historii zapytań modelu.

Zaloguj się

Z-Image Turbo - Błyskawiczne Generowanie Tekstu na Obraz

NOWY

Model 6 Miliardów Parametrów od Alibaba TONGYIMAI

Z-Image Turbo to model tekstu na obraz typu open source o najwyższej pozycji #1, przewyższający FLUX.2 [dev], HunyuanImage 3.0 i Qwen-Image w Artificial Analysis Image Arena. Zbudowany przez zespół Tongyi-MAI firmy Alibaba (oddzielny dział od Qwen/Wan), ten model 6 miliardów parametrów osiąga generowanie w czasie poniżej sekundy dzięki zaawansowanej destylacji Decoupled-DMD, zachowując jednocześnie fotorealistyczną jakość. Z zaledwie 8 krokami inferencji mieści się w 16GB VRAM i zapewnia profesjonalne wyniki zoptymalizowane dla środowisk produkcyjnych krytycznych pod względem szybkości.

Ultraszybkie Generowanie
  • Tylko 8 kroków inferencji (vs 20-50 u konkurencji)
  • Generowanie w czasie poniżej sekundy na GPU H800
  • 1.31-1.41× szybsze niż Qwen Image na krok
  • Mieści się w 16GB VRAM (RTX 3060/4090)
Fotorealistyczna Jakość
  • Model open source #1 w AI Arena
  • Dwujęzyczne renderowanie tekstu (angielski i chiński)
  • Solidne przestrzeganie instrukcji
  • Pokonuje FLUX.1 [dev] i Qwen we wszystkich kategoriach

Strategiczne Portfolio Modeli Alibaba

Alibaba oferuje trzy specjalistyczne systemy generowania obrazów AI, każdy zoptymalizowany pod kątem różnych przypadków użycia

Mistrz Szybkości

Z-Image Turbo

Zespół Tongyi-MAI

Best For: Obciążenia produkcyjne krytyczne pod względem szybkości
  • ⚡ Najszybszy: 8 kroków, generowanie poniżej sekundy
  • 🏆 Model open source #1
  • 💰 Najbardziej opłacalny ($0.005/obraz)
  • 🎯 Zoptymalizowany pod kątem szybkiej iteracji
Król Jakości

Qwen-Image

Zespół Qwen

Best For: Ostateczne renderingi najwyższej jakości
  • 🎨 Niezrównany fotorealizm i tekstury skóry
  • 💡 Doskonałe interakcje świetlne
  • ⏱️ Wolniejszy (20s vs 5-10s dla Z-Image)
  • 🎯 Najlepszy dla prac produkcyjnych wysokiej klasy
Profesjonalista Wszechstronności

Wan 2.5/2.6

Zespół Wan

Best For: Wszechstronność multimedialna
  • 🎬 Tekst na Wideo + Obraz na Wideo
  • 📹 Wsparcie wielorozdzielczości (480P-720P)
  • 🔄 Synchronizacja audiowizualna
  • 🎯 Generowanie treści międzymodalnych

Key Insight: Z-Image Turbo jest 1.31-1.41× szybszy niż Qwen-Image na krok, co czyni go idealnym dla aplikacji wymagających szybkiego generowania. Choć Qwen-Image oferuje nieco lepszy fotorealizm dla ostatecznych renderingów, Z-Image Turbo zapewnia najlepszą równowagę między szybkością a jakością dla środowisk produkcyjnych.

Najważniejsze Aspekty Techniczne

Wydajność
Architektura S3-DiT

Przyjmuje architekturę Single-Stream Diffusion Transformer (S3-DiT), która ujednolica przetwarzanie różnych wejść warunkowych. Ten projekt 6 miliardów parametrów osiąga profesjonalne wyniki bez obciążenia obliczeniowego większych modeli, zachowując jednocześnie najnowocześniejszą jakość.

Szybkość
Destylacja Decoupled-DMD

Zaawansowany algorytm destylacji z mechanizmami CFG Augmentation i Distribution Matching umożliwia inferencję w 8 krokach (vs 20-50 u konkurencji). Osiąga generowanie w czasie poniżej sekundy na GPU H800 i działa płynnie na konsumenckich RTX 3060/4090 z 16GB VRAM.

Jakość
Wiodąca Wydajność Open Source

Zajmuje pozycję #1 modelu open source w Artificial Analysis Image Arena, pokonując FLUX.2 [dev], HunyuanImage 3.0 i Qwen-Image. Wyróżnia się w dwujęzycznym renderowaniu tekstu (angielski i chiński), fotorealistycznym generowaniu i solidnym przestrzeganiu instrukcji. Wydany na licencji Apache 2.0 do użytku komercyjnego.

Idealny Do

🎨
Tworzenia Sztuki Cyfrowej
📸
Fotografii Produktowej
📊
Materiałów Marketingowych
🎬
Sztuki Koncepcyjnej
📱
Treści Social Media
🖼️
Fotografii Stockowej
🎮
Zasobów Gier
Prototypowania Kreatywnego

Dlaczego Wybrać Z-Image Turbo

Natychmiastowe Wyniki
Generowanie w czasie poniżej sekundy z zerowym opóźnieniem zimnego startu. Otrzymuj swoje obrazy natychmiast bez czekania.
💰
Opłacalny
Przystępna cena $0.005 za obraz. Skaluj swoje kreatywne projekty bez przekraczania budżetu.
🔌
Gotowy do Użycia API
Prosta integracja REST API. Zacznij generować obrazy w kilka minut dzięki naszej kompleksowej dokumentacji.

Specyfikacje Techniczne

Architektura Modelu6 Miliardów Parametrów
Kroki Inferencji8 NFEs (Number of Function Evaluations)
Szybkość GenerowaniaPoniżej sekundy na H800, 5-10s na GPU konsumenckich
Wymaganie VRAM16GB (kompatybilny z RTX 3060/4090)
ArchitekturaSingle-Stream Diffusion Transformer (S3-DiT)
Metoda DestylacjiDecoupled-DMD z CFG Augmentation
LicencjaApache 2.0 (Dozwolone Użycie Komercyjne)
Ranking#1 Open Source w Artificial Analysis Arena
Cennik$0.005 za Obraz

Zacznij Tworzyć z Z-Image Turbo

Doświadcz już dziś błyskawicznego, fotorealistycznego generowania obrazów. Brak konfiguracji, po prostu wywołaj nasze API i zacznij tworzyć.

Brak zimnych startów - natychmiastowe generowanie
Przystępna cena - $0.005 za obraz
Profesjonalne wyniki jakościowe

Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image

Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.

Ultra-fast generation with production-ready quality

Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.

Why it looks so good?

  • Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
  • Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
  • Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
  • Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
  • Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
  • Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.

How to use

  • prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
  • size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
  • seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.

Pricing

Simple per-image billing:

  • Without prompt rewriting (prompt_extend=false): $0.015 per generated image
  • With prompt rewriting (prompt_extend=true): $0.03 per generated image

Try more models and see their difference!

  • Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
  • Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
  • FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.

Paper

Tongyi-MAI/Z-Image-Turbo

Zacznij Od 300+ Modeli,

Przeglądaj wszystkie modele

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.