
Z-Image Turbo API by Alibaba
Z-Image-Turbo is a 6 billion parameter text-to-image model that generates photorealistic images in sub-second time. Ready-to-use REST inference API, best performance, no coldstarts, affordable pricing.
コード例
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()インストール
お使いの言語に必要なパッケージをインストールしてください。
pip install requests認証
すべての API リクエストには API キーによる認証が必要です。API キーは Atlas Cloud ダッシュボードから取得できます。
export ATLASCLOUD_API_KEY="your-api-key-here"HTTP ヘッダー
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}API キーをクライアントサイドのコードや公開リポジトリに公開しないでください。代わりに環境変数またはバックエンドプロキシを使用してください。
リクエストを送信
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())リクエストを送信
非同期生成リクエストを送信します。API は予測 ID を返し、それを使用してステータスの確認や結果の取得ができます。
/api/v1/model/generateImageリクエストボディ
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "z-image/turbo",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")レスポンス
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}ステータスを確認
予測エンドポイントをポーリングして、リクエストの現在のステータスを確認します。
/api/v1/model/prediction/{prediction_id}ポーリング例
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)ステータス値
processingリクエストはまだ処理中です。completed生成が完了しました。出力が利用可能です。succeeded生成が成功しました。出力が利用可能です。failed生成に失敗しました。エラーフィールドを確認してください。完了レスポンス
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}ファイルをアップロード
Atlas Cloud ストレージにファイルをアップロードし、API リクエストで使用できる URL を取得します。multipart/form-data を使用してアップロードします。
/api/v1/model/uploadMediaアップロード例
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")レスポンス
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}入力 Schema
以下のパラメータがリクエストボディで使用できます。
利用可能なパラメータはありません。
リクエストボディの例
{
"model": "z-image/turbo"
}出力 Schema
API は生成された出力 URL を含む予測レスポンスを返します。
レスポンス例
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills は 300 以上の AI モデルを AI コーディングアシスタントに直接統合します。ワンコマンドでインストールし、自然言語で画像・動画生成や LLM との対話が可能です。
対応クライアント
インストール
npx skills add AtlasCloudAI/atlas-cloud-skillsAPI キーの設定
Atlas Cloud ダッシュボードから API キーを取得し、環境変数として設定してください。
export ATLASCLOUD_API_KEY="your-api-key-here"機能
インストール後、AI アシスタントで自然言語を使用してすべての Atlas Cloud モデルにアクセスできます。
MCP Server
Atlas Cloud MCP Server は Model Context Protocol を通じて IDE と 300 以上の AI モデルを接続します。MCP 対応のあらゆるクライアントで動作します。
対応クライアント
インストール
npx -y atlascloud-mcp設定
以下の設定を IDE の MCP 設定ファイルに追加してください。
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}利用可能なツール
APIスキーマ
スキーマが利用できませんZ-Image Turbo - 超高速テキスト to 画像生成
最新Alibaba TONGYIMAI チームによる 60 億パラメータモデル
Z-Image Turbo は、Artificial Analysis Image Arena で FLUX.2 [dev]、HunyuanImage 3.0、Qwen-Image を上回る第 1 位のオープンソーステキスト to 画像モデルです。Alibaba の通義万相チーム(Qwen/Wan とは別部門)が構築したこの 60 億パラメータモデルは、先進的な Decoupled-DMD 蒸留により、写真のようなクオリティを維持しながら 1 秒未満の生成を実現します。推論ステップはわずか 8 回で、16GB VRAM に収まり、速度重視の本番環境向けにプロフェッショナルな結果を提供します。
- 推論ステップはわずか 8 回(競合は 20-50 回)
- H800 GPU で 1 秒未満の生成
- Qwen Image より 1 ステップあたり 1.31-1.41 倍高速
- 16GB VRAM に対応(RTX 3060/4090)
- AI Arena でオープンソースモデル第 1 位
- 英語と中国語のバイリンガルテキストレンダリング
- 強力な指示追従能力
- すべてのカテゴリで FLUX.1 [dev] と Qwen を凌駕
Alibaba の戦略的モデルポートフォリオ
Alibaba は、それぞれ異なるユースケースに最適化された 3 つの専門的な AI 画像生成システムを提供しています
Z-Image Turbo
通義万相チーム
- ⚡ 最速:8 ステップ、1 秒未満の生成
- 🏆 オープンソースモデル第 1 位
- 💰 最もコスト効率的($0.005/画像)
- 🎯 高速イテレーションに最適化
Qwen-Image
Qwen チーム
- 🎨 比類なき写真リアリズムと肌の質感
- 💡 優れた照明インタラクション
- ⏱️ 遅い(20秒 vs Z-Image の 5-10秒)
- 🎯 ハイエンド制作作業に最適
Wan 2.5/2.6
Wan チーム
- 🎬 テキスト to ビデオ + 画像 to ビデオ
- 📹 マルチ解像度サポート(480P-720P)
- 🔄 オーディオビジュアル同期
- 🎯 クロスモーダルコンテンツ生成
Key Insight: Z-Image Turbo は Qwen-Image より 1 ステップあたり 1.31-1.41 倍高速で、高速生成を必要とするアプリケーションに最適です。最終レンダリングの写真リアリズムでは Qwen-Image がやや優れていますが、Z-Image Turbo は本番環境において速度と品質の最適なバランスを提供します。
技術的ハイライト
さまざまな条件入力の処理を統一する Single-Stream Diffusion Transformer(S3-DiT)アーキテクチャを採用。この 60 億パラメータ設計は、大規模モデルの計算オーバーヘッドなしにプロフェッショナルな結果を実現し、最先端の品質を維持します。
CFG 拡張と分布マッチングメカニズムを備えた先進的な蒸留アルゴリズムにより、8 ステップ推論を実現(競合は 20-50 ステップ)。H800 GPU で 1 秒未満の生成を達成し、16GB VRAM のコンシューマー向け RTX 3060/4090 でスムーズに動作します。
Artificial Analysis Image Arena でオープンソースモデル第 1 位にランク、FLUX.2 [dev]、HunyuanImage 3.0、Qwen-Image を凌駕。英語と中国語のバイリンガルテキストレンダリング、写真のような生成、強力な指示追従に優れています。商用利用可能な Apache 2.0 ライセンスでリリース。
最適な用途
Z-Image Turbo を選ぶ理由
即座の結果
コールドスタートレイテンシゼロで 1 秒未満の生成。待ち時間なしで即座に画像を取得できます。コスト効率的
1 画像あたり $0.005 のお手頃価格。予算を気にせずクリエイティブプロジェクトを拡大できます。すぐに使える API
シンプルな REST API 統合。包括的なドキュメントで数分以内に画像生成を開始できます。技術仕様
Z-Image Turbo で制作を開始
超高速で写真のような画像生成を今すぐ体験。セットアップ不要、API を呼び出すだけで制作を開始できます。
Z-Image-Turbo — 6B-parameter, ultra-fast text-to-image
Z-Image-Turbo is a 6B-parameter text-to-image model from Tongyi-MAI, engineered for production workloads where latency and throughput really matter. It uses only 8 sampling steps to render a full image, achieving sub-second latency on data-center GPUs and running comfortably on many 16 GB VRAM consumer cards.
Ultra-fast generation with production-ready quality
Where many diffusion models need dozens of steps, Z-Image-Turbo is aggressively optimised around an 8-step sampler. That keeps inference extremely fast while still delivering photorealistic images and reliable on-image text, making it a strong fit for interactive products, dashboards, and large-scale backends—not just offline batch jobs.
Why it looks so good?
- Photorealistic output at speed Generates high-fidelity, realistic images that work for product photos, hero banners, and UI visuals without multi-second waits.
- Bilingual prompts and text Understands prompts in English and Chinese, and can render multilingual text directly in the image—helpful for cross-market campaigns, posters, and screenshots.
- Low-latency, low-step design Only 8 function evaluations per image deliver extremely low latency, ideal for chatbots, configuration tools, design assistants, and any “click → image” experience.
- Friendly VRAM footprint Runs well in 16 GB VRAM environments, reducing hardware costs and making local or edge deployments more realistic.
- Scales for bulk generation Its efficiency makes large jobs—catalogues, continuous feed images, or auto-generated thumbnails—practical without blowing up compute budgets.
- Reproducible generations A controllable seed parameter lets you recreate a previous image or generate small, controlled variations for brand safety and experimentation.
How to use
- prompt – natural-language description of the scene, style, and any on-image text (English or Chinese).
- size (width / height) – choose the output resolution; supports square and rectangular images up to high resolutions (for example, 1536 × 1536).
- seed – set to -1 for random results, or use a fixed integer to make outputs reproducible.
Pricing
Simple per-image billing:
- Without prompt rewriting (prompt_extend=false): $0.015 per generated image
- With prompt rewriting (prompt_extend=true): $0.03 per generated image
Try more models and see their difference!
- Nano Banana Pro – Text-to-Image – Google’s Nano Banana Pro (Gemini 3.0 Pro Image family) delivers high-quality multi-image generation with extremely low cost per image, ideal for large-scale applications.
- Seedream V4 – Text-to-Image – ByteDance’s high-resolution text-to-image model with rich detail and diverse styles, well suited for creative illustration and commercial visuals.
- FLUX.2 [dev] – Text-to-Image – A lightweight FLUX.2-based base model hosted by AtlasCloud, optimised for efficient inference and LoRA-friendly training.






