alibaba/qwen-image/edit-plus

Supports multiple image inputs and outputs, allowing for precise modification of text within images, addition, deletion, or movement of objects, alteration of subject actions, transfer of image styles, and enhancement of image details.

IMAGE-TO-IMAGEHOTNEW
Qwen-Image Edit Plus
画像から画像

Supports multiple image inputs and outputs, allowing for precise modification of text within images, addition, deletion, or movement of objects, alteration of subject actions, transfer of image styles, and enhancement of image details.

入力

パラメータ設定を読み込み中...

出力

待機中
生成された画像がここに表示されます
設定を構成して「実行」をクリックして開始

各実行には0.021かかります。$10で約476回実行できます。

次にできること:

パラメータ

コード例

import requests
import time

# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "alibaba/qwen-image/edit-plus",
    "prompt": "A beautiful landscape with mountains and lake",
    "width": 512,
    "height": 512,
    "steps": 20,
    "guidance_scale": 7.5,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] == "completed":
            print("Generated image:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

image_url = check_status()

インストール

お使いの言語に必要なパッケージをインストールしてください。

bash
pip install requests

認証

すべての API リクエストには API キーによる認証が必要です。API キーは Atlas Cloud ダッシュボードから取得できます。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP ヘッダー

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
API キーを安全に保管してください

API キーをクライアントサイドのコードや公開リポジトリに公開しないでください。代わりに環境変数またはバックエンドプロキシを使用してください。

リクエストを送信

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

リクエストを送信

非同期生成リクエストを送信します。API は予測 ID を返し、それを使用してステータスの確認や結果の取得ができます。

POST/api/v1/model/generateImage

リクエストボディ

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "alibaba/qwen-image/edit-plus",
    "input": {
        "prompt": "A beautiful landscape with mountains and lake"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

レスポンス

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

ステータスを確認

予測エンドポイントをポーリングして、リクエストの現在のステータスを確認します。

GET/api/v1/model/prediction/{prediction_id}

ポーリング例

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

ステータス値

processingリクエストはまだ処理中です。
completed生成が完了しました。出力が利用可能です。
succeeded生成が成功しました。出力が利用可能です。
failed生成に失敗しました。エラーフィールドを確認してください。

完了レスポンス

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.png"
    ],
    "metrics": {
      "predict_time": 8.3
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

ファイルをアップロード

Atlas Cloud ストレージにファイルをアップロードし、API リクエストで使用できる URL を取得します。multipart/form-data を使用してアップロードします。

POST/api/v1/model/uploadMedia

アップロード例

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

レスポンス

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

入力 Schema

以下のパラメータがリクエストボディで使用できます。

合計: 0必須: 0任意: 0

利用可能なパラメータはありません。

リクエストボディの例

json
{
  "model": "alibaba/qwen-image/edit-plus"
}

出力 Schema

API は生成された出力 URL を含む予測レスポンスを返します。

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for image generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

レスポンス例

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.png"
  ],
  "metrics": {
    "predict_time": 8.3
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills は 300 以上の AI モデルを AI コーディングアシスタントに直接統合します。ワンコマンドでインストールし、自然言語で画像・動画生成や LLM との対話が可能です。

対応クライアント

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 対応クライアント

インストール

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API キーの設定

Atlas Cloud ダッシュボードから API キーを取得し、環境変数として設定してください。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

機能

インストール後、AI アシスタントで自然言語を使用してすべての Atlas Cloud モデルにアクセスできます。

画像生成Nano Banana 2、Z-Image などのモデルで画像を生成します。
動画作成Kling、Vidu、Veo などでテキストや画像から動画を作成します。
LLM チャットQwen、DeepSeek などの大規模言語モデルと対話します。
メディアアップロード画像編集や画像から動画へのワークフロー用にローカルファイルをアップロードします。

MCP Server

Atlas Cloud MCP Server は Model Context Protocol を通じて IDE と 300 以上の AI モデルを接続します。MCP 対応のあらゆるクライアントで動作します。

対応クライアント

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 対応クライアント

インストール

bash
npx -y atlascloud-mcp

設定

以下の設定を IDE の MCP 設定ファイルに追加してください。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

利用可能なツール

atlas_generate_imageテキストプロンプトから画像を生成します。
atlas_generate_videoテキストや画像から動画を作成します。
atlas_chat大規模言語モデルと対話します。
atlas_list_models300 以上の利用可能な AI モデルを閲覧します。
atlas_quick_generateモデル自動選択によるワンステップコンテンツ作成。
atlas_upload_mediaAPI ワークフロー用にローカルファイルをアップロードします。

APIスキーマ

スキーマが利用できません

リクエスト履歴を表示するにはログインしてください

モデルのリクエスト履歴にアクセスするにはログインが必要です。

ログイン

Alibaba Qwen-Image Edit Plus

An advanced image editing model from Alibaba Cloud, offering precise control and high-quality results. Qwen-Image Edit Plus supports multi-image input and output, enabling complex tasks such as precise text modification, object addition/deletion/movement, action change, style transfer, and detail enhancement.

Overview

  • Purpose: Perform precise image edits using text instructions.
  • Core Capability: Supports single-image editing and multi-image blending.
  • Foundation: Powered by Alibaba's advanced multi-modal generative AI technology.
  • Typical Output: High-quality edited images (1-6 per request) that seamlessly blend changes with the original content.
  • Use Cases: E-commerce product photography, professional photo retouching, creative design adjustments, and marketing asset generation.

Key Features

  • Multi-image Blending:
    • Example: Combine a girl from Image 1, wearing a skirt from Image 2, sitting in a pose from Image 3.
    • Example: Combine a girl from Image 1, a necklace from Image 2, and a bag from Image 3.
  • Single-image Editing:
    • Generate depth-compliant images.
    • Replace text (e.g., "HEALTH INSURANCE" -> "明天会更好").
    • Replace shirt color.
    • Change background (e.g., to Antarctica).
  • High Fidelity: Preserves the quality, lighting, and texture of the original image while applying edits.
  • Precise Editing: Capable of modifying text within images, adding/deleting/moving objects, changing subject actions, transferring styles, and enhancing details.
  • Custom Resolution: Supports specifying output image resolution (512-2048px).
  • Prompt Optimization: Supports intelligent prompt rewriting (prompt_extend) for better results.

Designed For

  • Designers: Quickly iterate on visual concepts and make adjustments.
  • Photographers: Streamline retouching workflows.
  • E-commerce Merchants: Modify product images for different contexts or variations.
  • Developers: Build powerful image editing applications.

Input Requirements

To achieve the best results, follow these guidelines:

Inputs

  • Structure:
    • messages array with role: user.
    • content array: 1-3 images ({"image": "..."}) + 1 text instruction ({"text": "..."}).
  • Image Format: JPG, JPEG, PNG, BMP, TIFF, WEBP, GIF (first frame).
  • Resolution: Recommended 384px - 3072px.
  • Size Limit: Max 10MB per image.
  • Text Limit: Max 800 characters.

Pricing

  • Billing Logic: Pay-as-you-go based on the number of successful output images.
  • Tier: "Plus" tier offers enhanced capabilities and higher precision compared to the standard version.

How to Use

  1. Prepare Inputs: Collect 1-3 reference images and define your text instruction.
  2. Configure Parameters: Set output count (n), resolution (size), and other options.
  3. Call API: Submit the request with the messages structure containing images and text.
  4. Review: Receive 1-6 edited images based on your specifications.

Limitations & FAQ

  • Conversation: Does not support multi-turn conversation (single turn only).
  • Languages: Chinese and English are supported; other languages are unverified.
  • Aspect Ratio: Output follows the aspect ratio of the input image (or the last image if multiple are provided).

Version

  • Model: Alibaba Qwen-Image Edit Plus
  • Family: Qwen-Image
  • Technical Context: Enhanced version with better detail, instruction following, and multi-image support.

300以上のモデルから始める、

すべてのモデルを探索